ARMv4 assembly pack: implement support for Thumb2.
[openssl.git] / crypto / bn / asm / armv4-gf2m.pl
1 #!/usr/bin/env perl
2 #
3 # ====================================================================
4 # Written by Andy Polyakov <appro@openssl.org> for the OpenSSL
5 # project. The module is, however, dual licensed under OpenSSL and
6 # CRYPTOGAMS licenses depending on where you obtain it. For further
7 # details see http://www.openssl.org/~appro/cryptogams/.
8 # ====================================================================
9 #
10 # May 2011
11 #
12 # The module implements bn_GF2m_mul_2x2 polynomial multiplication
13 # used in bn_gf2m.c. It's kind of low-hanging mechanical port from
14 # C for the time being... Except that it has two code paths: pure
15 # integer code suitable for any ARMv4 and later CPU and NEON code
16 # suitable for ARMv7. Pure integer 1x1 multiplication subroutine runs
17 # in ~45 cycles on dual-issue core such as Cortex A8, which is ~50%
18 # faster than compiler-generated code. For ECDH and ECDSA verify (but
19 # not for ECDSA sign) it means 25%-45% improvement depending on key
20 # length, more for longer keys. Even though NEON 1x1 multiplication
21 # runs in even less cycles, ~30, improvement is measurable only on
22 # longer keys. One has to optimize code elsewhere to get NEON glow...
23 #
24 # April 2014
25 #
26 # Double bn_GF2m_mul_2x2 performance by using algorithm from paper
27 # referred below, which improves ECDH and ECDSA verify benchmarks
28 # by 18-40%.
29 #
30 # Câmara, D.; Gouvêa, C. P. L.; López, J. & Dahab, R.: Fast Software
31 # Polynomial Multiplication on ARM Processors using the NEON Engine.
32
33 # http://conradoplg.cryptoland.net/files/2010/12/mocrysen13.pdf
34
35 $flavour = shift;
36 if ($flavour=~/^\w[\w\-]*\.\w+$/) { $output=$flavour; undef $flavour; }
37 else { while (($output=shift) && ($output!~/^\w[\w\-]*\.\w+$/)) {} }
38
39 if ($flavour && $flavour ne "void") {
40     $0 =~ m/(.*[\/\\])[^\/\\]+$/; $dir=$1;
41     ( $xlate="${dir}arm-xlate.pl" and -f $xlate ) or
42     ( $xlate="${dir}../../perlasm/arm-xlate.pl" and -f $xlate) or
43     die "can't locate arm-xlate.pl";
44
45     open STDOUT,"| \"$^X\" $xlate $flavour $output";
46 } else {
47     open STDOUT,">$output";
48 }
49
50 $code=<<___;
51 #include "arm_arch.h"
52
53 .text
54 #if defined(__thumb2__) && !defined(__APPLE__)
55 .syntax unified
56 .thumb
57 #else
58 .code   32
59 #endif
60 ___
61 ################
62 # private interface to mul_1x1_ialu
63 #
64 $a="r1";
65 $b="r0";
66
67 ($a0,$a1,$a2,$a12,$a4,$a14)=
68 ($hi,$lo,$t0,$t1, $i0,$i1 )=map("r$_",(4..9),12);
69
70 $mask="r12";
71
72 $code.=<<___;
73 .type   mul_1x1_ialu,%function
74 .align  5
75 mul_1x1_ialu:
76         mov     $a0,#0
77         bic     $a1,$a,#3<<30           @ a1=a&0x3fffffff
78         str     $a0,[sp,#0]             @ tab[0]=0
79         add     $a2,$a1,$a1             @ a2=a1<<1
80         str     $a1,[sp,#4]             @ tab[1]=a1
81         eor     $a12,$a1,$a2            @ a1^a2
82         str     $a2,[sp,#8]             @ tab[2]=a2
83         mov     $a4,$a1,lsl#2           @ a4=a1<<2
84         str     $a12,[sp,#12]           @ tab[3]=a1^a2
85         eor     $a14,$a1,$a4            @ a1^a4
86         str     $a4,[sp,#16]            @ tab[4]=a4
87         eor     $a0,$a2,$a4             @ a2^a4
88         str     $a14,[sp,#20]           @ tab[5]=a1^a4
89         eor     $a12,$a12,$a4           @ a1^a2^a4
90         str     $a0,[sp,#24]            @ tab[6]=a2^a4
91         and     $i0,$mask,$b,lsl#2
92         str     $a12,[sp,#28]           @ tab[7]=a1^a2^a4
93
94         and     $i1,$mask,$b,lsr#1
95         ldr     $lo,[sp,$i0]            @ tab[b       & 0x7]
96         and     $i0,$mask,$b,lsr#4
97         ldr     $t1,[sp,$i1]            @ tab[b >>  3 & 0x7]
98         and     $i1,$mask,$b,lsr#7
99         ldr     $t0,[sp,$i0]            @ tab[b >>  6 & 0x7]
100         eor     $lo,$lo,$t1,lsl#3       @ stall
101         mov     $hi,$t1,lsr#29
102         ldr     $t1,[sp,$i1]            @ tab[b >>  9 & 0x7]
103
104         and     $i0,$mask,$b,lsr#10
105         eor     $lo,$lo,$t0,lsl#6
106         eor     $hi,$hi,$t0,lsr#26
107         ldr     $t0,[sp,$i0]            @ tab[b >> 12 & 0x7]
108
109         and     $i1,$mask,$b,lsr#13
110         eor     $lo,$lo,$t1,lsl#9
111         eor     $hi,$hi,$t1,lsr#23
112         ldr     $t1,[sp,$i1]            @ tab[b >> 15 & 0x7]
113
114         and     $i0,$mask,$b,lsr#16
115         eor     $lo,$lo,$t0,lsl#12
116         eor     $hi,$hi,$t0,lsr#20
117         ldr     $t0,[sp,$i0]            @ tab[b >> 18 & 0x7]
118
119         and     $i1,$mask,$b,lsr#19
120         eor     $lo,$lo,$t1,lsl#15
121         eor     $hi,$hi,$t1,lsr#17
122         ldr     $t1,[sp,$i1]            @ tab[b >> 21 & 0x7]
123
124         and     $i0,$mask,$b,lsr#22
125         eor     $lo,$lo,$t0,lsl#18
126         eor     $hi,$hi,$t0,lsr#14
127         ldr     $t0,[sp,$i0]            @ tab[b >> 24 & 0x7]
128
129         and     $i1,$mask,$b,lsr#25
130         eor     $lo,$lo,$t1,lsl#21
131         eor     $hi,$hi,$t1,lsr#11
132         ldr     $t1,[sp,$i1]            @ tab[b >> 27 & 0x7]
133
134         tst     $a,#1<<30
135         and     $i0,$mask,$b,lsr#28
136         eor     $lo,$lo,$t0,lsl#24
137         eor     $hi,$hi,$t0,lsr#8
138         ldr     $t0,[sp,$i0]            @ tab[b >> 30      ]
139
140 #ifdef  __thumb2__
141         itt     ne
142 #endif
143         eorne   $lo,$lo,$b,lsl#30
144         eorne   $hi,$hi,$b,lsr#2
145         tst     $a,#1<<31
146         eor     $lo,$lo,$t1,lsl#27
147         eor     $hi,$hi,$t1,lsr#5
148 #ifdef  __thumb2__
149         itt     ne
150 #endif
151         eorne   $lo,$lo,$b,lsl#31
152         eorne   $hi,$hi,$b,lsr#1
153         eor     $lo,$lo,$t0,lsl#30
154         eor     $hi,$hi,$t0,lsr#2
155
156         mov     pc,lr
157 .size   mul_1x1_ialu,.-mul_1x1_ialu
158 ___
159 ################
160 # void  bn_GF2m_mul_2x2(BN_ULONG *r,
161 #       BN_ULONG a1,BN_ULONG a0,
162 #       BN_ULONG b1,BN_ULONG b0);       # r[3..0]=a1a0·b1b0
163 {
164 $code.=<<___;
165 .global bn_GF2m_mul_2x2
166 .type   bn_GF2m_mul_2x2,%function
167 .align  5
168 bn_GF2m_mul_2x2:
169 #if __ARM_MAX_ARCH__>=7
170         stmdb   sp!,{r10,lr}
171         ldr     r12,.LOPENSSL_armcap
172         adr     r10,.LOPENSSL_armcap
173         ldr     r12,[r12,r10]
174 #ifdef  __APPLE__
175         ldr     r12,[r12]
176 #endif
177         tst     r12,#ARMV7_NEON
178         itt     ne
179         ldrne   r10,[sp],#8
180         bne     .LNEON
181         stmdb   sp!,{r4-r9}
182 #else
183         stmdb   sp!,{r4-r10,lr}
184 #endif
185 ___
186 $ret="r10";     # reassigned 1st argument
187 $code.=<<___;
188         mov     $ret,r0                 @ reassign 1st argument
189         mov     $b,r3                   @ $b=b1
190         sub     r7,sp,#36
191         mov     r8,sp
192         and     r7,r7,#-32
193         ldr     r3,[sp,#32]             @ load b0
194         mov     $mask,#7<<2
195         mov     sp,r7                   @ allocate tab[8]
196         str     r8,[r7,#32]
197
198         bl      mul_1x1_ialu            @ a1·b1
199         str     $lo,[$ret,#8]
200         str     $hi,[$ret,#12]
201
202         eor     $b,$b,r3                @ flip b0 and b1
203          eor    $a,$a,r2                @ flip a0 and a1
204         eor     r3,r3,$b
205          eor    r2,r2,$a
206         eor     $b,$b,r3
207          eor    $a,$a,r2
208         bl      mul_1x1_ialu            @ a0·b0
209         str     $lo,[$ret]
210         str     $hi,[$ret,#4]
211
212         eor     $a,$a,r2
213         eor     $b,$b,r3
214         bl      mul_1x1_ialu            @ (a1+a0)·(b1+b0)
215 ___
216 @r=map("r$_",(6..9));
217 $code.=<<___;
218         ldmia   $ret,{@r[0]-@r[3]}
219         eor     $lo,$lo,$hi
220         ldr     sp,[sp,#32]             @ destroy tab[8]
221         eor     $hi,$hi,@r[1]
222         eor     $lo,$lo,@r[0]
223         eor     $hi,$hi,@r[2]
224         eor     $lo,$lo,@r[3]
225         eor     $hi,$hi,@r[3]
226         str     $hi,[$ret,#8]
227         eor     $lo,$lo,$hi
228         str     $lo,[$ret,#4]
229
230 #if __ARM_ARCH__>=5
231         ldmia   sp!,{r4-r10,pc}
232 #else
233         ldmia   sp!,{r4-r10,lr}
234         tst     lr,#1
235         moveq   pc,lr                   @ be binary compatible with V4, yet
236         bx      lr                      @ interoperable with Thumb ISA:-)
237 #endif
238 ___
239 }
240 {
241 my ($r,$t0,$t1,$t2,$t3)=map("q$_",(0..3,8..12));
242 my ($a,$b,$k48,$k32,$k16)=map("d$_",(26..31));
243
244 $code.=<<___;
245 #if __ARM_MAX_ARCH__>=7
246 .arch   armv7-a
247 .fpu    neon
248
249 .align  5
250 .LNEON:
251         ldr             r12, [sp]               @ 5th argument
252         vmov            $a, r2, r1
253         vmov            $b, r12, r3
254         vmov.i64        $k48, #0x0000ffffffffffff
255         vmov.i64        $k32, #0x00000000ffffffff
256         vmov.i64        $k16, #0x000000000000ffff
257
258         vext.8          $t0#lo, $a, $a, #1      @ A1
259         vmull.p8        $t0, $t0#lo, $b         @ F = A1*B
260         vext.8          $r#lo, $b, $b, #1       @ B1
261         vmull.p8        $r, $a, $r#lo           @ E = A*B1
262         vext.8          $t1#lo, $a, $a, #2      @ A2
263         vmull.p8        $t1, $t1#lo, $b         @ H = A2*B
264         vext.8          $t3#lo, $b, $b, #2      @ B2
265         vmull.p8        $t3, $a, $t3#lo         @ G = A*B2
266         vext.8          $t2#lo, $a, $a, #3      @ A3
267         veor            $t0, $t0, $r            @ L = E + F
268         vmull.p8        $t2, $t2#lo, $b         @ J = A3*B
269         vext.8          $r#lo, $b, $b, #3       @ B3
270         veor            $t1, $t1, $t3           @ M = G + H
271         vmull.p8        $r, $a, $r#lo           @ I = A*B3
272         veor            $t0#lo, $t0#lo, $t0#hi  @ t0 = (L) (P0 + P1) << 8
273         vand            $t0#hi, $t0#hi, $k48
274         vext.8          $t3#lo, $b, $b, #4      @ B4
275         veor            $t1#lo, $t1#lo, $t1#hi  @ t1 = (M) (P2 + P3) << 16
276         vand            $t1#hi, $t1#hi, $k32
277         vmull.p8        $t3, $a, $t3#lo         @ K = A*B4
278         veor            $t2, $t2, $r            @ N = I + J
279         veor            $t0#lo, $t0#lo, $t0#hi
280         veor            $t1#lo, $t1#lo, $t1#hi
281         veor            $t2#lo, $t2#lo, $t2#hi  @ t2 = (N) (P4 + P5) << 24
282         vand            $t2#hi, $t2#hi, $k16
283         vext.8          $t0, $t0, $t0, #15
284         veor            $t3#lo, $t3#lo, $t3#hi  @ t3 = (K) (P6 + P7) << 32
285         vmov.i64        $t3#hi, #0
286         vext.8          $t1, $t1, $t1, #14
287         veor            $t2#lo, $t2#lo, $t2#hi
288         vmull.p8        $r, $a, $b              @ D = A*B
289         vext.8          $t3, $t3, $t3, #12
290         vext.8          $t2, $t2, $t2, #13
291         veor            $t0, $t0, $t1
292         veor            $t2, $t2, $t3
293         veor            $r, $r, $t0
294         veor            $r, $r, $t2
295
296         vst1.32         {$r}, [r0]
297         ret             @ bx lr
298 #endif
299 ___
300 }
301 $code.=<<___;
302 .size   bn_GF2m_mul_2x2,.-bn_GF2m_mul_2x2
303 #if __ARM_MAX_ARCH__>=7
304 .align  5
305 .LOPENSSL_armcap:
306 .word   OPENSSL_armcap_P-.
307 #endif
308 .asciz  "GF(2^m) Multiplication for ARMv4/NEON, CRYPTOGAMS by <appro\@openssl.org>"
309 .align  5
310
311 #if __ARM_MAX_ARCH__>=7
312 .comm   OPENSSL_armcap_P,4,4
313 #endif
314 ___
315
316 foreach (split("\n",$code)) {
317         s/\`([^\`]*)\`/eval $1/geo;
318
319         s/\bq([0-9]+)#(lo|hi)/sprintf "d%d",2*$1+($2 eq "hi")/geo       or
320         s/\bret\b/bx    lr/go           or
321         s/\bbx\s+lr\b/.word\t0xe12fff1e/go;    # make it possible to compile with -march=armv4
322
323         print $_,"\n";
324 }
325 close STDOUT;   # enforce flush