Buglet fixes and minor optimization in aes-x86_86 assembler.
[openssl.git] / crypto / aes / asm / aes-x86_64.pl
1 #!/usr/bin/env perl
2 #
3 # ====================================================================
4 # Written by Andy Polyakov <appro@fy.chalmers.se> for the OpenSSL
5 # project. The module is, however, dual licensed under OpenSSL and
6 # CRYPTOGAMS licenses depending on where you obtain it. For further
7 # details see http://www.openssl.org/~appro/cryptogams/.
8 # ====================================================================
9 #
10 # Version 2.1.
11 #
12 # aes-*-cbc benchmarks are improved by >70% [compared to gcc 3.3.2 on
13 # Opteron 240 CPU] plus all the bells-n-whistles from 32-bit version
14 # [you'll notice a lot of resemblance], such as compressed S-boxes
15 # in little-endian byte order, prefetch of these tables in CBC mode,
16 # as well as avoiding L1 cache aliasing between stack frame and key
17 # schedule and already mentioned tables, compressed Td4...
18 #
19 # Performance in number of cycles per processed byte for 128-bit key:
20 #
21 #               ECB encrypt     ECB decrypt     CBC large chunk
22 # AMD64         33              41              13.0
23 # EM64T         38              59              18.6(*)
24 # Core 2        30              43              14.5(*)
25 #
26 # (*) with hyper-threading off
27
28 $verticalspin=1;        # unlike 32-bit version $verticalspin performs
29                         # ~15% better on both AMD and Intel cores
30 $speed_limit=512;       # see aes-586.pl for details
31 $output=shift;
32
33 $0 =~ m/(.*[\/\\])[^\/\\]+$/; $dir=$1;
34 ( $xlate="${dir}x86_64-xlate.pl" and -f $xlate ) or
35 ( $xlate="${dir}../../perlasm/x86_64-xlate.pl" and -f $xlate) or
36 die "can't locate x86_64-xlate.pl";
37
38 open STDOUT,"| $^X $xlate $output";
39
40 $code=".text\n";
41
42 $s0="%eax";
43 $s1="%ebx";
44 $s2="%ecx";
45 $s3="%edx";
46 $acc0="%esi";   $mask80="%rsi";
47 $acc1="%edi";   $maskfe="%rdi";
48 $acc2="%ebp";   $mask1b="%rbp";
49 $inp="%r8";
50 $out="%r9";
51 $t0="%r10d";
52 $t1="%r11d";
53 $t2="%r12d";
54 $rnds="%r13d";
55 $sbox="%r14";
56 $key="%r15";
57
58 sub hi() { my $r=shift; $r =~ s/%[er]([a-d])x/%\1h/;    $r; }
59 sub lo() { my $r=shift; $r =~ s/%[er]([a-d])x/%\1l/;
60                         $r =~ s/%[er]([sd]i)/%\1l/;
61                         $r =~ s/%(r[0-9]+)[d]?/%\1b/;   $r; }
62 sub LO() { my $r=shift; $r =~ s/%r([a-z]+)/%e\1/;
63                         $r =~ s/%r([0-9]+)/%r\1d/;      $r; }
64 sub _data_word()
65 { my $i;
66     while(defined($i=shift)) { $code.=sprintf".long\t0x%08x,0x%08x\n",$i,$i; }
67 }
68 sub data_word()
69 { my $i;
70   my $last=pop(@_);
71     $code.=".long\t";
72     while(defined($i=shift)) { $code.=sprintf"0x%08x,",$i; }
73     $code.=sprintf"0x%08x\n",$last;
74 }
75
76 sub data_byte()
77 { my $i;
78   my $last=pop(@_);
79     $code.=".byte\t";
80     while(defined($i=shift)) { $code.=sprintf"0x%02x,",$i&0xff; }
81     $code.=sprintf"0x%02x\n",$last&0xff;
82 }
83
84 sub encvert()
85 { my $t3="%r8d";        # zaps $inp!
86
87 $code.=<<___;
88         # favor 3-way issue Opteron pipeline...
89         movzb   `&lo("$s0")`,$acc0
90         movzb   `&lo("$s1")`,$acc1
91         movzb   `&lo("$s2")`,$acc2
92         mov     0($sbox,$acc0,8),$t0
93         mov     0($sbox,$acc1,8),$t1
94         mov     0($sbox,$acc2,8),$t2
95
96         movzb   `&hi("$s1")`,$acc0
97         movzb   `&hi("$s2")`,$acc1
98         movzb   `&lo("$s3")`,$acc2
99         xor     3($sbox,$acc0,8),$t0
100         xor     3($sbox,$acc1,8),$t1
101         mov     0($sbox,$acc2,8),$t3
102
103         movzb   `&hi("$s3")`,$acc0
104         shr     \$16,$s2
105         movzb   `&hi("$s0")`,$acc2
106         xor     3($sbox,$acc0,8),$t2
107         shr     \$16,$s3
108         xor     3($sbox,$acc2,8),$t3
109
110         shr     \$16,$s1
111         lea     16($key),$key
112         shr     \$16,$s0
113
114         movzb   `&lo("$s2")`,$acc0
115         movzb   `&lo("$s3")`,$acc1
116         movzb   `&lo("$s0")`,$acc2
117         xor     2($sbox,$acc0,8),$t0
118         xor     2($sbox,$acc1,8),$t1
119         xor     2($sbox,$acc2,8),$t2
120
121         movzb   `&hi("$s3")`,$acc0
122         movzb   `&hi("$s0")`,$acc1
123         movzb   `&lo("$s1")`,$acc2
124         xor     1($sbox,$acc0,8),$t0
125         xor     1($sbox,$acc1,8),$t1
126         xor     2($sbox,$acc2,8),$t3
127
128         mov     12($key),$s3
129         movzb   `&hi("$s1")`,$acc1
130         movzb   `&hi("$s2")`,$acc2
131         mov     0($key),$s0
132         xor     1($sbox,$acc1,8),$t2
133         xor     1($sbox,$acc2,8),$t3
134
135         mov     4($key),$s1
136         mov     8($key),$s2
137         xor     $t0,$s0
138         xor     $t1,$s1
139         xor     $t2,$s2
140         xor     $t3,$s3
141 ___
142 }
143
144 sub enclastvert()
145 { my $t3="%r8d";        # zaps $inp!
146
147 $code.=<<___;
148         movzb   `&lo("$s0")`,$acc0
149         movzb   `&lo("$s1")`,$acc1
150         movzb   `&lo("$s2")`,$acc2
151         movzb   2($sbox,$acc0,8),$t0
152         movzb   2($sbox,$acc1,8),$t1
153         movzb   2($sbox,$acc2,8),$t2
154
155         movzb   `&lo("$s3")`,$acc0
156         movzb   `&hi("$s1")`,$acc1
157         movzb   `&hi("$s2")`,$acc2
158         movzb   2($sbox,$acc0,8),$t3
159         mov     0($sbox,$acc1,8),$acc1  #$t0
160         mov     0($sbox,$acc2,8),$acc2  #$t1
161
162         and     \$0x0000ff00,$acc1
163         and     \$0x0000ff00,$acc2
164
165         xor     $acc1,$t0
166         xor     $acc2,$t1
167         shr     \$16,$s2
168
169         movzb   `&hi("$s3")`,$acc0
170         movzb   `&hi("$s0")`,$acc1
171         shr     \$16,$s3
172         mov     0($sbox,$acc0,8),$acc0  #$t2
173         mov     0($sbox,$acc1,8),$acc1  #$t3
174
175         and     \$0x0000ff00,$acc0
176         and     \$0x0000ff00,$acc1
177         shr     \$16,$s1
178         xor     $acc0,$t2
179         xor     $acc1,$t3
180         shr     \$16,$s0
181
182         movzb   `&lo("$s2")`,$acc0
183         movzb   `&lo("$s3")`,$acc1
184         movzb   `&lo("$s0")`,$acc2
185         mov     0($sbox,$acc0,8),$acc0  #$t0
186         mov     0($sbox,$acc1,8),$acc1  #$t1
187         mov     0($sbox,$acc2,8),$acc2  #$t2
188
189         and     \$0x00ff0000,$acc0
190         and     \$0x00ff0000,$acc1
191         and     \$0x00ff0000,$acc2
192
193         xor     $acc0,$t0
194         xor     $acc1,$t1
195         xor     $acc2,$t2
196
197         movzb   `&lo("$s1")`,$acc0
198         movzb   `&hi("$s3")`,$acc1
199         movzb   `&hi("$s0")`,$acc2
200         mov     0($sbox,$acc0,8),$acc0  #$t3
201         mov     2($sbox,$acc1,8),$acc1  #$t0
202         mov     2($sbox,$acc2,8),$acc2  #$t1
203
204         and     \$0x00ff0000,$acc0
205         and     \$0xff000000,$acc1
206         and     \$0xff000000,$acc2
207
208         xor     $acc0,$t3
209         xor     $acc1,$t0
210         xor     $acc2,$t1
211
212         movzb   `&hi("$s1")`,$acc0
213         movzb   `&hi("$s2")`,$acc1
214         mov     16+12($key),$s3
215         mov     2($sbox,$acc0,8),$acc0  #$t2
216         mov     2($sbox,$acc1,8),$acc1  #$t3
217         mov     16+0($key),$s0
218
219         and     \$0xff000000,$acc0
220         and     \$0xff000000,$acc1
221
222         xor     $acc0,$t2
223         xor     $acc1,$t3
224
225         mov     16+4($key),$s1
226         mov     16+8($key),$s2
227         xor     $t0,$s0
228         xor     $t1,$s1
229         xor     $t2,$s2
230         xor     $t3,$s3
231 ___
232 }
233
234 sub encstep()
235 { my ($i,@s) = @_;
236   my $tmp0=$acc0;
237   my $tmp1=$acc1;
238   my $tmp2=$acc2;
239   my $out=($t0,$t1,$t2,$s[0])[$i];
240
241         if ($i==3) {
242                 $tmp0=$s[1];
243                 $tmp1=$s[2];
244                 $tmp2=$s[3];
245         }
246         $code.="        movzb   ".&lo($s[0]).",$out\n";
247         $code.="        mov     $s[2],$tmp1\n"          if ($i!=3);
248         $code.="        lea     16($key),$key\n"        if ($i==0);
249
250         $code.="        movzb   ".&hi($s[1]).",$tmp0\n";
251         $code.="        mov     0($sbox,$out,8),$out\n";
252
253         $code.="        shr     \$16,$tmp1\n";
254         $code.="        mov     $s[3],$tmp2\n"          if ($i!=3);
255         $code.="        xor     3($sbox,$tmp0,8),$out\n";
256
257         $code.="        movzb   ".&lo($tmp1).",$tmp1\n";
258         $code.="        shr     \$24,$tmp2\n";
259         $code.="        xor     4*$i($key),$out\n";
260
261         $code.="        xor     2($sbox,$tmp1,8),$out\n";
262         $code.="        xor     1($sbox,$tmp2,8),$out\n";
263
264         $code.="        mov     $t0,$s[1]\n"            if ($i==3);
265         $code.="        mov     $t1,$s[2]\n"            if ($i==3);
266         $code.="        mov     $t2,$s[3]\n"            if ($i==3);
267         $code.="\n";
268 }
269
270 sub enclast()
271 { my ($i,@s)=@_;
272   my $tmp0=$acc0;
273   my $tmp1=$acc1;
274   my $tmp2=$acc2;
275   my $out=($t0,$t1,$t2,$s[0])[$i];
276
277         if ($i==3) {
278                 $tmp0=$s[1];
279                 $tmp1=$s[2];
280                 $tmp2=$s[3];
281         }
282         $code.="        movzb   ".&lo($s[0]).",$out\n";
283         $code.="        mov     $s[2],$tmp1\n"          if ($i!=3);
284
285         $code.="        mov     2($sbox,$out,8),$out\n";
286         $code.="        shr     \$16,$tmp1\n";
287         $code.="        mov     $s[3],$tmp2\n"          if ($i!=3);
288
289         $code.="        and     \$0x000000ff,$out\n";
290         $code.="        movzb   ".&hi($s[1]).",$tmp0\n";
291         $code.="        movzb   ".&lo($tmp1).",$tmp1\n";
292         $code.="        shr     \$24,$tmp2\n";
293
294         $code.="        mov     0($sbox,$tmp0,8),$tmp0\n";
295         $code.="        mov     0($sbox,$tmp1,8),$tmp1\n";
296         $code.="        mov     2($sbox,$tmp2,8),$tmp2\n";
297
298         $code.="        and     \$0x0000ff00,$tmp0\n";
299         $code.="        and     \$0x00ff0000,$tmp1\n";
300         $code.="        and     \$0xff000000,$tmp2\n";
301
302         $code.="        xor     $tmp0,$out\n";
303         $code.="        mov     $t0,$s[1]\n"            if ($i==3);
304         $code.="        xor     $tmp1,$out\n";
305         $code.="        mov     $t1,$s[2]\n"            if ($i==3);
306         $code.="        xor     $tmp2,$out\n";
307         $code.="        mov     $t2,$s[3]\n"            if ($i==3);
308         $code.="\n";
309 }
310
311 $code.=<<___;
312 .type   _x86_64_AES_encrypt,\@abi-omnipotent
313 .align  16
314 _x86_64_AES_encrypt:
315         xor     0($key),$s0                     # xor with key
316         xor     4($key),$s1
317         xor     8($key),$s2
318         xor     12($key),$s3
319
320         mov     240($key),$rnds                 # load key->rounds
321         sub     \$1,$rnds
322         jmp     .Lenc_loop
323 .align  16
324 .Lenc_loop:
325 ___
326         if ($verticalspin) { &encvert(); }
327         else {  &encstep(0,$s0,$s1,$s2,$s3);
328                 &encstep(1,$s1,$s2,$s3,$s0);
329                 &encstep(2,$s2,$s3,$s0,$s1);
330                 &encstep(3,$s3,$s0,$s1,$s2);
331         }
332 $code.=<<___;
333         sub     \$1,$rnds
334         jnz     .Lenc_loop
335 ___
336         if ($verticalspin) { &enclastvert(); }
337         else {  &enclast(0,$s0,$s1,$s2,$s3);
338                 &enclast(1,$s1,$s2,$s3,$s0);
339                 &enclast(2,$s2,$s3,$s0,$s1);
340                 &enclast(3,$s3,$s0,$s1,$s2);
341                 $code.=<<___;
342                 xor     16+0($key),$s0          # xor with key
343                 xor     16+4($key),$s1
344                 xor     16+8($key),$s2
345                 xor     16+12($key),$s3
346 ___
347         }
348 $code.=<<___;
349         .byte   0xf3,0xc3                       # rep ret
350 .size   _x86_64_AES_encrypt,.-_x86_64_AES_encrypt
351 ___
352
353 # it's possible to implement this by shifting tN by 8, filling least
354 # significant byte with byte load and finally bswap-ing at the end,
355 # but such partial register load kills Core 2...
356 sub enccompactvert()
357 { my ($t3,$t4,$t5)=("%r8d","%r9d","%r13d");
358
359 $code.=<<___;
360         movzb   `&lo("$s0")`,$t0
361         movzb   `&lo("$s1")`,$t1
362         movzb   `&lo("$s2")`,$t2
363         movzb   ($sbox,$t0,1),$t0
364         movzb   ($sbox,$t1,1),$t1
365         movzb   ($sbox,$t2,1),$t2
366
367         movzb   `&lo("$s3")`,$t3
368         movzb   `&hi("$s1")`,$acc0
369         movzb   `&hi("$s2")`,$acc1
370         movzb   ($sbox,$t3,1),$t3
371         movzb   ($sbox,$acc0,1),$t4     #$t0
372         movzb   ($sbox,$acc1,1),$t5     #$t1
373
374         movzb   `&hi("$s3")`,$acc2
375         movzb   `&hi("$s0")`,$acc0
376         shr     \$16,$s2
377         movzb   ($sbox,$acc2,1),$acc2   #$t2
378         movzb   ($sbox,$acc0,1),$acc0   #$t3
379         shr     \$16,$s3
380
381         movzb   `&lo("$s2")`,$acc1
382         shl     \$8,$t4
383         shl     \$8,$t5
384         movzb   ($sbox,$acc1,1),$acc1   #$t0
385         xor     $t4,$t0
386         xor     $t5,$t1
387
388         movzb   `&lo("$s3")`,$t4
389         shr     \$16,$s0
390         shr     \$16,$s1
391         movzb   `&lo("$s0")`,$t5
392         shl     \$8,$acc2
393         shl     \$8,$acc0
394         movzb   ($sbox,$t4,1),$t4       #$t1
395         movzb   ($sbox,$t5,1),$t5       #$t2
396         xor     $acc2,$t2
397         xor     $acc0,$t3
398
399         movzb   `&lo("$s1")`,$acc2
400         movzb   `&hi("$s3")`,$acc0
401         shl     \$16,$acc1
402         movzb   ($sbox,$acc2,1),$acc2   #$t3
403         movzb   ($sbox,$acc0,1),$acc0   #$t0
404         xor     $acc1,$t0
405
406         movzb   `&hi("$s0")`,$acc1
407         shr     \$8,$s2
408         shr     \$8,$s1
409         movzb   ($sbox,$acc1,1),$acc1   #$t1
410         movzb   ($sbox,$s2,1),$s3       #$t3
411         movzb   ($sbox,$s1,1),$s2       #$t2
412         shl     \$16,$t4
413         shl     \$16,$t5
414         shl     \$16,$acc2
415         xor     $t4,$t1
416         xor     $t5,$t2
417         xor     $acc2,$t3
418
419         shl     \$24,$acc0
420         shl     \$24,$acc1
421         shl     \$24,$s3
422         xor     $acc0,$t0
423         shl     \$24,$s2
424         xor     $acc1,$t1
425         mov     $t0,$s0
426         mov     $t1,$s1
427         xor     $t2,$s2
428         xor     $t3,$s3
429 ___
430 }
431
432 sub enctransform_ref()
433 { my $sn = shift;
434   my ($acc,$r2,$tmp)=("%r8d","%r9d","%r13d");
435
436 $code.=<<___;
437         mov     $sn,$acc
438         and     \$0x80808080,$acc
439         mov     $acc,$tmp
440         shr     \$7,$tmp
441         lea     ($sn,$sn),$r2
442         sub     $tmp,$acc
443         and     \$0xfefefefe,$r2
444         and     \$0x1b1b1b1b,$acc
445         mov     $sn,$tmp
446         xor     $acc,$r2
447
448         xor     $r2,$sn
449         rol     \$24,$sn
450         xor     $r2,$sn
451         ror     \$16,$tmp
452         xor     $tmp,$sn
453         ror     \$8,$tmp
454         xor     $tmp,$sn
455 ___
456 }
457
458 # unlike decrypt case it does not pay off to parallelize enctransform
459 sub enctransform()
460 { my ($t3,$r20,$r21)=($acc2,"%r8d","%r9d");
461
462 $code.=<<___;
463         mov     $s0,$acc0
464         mov     $s1,$acc1
465         and     \$0x80808080,$acc0
466         and     \$0x80808080,$acc1
467         mov     $acc0,$t0
468         mov     $acc1,$t1
469         shr     \$7,$t0
470         lea     ($s0,$s0),$r20
471         shr     \$7,$t1
472         lea     ($s1,$s1),$r21
473         sub     $t0,$acc0
474         sub     $t1,$acc1
475         and     \$0xfefefefe,$r20
476         and     \$0xfefefefe,$r21
477         and     \$0x1b1b1b1b,$acc0
478         and     \$0x1b1b1b1b,$acc1
479         mov     $s0,$t0
480         mov     $s1,$t1
481         xor     $acc0,$r20
482         xor     $acc1,$r21
483
484         xor     $r20,$s0
485         xor     $r21,$s1
486          mov    $s2,$acc0
487          mov    $s3,$acc1
488         rol     \$24,$s0
489         rol     \$24,$s1
490          and    \$0x80808080,$acc0
491          and    \$0x80808080,$acc1
492         xor     $r20,$s0
493         xor     $r21,$s1
494          mov    $acc0,$t2
495          mov    $acc1,$t3
496         ror     \$16,$t0
497         ror     \$16,$t1
498          shr    \$7,$t2
499          lea    ($s2,$s2),$r20
500         xor     $t0,$s0
501         xor     $t1,$s1
502          shr    \$7,$t3
503          lea    ($s3,$s3),$r21
504         ror     \$8,$t0
505         ror     \$8,$t1
506          sub    $t2,$acc0
507          sub    $t3,$acc1
508         xor     $t0,$s0
509         xor     $t1,$s1
510
511         and     \$0xfefefefe,$r20
512         and     \$0xfefefefe,$r21
513         and     \$0x1b1b1b1b,$acc0
514         and     \$0x1b1b1b1b,$acc1
515         mov     $s2,$t2
516         mov     $s3,$t3
517         xor     $acc0,$r20
518         xor     $acc1,$r21
519
520         xor     $r20,$s2
521         xor     $r21,$s3
522         rol     \$24,$s2
523         rol     \$24,$s3
524         xor     $r20,$s2
525         xor     $r21,$s3
526         mov     0($sbox),$acc0                  # prefetch Te4
527         ror     \$16,$t2
528         ror     \$16,$t3
529         mov     64($sbox),$acc1
530         xor     $t2,$s2
531         xor     $t3,$s3
532         mov     128($sbox),$r20
533         ror     \$8,$t2
534         ror     \$8,$t3
535         mov     192($sbox),$r21
536         xor     $t2,$s2
537         xor     $t3,$s3
538 ___
539 }
540
541 $code.=<<___;
542 .type   _x86_64_AES_encrypt_compact,\@abi-omnipotent
543 .align  16
544 _x86_64_AES_encrypt_compact:
545         lea     128($sbox),$inp                 # size optimization
546         mov     0-128($inp),$acc1               # prefetch Te4
547         mov     32-128($inp),$acc2
548         mov     64-128($inp),$t0
549         mov     96-128($inp),$t1
550         mov     128-128($inp),$acc1
551         mov     160-128($inp),$acc2
552         mov     192-128($inp),$t0
553         mov     224-128($inp),$t1
554         jmp     .Lenc_loop_compact
555 .align  16
556 .Lenc_loop_compact:
557                 xor     0($key),$s0             # xor with key
558                 xor     4($key),$s1
559                 xor     8($key),$s2
560                 xor     12($key),$s3
561                 lea     16($key),$key
562 ___
563                 &enccompactvert();
564 $code.=<<___;
565                 cmp     16(%rsp),$key
566                 je      .Lenc_compact_done
567 ___
568                 &enctransform();
569 $code.=<<___;
570         jmp     .Lenc_loop_compact
571 .align  16
572 .Lenc_compact_done:
573         xor     0($key),$s0
574         xor     4($key),$s1
575         xor     8($key),$s2
576         xor     12($key),$s3
577         .byte   0xf3,0xc3                       # rep ret
578 .size   _x86_64_AES_encrypt_compact,.-_x86_64_AES_encrypt_compact
579 ___
580
581 # void AES_encrypt (const void *inp,void *out,const AES_KEY *key);
582 $code.=<<___;
583 .globl  AES_encrypt
584 .type   AES_encrypt,\@function,3
585 .align  16
586 AES_encrypt:
587         push    %rbx
588         push    %rbp
589         push    %r12
590         push    %r13
591         push    %r14
592         push    %r15
593
594         # allocate frame "above" key schedule
595         mov     %rsp,%rax
596         mov     %rdx,$key
597         lea     -63(%rdx),%rcx
598         and     \$-64,%rsp
599         sub     %rsp,%rcx
600         neg     %rcx
601         and     \$0x3c0,%rcx
602         sub     %rcx,%rsp
603
604         push    %rax            # save real stack pointer
605         push    %rsi            # save out
606
607         mov     240($key),$rnds # load rounds
608
609         mov     0(%rdi),$s0     # load input vector
610         mov     4(%rdi),$s1
611         mov     8(%rdi),$s2
612         mov     12(%rdi),$s3
613
614         shl     \$4,$rnds
615         lea     ($key,$rnds),%rbp
616         push    %rbp
617         push    $key
618
619         # pick Te4 copy which can't "overlap" with stack frame or key schedule
620         .picmeup        $sbox
621         lea     AES_Te+2048-.($sbox),$sbox
622         lea     768(%rsp),%rbp
623         sub     $sbox,%rbp
624         and     \$0x300,%rbp
625         lea     ($sbox,%rbp),$sbox
626
627         call    _x86_64_AES_encrypt_compact
628
629         lea     16(%rsp),%rsp
630         pop     $out            # restore out
631         mov     $s0,0($out)     # write output vector
632         mov     $s1,4($out)
633         mov     $s2,8($out)
634         mov     $s3,12($out)
635
636         mov     (%rsp),%rsp
637         pop     %r15
638         pop     %r14
639         pop     %r13
640         pop     %r12
641         pop     %rbp
642         pop     %rbx
643         ret
644 .size   AES_encrypt,.-AES_encrypt
645 ___
646
647 #------------------------------------------------------------------#
648
649 sub decvert()
650 { my $t3="%r8d";        # zaps $inp!
651
652 $code.=<<___;
653         # favor 3-way issue Opteron pipeline...
654         movzb   `&lo("$s0")`,$acc0
655         movzb   `&lo("$s1")`,$acc1
656         movzb   `&lo("$s2")`,$acc2
657         mov     0($sbox,$acc0,8),$t0
658         mov     0($sbox,$acc1,8),$t1
659         mov     0($sbox,$acc2,8),$t2
660
661         movzb   `&hi("$s3")`,$acc0
662         movzb   `&hi("$s0")`,$acc1
663         movzb   `&lo("$s3")`,$acc2
664         xor     3($sbox,$acc0,8),$t0
665         xor     3($sbox,$acc1,8),$t1
666         mov     0($sbox,$acc2,8),$t3
667
668         movzb   `&hi("$s1")`,$acc0
669         shr     \$16,$s0
670         movzb   `&hi("$s2")`,$acc2
671         xor     3($sbox,$acc0,8),$t2
672         shr     \$16,$s3
673         xor     3($sbox,$acc2,8),$t3
674
675         shr     \$16,$s1
676         lea     16($key),$key
677         shr     \$16,$s2
678
679         movzb   `&lo("$s2")`,$acc0
680         movzb   `&lo("$s3")`,$acc1
681         movzb   `&lo("$s0")`,$acc2
682         xor     2($sbox,$acc0,8),$t0
683         xor     2($sbox,$acc1,8),$t1
684         xor     2($sbox,$acc2,8),$t2
685
686         movzb   `&hi("$s1")`,$acc0
687         movzb   `&hi("$s2")`,$acc1
688         movzb   `&lo("$s1")`,$acc2
689         xor     1($sbox,$acc0,8),$t0
690         xor     1($sbox,$acc1,8),$t1
691         xor     2($sbox,$acc2,8),$t3
692
693         movzb   `&hi("$s3")`,$acc0
694         mov     12($key),$s3
695         movzb   `&hi("$s0")`,$acc2
696         xor     1($sbox,$acc0,8),$t2
697         mov     0($key),$s0
698         xor     1($sbox,$acc2,8),$t3
699
700         xor     $t0,$s0
701         mov     4($key),$s1
702         mov     8($key),$s2
703         xor     $t2,$s2
704         xor     $t1,$s1
705         xor     $t3,$s3
706 ___
707 }
708
709 sub declastvert()
710 { my $t3="%r8d";        # zaps $inp!
711
712 $code.=<<___;
713         lea     2048($sbox),$sbox       # size optimization
714         movzb   `&lo("$s0")`,$acc0
715         movzb   `&lo("$s1")`,$acc1
716         movzb   `&lo("$s2")`,$acc2
717         movzb   ($sbox,$acc0,1),$t0
718         movzb   ($sbox,$acc1,1),$t1
719         movzb   ($sbox,$acc2,1),$t2
720
721         movzb   `&lo("$s3")`,$acc0
722         movzb   `&hi("$s3")`,$acc1
723         movzb   `&hi("$s0")`,$acc2
724         movzb   ($sbox,$acc0,1),$t3
725         movzb   ($sbox,$acc1,1),$acc1   #$t0
726         movzb   ($sbox,$acc2,1),$acc2   #$t1
727
728         shl     \$8,$acc1
729         shl     \$8,$acc2
730
731         xor     $acc1,$t0
732         xor     $acc2,$t1
733         shr     \$16,$s3
734
735         movzb   `&hi("$s1")`,$acc0
736         movzb   `&hi("$s2")`,$acc1
737         shr     \$16,$s0
738         movzb   ($sbox,$acc0,1),$acc0   #$t2
739         movzb   ($sbox,$acc1,1),$acc1   #$t3
740
741         shl     \$8,$acc0
742         shl     \$8,$acc1
743         shr     \$16,$s1
744         xor     $acc0,$t2
745         xor     $acc1,$t3
746         shr     \$16,$s2
747
748         movzb   `&lo("$s2")`,$acc0
749         movzb   `&lo("$s3")`,$acc1
750         movzb   `&lo("$s0")`,$acc2
751         movzb   ($sbox,$acc0,1),$acc0   #$t0
752         movzb   ($sbox,$acc1,1),$acc1   #$t1
753         movzb   ($sbox,$acc2,1),$acc2   #$t2
754
755         shl     \$16,$acc0
756         shl     \$16,$acc1
757         shl     \$16,$acc2
758
759         xor     $acc0,$t0
760         xor     $acc1,$t1
761         xor     $acc2,$t2
762
763         movzb   `&lo("$s1")`,$acc0
764         movzb   `&hi("$s1")`,$acc1
765         movzb   `&hi("$s2")`,$acc2
766         movzb   ($sbox,$acc0,1),$acc0   #$t3
767         movzb   ($sbox,$acc1,1),$acc1   #$t0
768         movzb   ($sbox,$acc2,1),$acc2   #$t1
769
770         shl     \$16,$acc0
771         shl     \$24,$acc1
772         shl     \$24,$acc2
773
774         xor     $acc0,$t3
775         xor     $acc1,$t0
776         xor     $acc2,$t1
777
778         movzb   `&hi("$s3")`,$acc0
779         movzb   `&hi("$s0")`,$acc1
780         mov     16+12($key),$s3
781         movzb   ($sbox,$acc0,1),$acc0   #$t2
782         movzb   ($sbox,$acc1,1),$acc1   #$t3
783         mov     16+0($key),$s0
784
785         shl     \$24,$acc0
786         shl     \$24,$acc1
787
788         xor     $acc0,$t2
789         xor     $acc1,$t3
790
791         mov     16+4($key),$s1
792         mov     16+8($key),$s2
793         lea     -2048($sbox),$sbox
794         xor     $t0,$s0
795         xor     $t1,$s1
796         xor     $t2,$s2
797         xor     $t3,$s3
798 ___
799 }
800
801 sub decstep()
802 { my ($i,@s) = @_;
803   my $tmp0=$acc0;
804   my $tmp1=$acc1;
805   my $tmp2=$acc2;
806   my $out=($t0,$t1,$t2,$s[0])[$i];
807
808         $code.="        mov     $s[0],$out\n"           if ($i!=3);
809                         $tmp1=$s[2]                     if ($i==3);
810         $code.="        mov     $s[2],$tmp1\n"          if ($i!=3);
811         $code.="        and     \$0xFF,$out\n";
812
813         $code.="        mov     0($sbox,$out,8),$out\n";
814         $code.="        shr     \$16,$tmp1\n";
815                         $tmp2=$s[3]                     if ($i==3);
816         $code.="        mov     $s[3],$tmp2\n"          if ($i!=3);
817
818                         $tmp0=$s[1]                     if ($i==3);
819         $code.="        movzb   ".&hi($s[1]).",$tmp0\n";
820         $code.="        and     \$0xFF,$tmp1\n";
821         $code.="        shr     \$24,$tmp2\n";
822
823         $code.="        xor     3($sbox,$tmp0,8),$out\n";
824         $code.="        xor     2($sbox,$tmp1,8),$out\n";
825         $code.="        xor     1($sbox,$tmp2,8),$out\n";
826
827         $code.="        mov     $t2,$s[1]\n"            if ($i==3);
828         $code.="        mov     $t1,$s[2]\n"            if ($i==3);
829         $code.="        mov     $t0,$s[3]\n"            if ($i==3);
830         $code.="\n";
831 }
832
833 sub declast()
834 { my ($i,@s)=@_;
835   my $tmp0=$acc0;
836   my $tmp1=$acc1;
837   my $tmp2=$acc2;
838   my $out=($t0,$t1,$t2,$s[0])[$i];
839
840         $code.="        mov     $s[0],$out\n"           if ($i!=3);
841                         $tmp1=$s[2]                     if ($i==3);
842         $code.="        mov     $s[2],$tmp1\n"          if ($i!=3);
843         $code.="        and     \$0xFF,$out\n";
844
845         $code.="        movzb   2048($sbox,$out,1),$out\n";
846         $code.="        shr     \$16,$tmp1\n";
847                         $tmp2=$s[3]                     if ($i==3);
848         $code.="        mov     $s[3],$tmp2\n"          if ($i!=3);
849
850                         $tmp0=$s[1]                     if ($i==3);
851         $code.="        movzb   ".&hi($s[1]).",$tmp0\n";
852         $code.="        and     \$0xFF,$tmp1\n";
853         $code.="        shr     \$24,$tmp2\n";
854
855         $code.="        movzb   2048($sbox,$tmp0,1),$tmp0\n";
856         $code.="        movzb   2048($sbox,$tmp1,1),$tmp1\n";
857         $code.="        movzb   2048($sbox,$tmp2,1),$tmp2\n";
858
859         $code.="        shl     \$8,$tmp0\n";
860         $code.="        shl     \$16,$tmp1\n";
861         $code.="        shl     \$24,$tmp2\n";
862
863         $code.="        xor     $tmp0,$out\n";
864         $code.="        mov     $t2,$s[1]\n"            if ($i==3);
865         $code.="        xor     $tmp1,$out\n";
866         $code.="        mov     $t1,$s[2]\n"            if ($i==3);
867         $code.="        xor     $tmp2,$out\n";
868         $code.="        mov     $t0,$s[3]\n"            if ($i==3);
869         $code.="\n";
870 }
871
872 $code.=<<___;
873 .type   _x86_64_AES_decrypt,\@abi-omnipotent
874 .align  16
875 _x86_64_AES_decrypt:
876         xor     0($key),$s0                     # xor with key
877         xor     4($key),$s1
878         xor     8($key),$s2
879         xor     12($key),$s3
880
881         mov     240($key),$rnds                 # load key->rounds
882         sub     \$1,$rnds
883         jmp     .Ldec_loop
884 .align  16
885 .Ldec_loop:
886 ___
887         if ($verticalspin) { &decvert(); }
888         else {  &decstep(0,$s0,$s3,$s2,$s1);
889                 &decstep(1,$s1,$s0,$s3,$s2);
890                 &decstep(2,$s2,$s1,$s0,$s3);
891                 &decstep(3,$s3,$s2,$s1,$s0);
892                 $code.=<<___;
893                 lea     16($key),$key
894                 xor     0($key),$s0                     # xor with key
895                 xor     4($key),$s1
896                 xor     8($key),$s2
897                 xor     12($key),$s3
898 ___
899         }
900 $code.=<<___;
901         sub     \$1,$rnds
902         jnz     .Ldec_loop
903 ___
904         if ($verticalspin) { &declastvert(); }
905         else {  &declast(0,$s0,$s3,$s2,$s1);
906                 &declast(1,$s1,$s0,$s3,$s2);
907                 &declast(2,$s2,$s1,$s0,$s3);
908                 &declast(3,$s3,$s2,$s1,$s0);
909                 $code.=<<___;
910                 xor     16+0($key),$s0                  # xor with key
911                 xor     16+4($key),$s1
912                 xor     16+8($key),$s2
913                 xor     16+12($key),$s3
914 ___
915         }
916 $code.=<<___;
917         .byte   0xf3,0xc3                       # rep ret
918 .size   _x86_64_AES_decrypt,.-_x86_64_AES_decrypt
919 ___
920
921 sub deccompactvert()
922 { my ($t3,$t4,$t5)=("%r8d","%r9d","%r13d");
923
924 $code.=<<___;
925         movzb   `&lo("$s0")`,$t0
926         movzb   `&lo("$s1")`,$t1
927         movzb   `&lo("$s2")`,$t2
928         movzb   ($sbox,$t0,1),$t0
929         movzb   ($sbox,$t1,1),$t1
930         movzb   ($sbox,$t2,1),$t2
931
932         movzb   `&lo("$s3")`,$t3
933         movzb   `&hi("$s3")`,$acc0
934         movzb   `&hi("$s0")`,$acc1
935         movzb   ($sbox,$t3,1),$t3
936         movzb   ($sbox,$acc0,1),$t4     #$t0
937         movzb   ($sbox,$acc1,1),$t5     #$t1
938
939         movzb   `&hi("$s1")`,$acc2
940         movzb   `&hi("$s2")`,$acc0
941         shr     \$16,$s2
942         movzb   ($sbox,$acc2,1),$acc2   #$t2
943         movzb   ($sbox,$acc0,1),$acc0   #$t3
944         shr     \$16,$s3
945
946         movzb   `&lo("$s2")`,$acc1
947         shl     \$8,$t4
948         shl     \$8,$t5
949         movzb   ($sbox,$acc1,1),$acc1   #$t0
950         xor     $t4,$t0
951         xor     $t5,$t1
952
953         movzb   `&lo("$s3")`,$t4
954         shr     \$16,$s0
955         shr     \$16,$s1
956         movzb   `&lo("$s0")`,$t5
957         shl     \$8,$acc2
958         shl     \$8,$acc0
959         movzb   ($sbox,$t4,1),$t4       #$t1
960         movzb   ($sbox,$t5,1),$t5       #$t2
961         xor     $acc2,$t2
962         xor     $acc0,$t3
963
964         movzb   `&lo("$s1")`,$acc2
965         movzb   `&hi("$s1")`,$acc0
966         shl     \$16,$acc1
967         movzb   ($sbox,$acc2,1),$acc2   #$t3
968         movzb   ($sbox,$acc0,1),$acc0   #$t0
969         xor     $acc1,$t0
970
971         movzb   `&hi("$s2")`,$acc1
972         shl     \$16,$t4
973         shl     \$16,$t5
974         movzb   ($sbox,$acc1,1),$s1     #$t1
975         xor     $t4,$t1
976         xor     $t5,$t2
977
978         movzb   `&hi("$s3")`,$acc1
979         shr     \$8,$s0
980         shl     \$16,$acc2
981         movzb   ($sbox,$acc1,1),$s2     #$t2
982         movzb   ($sbox,$s0,1),$s3       #$t3
983         xor     $acc2,$t3
984
985         shl     \$24,$acc0
986         shl     \$24,$s1
987         shl     \$24,$s2
988         xor     $acc0,$t0
989         shl     \$24,$s3
990         xor     $t1,$s1
991         mov     $t0,$s0
992         xor     $t2,$s2
993         xor     $t3,$s3
994 ___
995 }
996
997 # parallelized version! input is pair of 64-bit values: %rax=s1.s0
998 # and %rcx=s3.s2, output is four 32-bit values in %eax=s0, %ebx=s1,
999 # %ecx=s2 and %edx=s3.
1000 sub dectransform()
1001 { my ($tp10,$tp20,$tp40,$tp80,$acc0)=("%rax","%r8", "%r9", "%r10","%rbx");
1002   my ($tp18,$tp28,$tp48,$tp88,$acc8)=("%rcx","%r11","%r12","%r13","%rdx");
1003   my $prefetch = shift;
1004
1005 $code.=<<___;
1006         mov     $tp10,$acc0
1007         mov     $tp18,$acc8
1008         and     $mask80,$acc0
1009         and     $mask80,$acc8
1010         mov     $acc0,$tp40
1011         mov     $acc8,$tp48
1012         shr     \$7,$tp40
1013         lea     ($tp10,$tp10),$tp20
1014         shr     \$7,$tp48
1015         lea     ($tp18,$tp18),$tp28
1016         sub     $tp40,$acc0
1017         sub     $tp48,$acc8
1018         and     $maskfe,$tp20
1019         and     $maskfe,$tp28
1020         and     $mask1b,$acc0
1021         and     $mask1b,$acc8
1022         xor     $tp20,$acc0
1023         xor     $tp28,$acc8
1024         mov     $acc0,$tp20
1025         mov     $acc8,$tp28
1026
1027         and     $mask80,$acc0
1028         and     $mask80,$acc8
1029         mov     $acc0,$tp80
1030         mov     $acc8,$tp88
1031         shr     \$7,$tp80
1032         lea     ($tp20,$tp20),$tp40
1033         shr     \$7,$tp88
1034         lea     ($tp28,$tp28),$tp48
1035         sub     $tp80,$acc0
1036         sub     $tp88,$acc8
1037         and     $maskfe,$tp40
1038         and     $maskfe,$tp48
1039         and     $mask1b,$acc0
1040         and     $mask1b,$acc8
1041         xor     $tp40,$acc0
1042         xor     $tp48,$acc8
1043         mov     $acc0,$tp40
1044         mov     $acc8,$tp48
1045
1046         and     $mask80,$acc0
1047         and     $mask80,$acc8
1048         mov     $acc0,$tp80
1049         mov     $acc8,$tp88
1050         shr     \$7,$tp80
1051          xor    $tp10,$tp20             # tp2^=tp1
1052         shr     \$7,$tp88
1053          xor    $tp18,$tp28             # tp2^=tp1
1054         sub     $tp80,$acc0
1055         sub     $tp88,$acc8
1056         lea     ($tp40,$tp40),$tp80
1057         lea     ($tp48,$tp48),$tp88
1058          xor    $tp10,$tp40             # tp4^=tp1
1059          xor    $tp18,$tp48             # tp4^=tp1
1060         and     $maskfe,$tp80
1061         and     $maskfe,$tp88
1062         and     $mask1b,$acc0
1063         and     $mask1b,$acc8
1064         xor     $acc0,$tp80
1065         xor     $acc8,$tp88
1066
1067         xor     $tp80,$tp10             # tp1^=tp8
1068         xor     $tp88,$tp18             # tp1^=tp8
1069         xor     $tp80,$tp20             # tp2^tp1^=tp8
1070         xor     $tp88,$tp28             # tp2^tp1^=tp8
1071         mov     $tp10,$acc0
1072         mov     $tp18,$acc8
1073         xor     $tp80,$tp40             # tp4^tp1^=tp8
1074         xor     $tp88,$tp48             # tp4^tp1^=tp8
1075         shr     \$32,$acc0
1076         shr     \$32,$acc8
1077         xor     $tp20,$tp80             # tp8^=tp8^tp2^tp1=tp2^tp1
1078         xor     $tp28,$tp88             # tp8^=tp8^tp2^tp1=tp2^tp1
1079         rol     \$8,`&LO("$tp10")`      # ROTATE(tp1^tp8,8)
1080         rol     \$8,`&LO("$tp18")`      # ROTATE(tp1^tp8,8)
1081         xor     $tp40,$tp80             # tp2^tp1^=tp8^tp4^tp1=tp8^tp4^tp2
1082         xor     $tp48,$tp88             # tp2^tp1^=tp8^tp4^tp1=tp8^tp4^tp2
1083
1084         rol     \$8,`&LO("$acc0")`      # ROTATE(tp1^tp8,8)
1085         rol     \$8,`&LO("$acc8")`      # ROTATE(tp1^tp8,8)
1086         xor     `&LO("$tp80")`,`&LO("$tp10")`
1087         xor     `&LO("$tp88")`,`&LO("$tp18")`
1088         shr     \$32,$tp80
1089         shr     \$32,$tp88
1090         xor     `&LO("$tp80")`,`&LO("$acc0")`
1091         xor     `&LO("$tp88")`,`&LO("$acc8")`
1092
1093         mov     $tp20,$tp80
1094         mov     $tp28,$tp88
1095         shr     \$32,$tp80
1096         shr     \$32,$tp88
1097         rol     \$24,`&LO("$tp20")`     # ROTATE(tp2^tp1^tp8,24)
1098         rol     \$24,`&LO("$tp28")`     # ROTATE(tp2^tp1^tp8,24)
1099         rol     \$24,`&LO("$tp80")`     # ROTATE(tp2^tp1^tp8,24)
1100         rol     \$24,`&LO("$tp88")`     # ROTATE(tp2^tp1^tp8,24)
1101         xor     `&LO("$tp20")`,`&LO("$tp10")`
1102         xor     `&LO("$tp28")`,`&LO("$tp18")`
1103         mov     $tp40,$tp20
1104         mov     $tp48,$tp28
1105         xor     `&LO("$tp80")`,`&LO("$acc0")`
1106         xor     `&LO("$tp88")`,`&LO("$acc8")`
1107
1108         `"mov   0($sbox),$mask80"       if ($prefetch)`
1109         shr     \$32,$tp20
1110         shr     \$32,$tp28
1111         `"mov   64($sbox),$maskfe"      if ($prefetch)`
1112         rol     \$16,`&LO("$tp40")`     # ROTATE(tp4^tp1^tp8,16)
1113         rol     \$16,`&LO("$tp48")`     # ROTATE(tp4^tp1^tp8,16)
1114         `"mov   128($sbox),$mask1b"     if ($prefetch)`
1115         rol     \$16,`&LO("$tp20")`     # ROTATE(tp4^tp1^tp8,16)
1116         rol     \$16,`&LO("$tp28")`     # ROTATE(tp4^tp1^tp8,16)
1117         `"mov   192($sbox),$tp80"       if ($prefetch)`
1118         xor     `&LO("$tp40")`,`&LO("$tp10")`
1119         xor     `&LO("$tp48")`,`&LO("$tp18")`
1120         `"mov   256($sbox),$tp88"       if ($prefetch)`
1121         xor     `&LO("$tp20")`,`&LO("$acc0")`
1122         xor     `&LO("$tp28")`,`&LO("$acc8")`
1123 ___
1124 }
1125
1126 $code.=<<___;
1127 .type   _x86_64_AES_decrypt_compact,\@abi-omnipotent
1128 .align  16
1129 _x86_64_AES_decrypt_compact:
1130         lea     128($sbox),$inp                 # size optimization
1131         mov     0-128($inp),$acc1               # prefetch Td4
1132         mov     32-128($inp),$acc2
1133         mov     64-128($inp),$t0
1134         mov     96-128($inp),$t1
1135         mov     128-128($inp),$acc1
1136         mov     160-128($inp),$acc2
1137         mov     192-128($inp),$t0
1138         mov     224-128($inp),$t1
1139         jmp     .Ldec_loop_compact
1140
1141 .align  16
1142 .Ldec_loop_compact:
1143                 xor     0($key),$s0             # xor with key
1144                 xor     4($key),$s1
1145                 xor     8($key),$s2
1146                 xor     12($key),$s3
1147                 lea     16($key),$key
1148 ___
1149                 &deccompactvert();
1150 $code.=<<___;
1151                 cmp     16(%rsp),$key
1152                 je      .Ldec_compact_done
1153
1154                 mov     256+0($sbox),$mask80
1155                 shl     \$32,%rbx
1156                 shl     \$32,%rdx
1157                 mov     256+8($sbox),$maskfe
1158                 or      %rbx,%rax
1159                 or      %rdx,%rcx
1160                 mov     256+16($sbox),$mask1b
1161 ___
1162                 &dectransform(1);
1163 $code.=<<___;
1164         jmp     .Ldec_loop_compact
1165 .align  16
1166 .Ldec_compact_done:
1167         xor     0($key),$s0
1168         xor     4($key),$s1
1169         xor     8($key),$s2
1170         xor     12($key),$s3
1171         .byte   0xf3,0xc3                       # rep ret
1172 .size   _x86_64_AES_decrypt_compact,.-_x86_64_AES_decrypt_compact
1173 ___
1174
1175 # void AES_decrypt (const void *inp,void *out,const AES_KEY *key);
1176 $code.=<<___;
1177 .globl  AES_decrypt
1178 .type   AES_decrypt,\@function,3
1179 .align  16
1180 AES_decrypt:
1181         push    %rbx
1182         push    %rbp
1183         push    %r12
1184         push    %r13
1185         push    %r14
1186         push    %r15
1187
1188         # allocate frame "above" key schedule
1189         mov     %rsp,%rax
1190         mov     %rdx,$key
1191         lea     -63(%rdx),%rcx
1192         and     \$-64,%rsp
1193         sub     %rsp,%rcx
1194         neg     %rcx
1195         and     \$0x3c0,%rcx
1196         sub     %rcx,%rsp
1197
1198         push    %rax            # save real stack pointer
1199         push    %rsi            # save out
1200
1201         mov     240($key),$rnds # load rounds
1202
1203         mov     0(%rdi),$s0     # load input vector
1204         mov     4(%rdi),$s1
1205         mov     8(%rdi),$s2
1206         mov     12(%rdi),$s3
1207
1208         shl     \$4,$rnds
1209         lea     ($key,$rnds),%rbp
1210         push    %rbp
1211         push    $key
1212
1213         # pick Td4 copy which can't "overlap" with stack frame or key schedule
1214         .picmeup        $sbox
1215         lea     AES_Td+2048-.($sbox),$sbox
1216         lea     768(%rsp),%rbp
1217         sub     $sbox,%rbp
1218         and     \$0x300,%rbp
1219         lea     ($sbox,%rbp),$sbox
1220         shr     \$3,%rbp                # recall "magic" constants!
1221         add     %rbp,$sbox
1222
1223         call    _x86_64_AES_decrypt_compact
1224
1225         lea     16(%rsp),%rsp
1226         pop     $out    # restore out
1227         mov     $s0,0($out)
1228         mov     $s1,4($out)
1229         mov     $s2,8($out)
1230         mov     $s3,12($out)
1231
1232         mov     (%rsp),%rsp
1233         pop     %r15
1234         pop     %r14
1235         pop     %r13
1236         pop     %r12
1237         pop     %rbp
1238         pop     %rbx
1239         ret
1240 .size   AES_decrypt,.-AES_decrypt
1241 ___
1242 #------------------------------------------------------------------#
1243
1244 sub enckey()
1245 {
1246 $code.=<<___;
1247         movz    %dl,%esi                # rk[i]>>0
1248         movzb   -128(%rbp,%rsi),%ebx
1249         movz    %dh,%esi                # rk[i]>>8
1250         shl     \$24,%ebx
1251         xor     %ebx,%eax
1252
1253         movzb   -128(%rbp,%rsi),%ebx
1254         shr     \$16,%edx
1255         movz    %dl,%esi                # rk[i]>>16
1256         xor     %ebx,%eax
1257
1258         movzb   -128(%rbp,%rsi),%ebx
1259         movz    %dh,%esi                # rk[i]>>24
1260         shl     \$8,%ebx
1261         xor     %ebx,%eax
1262
1263         movzb   -128(%rbp,%rsi),%ebx
1264         shl     \$16,%ebx
1265         xor     %ebx,%eax
1266
1267         xor     1024-128(%rbp,%rcx,4),%eax              # rcon
1268 ___
1269 }
1270
1271 # int AES_set_encrypt_key(const unsigned char *userKey, const int bits,
1272 #                        AES_KEY *key)
1273 $code.=<<___;
1274 .globl  AES_set_encrypt_key
1275 .type   AES_set_encrypt_key,\@function,3
1276 .align  16
1277 AES_set_encrypt_key:
1278         push    %rbx
1279         push    %rbp
1280
1281         mov     %esi,%ecx                       # %ecx=bits
1282         mov     %rdi,%rsi                       # %rsi=userKey
1283         mov     %rdx,%rdi                       # %rdi=key
1284
1285         test    \$-1,%rsi
1286         jz      .Lbadpointer
1287         test    \$-1,%rdi
1288         jz      .Lbadpointer
1289
1290         .picmeup %rbp
1291         lea     AES_Te-.(%rbp),%rbp
1292         lea     2048+128(%rbp),%rbp
1293
1294         # prefetch Te4
1295         mov     0-128(%rbp),%eax
1296         mov     32-128(%rbp),%ebx
1297         mov     64-128(%rbp),%r8d
1298         mov     96-128(%rbp),%edx
1299         mov     128-128(%rbp),%eax
1300         mov     160-128(%rbp),%ebx
1301         mov     192-128(%rbp),%r8d
1302         mov     224-128(%rbp),%edx
1303
1304         cmp     \$128,%ecx
1305         je      .L10rounds
1306         cmp     \$192,%ecx
1307         je      .L12rounds
1308         cmp     \$256,%ecx
1309         je      .L14rounds
1310         mov     \$-2,%rax                       # invalid number of bits
1311         jmp     .Lexit
1312
1313 .L10rounds:
1314         mov     0(%rsi),%rax                    # copy first 4 dwords
1315         mov     8(%rsi),%rdx
1316         mov     %rax,0(%rdi)
1317         mov     %rdx,8(%rdi)
1318
1319         shr     \$32,%rdx
1320         xor     %ecx,%ecx
1321         jmp     .L10shortcut
1322 .align  4
1323 .L10loop:
1324                 mov     0(%rdi),%eax                    # rk[0]
1325                 mov     12(%rdi),%edx                   # rk[3]
1326 .L10shortcut:
1327 ___
1328                 &enckey ();
1329 $code.=<<___;
1330                 mov     %eax,16(%rdi)                   # rk[4]
1331                 xor     4(%rdi),%eax
1332                 mov     %eax,20(%rdi)                   # rk[5]
1333                 xor     8(%rdi),%eax
1334                 mov     %eax,24(%rdi)                   # rk[6]
1335                 xor     12(%rdi),%eax
1336                 mov     %eax,28(%rdi)                   # rk[7]
1337                 add     \$1,%ecx
1338                 lea     16(%rdi),%rdi
1339                 cmp     \$10,%ecx
1340         jl      .L10loop
1341
1342         movl    \$10,80(%rdi)                   # setup number of rounds
1343         xor     %rax,%rax
1344         jmp     .Lexit
1345
1346 .L12rounds:
1347         mov     0(%rsi),%rax                    # copy first 6 dwords
1348         mov     8(%rsi),%rbx
1349         mov     16(%rsi),%rdx
1350         mov     %rax,0(%rdi)
1351         mov     %rbx,8(%rdi)
1352         mov     %rdx,16(%rdi)
1353
1354         shr     \$32,%rdx
1355         xor     %ecx,%ecx
1356         jmp     .L12shortcut
1357 .align  4
1358 .L12loop:
1359                 mov     0(%rdi),%eax                    # rk[0]
1360                 mov     20(%rdi),%edx                   # rk[5]
1361 .L12shortcut:
1362 ___
1363                 &enckey ();
1364 $code.=<<___;
1365                 mov     %eax,24(%rdi)                   # rk[6]
1366                 xor     4(%rdi),%eax
1367                 mov     %eax,28(%rdi)                   # rk[7]
1368                 xor     8(%rdi),%eax
1369                 mov     %eax,32(%rdi)                   # rk[8]
1370                 xor     12(%rdi),%eax
1371                 mov     %eax,36(%rdi)                   # rk[9]
1372
1373                 cmp     \$7,%ecx
1374                 je      .L12break
1375                 add     \$1,%ecx
1376
1377                 xor     16(%rdi),%eax
1378                 mov     %eax,40(%rdi)                   # rk[10]
1379                 xor     20(%rdi),%eax
1380                 mov     %eax,44(%rdi)                   # rk[11]
1381
1382                 lea     24(%rdi),%rdi
1383         jmp     .L12loop
1384 .L12break:
1385         movl    \$12,72(%rdi)           # setup number of rounds
1386         xor     %rax,%rax
1387         jmp     .Lexit
1388
1389 .L14rounds:             
1390         mov     0(%rsi),%rax                    # copy first 8 dwords
1391         mov     8(%rsi),%rbx
1392         mov     16(%rsi),%rcx
1393         mov     24(%rsi),%rdx
1394         mov     %rax,0(%rdi)
1395         mov     %rbx,8(%rdi)
1396         mov     %rcx,16(%rdi)
1397         mov     %rdx,24(%rdi)
1398
1399         shr     \$32,%rdx
1400         xor     %ecx,%ecx
1401         jmp     .L14shortcut
1402 .align  4
1403 .L14loop:
1404                 mov     0(%rdi),%eax                    # rk[0]
1405                 mov     28(%rdi),%edx                   # rk[4]
1406 .L14shortcut:
1407 ___
1408                 &enckey ();
1409 $code.=<<___;
1410                 mov     %eax,32(%rdi)                   # rk[8]
1411                 xor     4(%rdi),%eax
1412                 mov     %eax,36(%rdi)                   # rk[9]
1413                 xor     8(%rdi),%eax
1414                 mov     %eax,40(%rdi)                   # rk[10]
1415                 xor     12(%rdi),%eax
1416                 mov     %eax,44(%rdi)                   # rk[11]
1417
1418                 cmp     \$6,%ecx
1419                 je      .L14break
1420                 add     \$1,%ecx
1421
1422                 mov     %eax,%edx
1423                 mov     16(%rdi),%eax                   # rk[4]
1424                 movz    %dl,%esi                        # rk[11]>>0
1425                 movzb   -128(%rbp,%rsi),%ebx
1426                 movz    %dh,%esi                        # rk[11]>>8
1427                 xor     %ebx,%eax
1428
1429                 movzb   -128(%rbp,%rsi),%ebx
1430                 shr     \$16,%edx
1431                 shl     \$8,%ebx
1432                 movz    %dl,%esi                        # rk[11]>>16
1433                 xor     %ebx,%eax
1434
1435                 movzb   -128(%rbp,%rsi),%ebx
1436                 movz    %dh,%esi                        # rk[11]>>24
1437                 shl     \$16,%ebx
1438                 xor     %ebx,%eax
1439
1440                 movzb   -128(%rbp,%rsi),%ebx
1441                 shl     \$24,%ebx
1442                 xor     %ebx,%eax
1443
1444                 mov     %eax,48(%rdi)                   # rk[12]
1445                 xor     20(%rdi),%eax
1446                 mov     %eax,52(%rdi)                   # rk[13]
1447                 xor     24(%rdi),%eax
1448                 mov     %eax,56(%rdi)                   # rk[14]
1449                 xor     28(%rdi),%eax
1450                 mov     %eax,60(%rdi)                   # rk[15]
1451
1452                 lea     32(%rdi),%rdi
1453         jmp     .L14loop
1454 .L14break:
1455         movl    \$14,48(%rdi)           # setup number of rounds
1456         xor     %rax,%rax
1457         jmp     .Lexit
1458
1459 .Lbadpointer:
1460         mov     \$-1,%rax
1461 .Lexit:
1462         pop     %rbp
1463         pop     %rbx
1464         ret
1465 .size   AES_set_encrypt_key,.-AES_set_encrypt_key
1466 ___
1467
1468 sub deckey_ref()
1469 { my ($i,$ptr,$te,$td) = @_;
1470   my ($tp1,$tp2,$tp4,$tp8,$acc)=("%eax","%ebx","%edi","%edx","%r8d");
1471 $code.=<<___;
1472         mov     $i($ptr),$tp1
1473         mov     $tp1,$acc
1474         and     \$0x80808080,$acc
1475         mov     $acc,$tp4
1476         shr     \$7,$tp4
1477         lea     0($tp1,$tp1),$tp2
1478         sub     $tp4,$acc
1479         and     \$0xfefefefe,$tp2
1480         and     \$0x1b1b1b1b,$acc
1481         xor     $tp2,$acc
1482         mov     $acc,$tp2
1483
1484         and     \$0x80808080,$acc
1485         mov     $acc,$tp8
1486         shr     \$7,$tp8
1487         lea     0($tp2,$tp2),$tp4
1488         sub     $tp8,$acc
1489         and     \$0xfefefefe,$tp4
1490         and     \$0x1b1b1b1b,$acc
1491          xor    $tp1,$tp2               # tp2^tp1
1492         xor     $tp4,$acc
1493         mov     $acc,$tp4
1494
1495         and     \$0x80808080,$acc
1496         mov     $acc,$tp8
1497         shr     \$7,$tp8
1498         sub     $tp8,$acc
1499         lea     0($tp4,$tp4),$tp8
1500          xor    $tp1,$tp4               # tp4^tp1
1501         and     \$0xfefefefe,$tp8
1502         and     \$0x1b1b1b1b,$acc
1503         xor     $acc,$tp8
1504
1505         xor     $tp8,$tp1               # tp1^tp8
1506         rol     \$8,$tp1                # ROTATE(tp1^tp8,8)
1507         xor     $tp8,$tp2               # tp2^tp1^tp8
1508         xor     $tp8,$tp4               # tp4^tp1^tp8
1509         xor     $tp2,$tp8
1510         xor     $tp4,$tp8               # tp8^(tp8^tp4^tp1)^(tp8^tp2^tp1)=tp8^tp4^tp2
1511
1512         xor     $tp8,$tp1
1513         rol     \$24,$tp2               # ROTATE(tp2^tp1^tp8,24)
1514         xor     $tp2,$tp1
1515         rol     \$16,$tp4               # ROTATE(tp4^tp1^tp8,16)
1516         xor     $tp4,$tp1
1517
1518         mov     $tp1,$i($ptr)
1519 ___
1520 }
1521
1522 # int AES_set_decrypt_key(const unsigned char *userKey, const int bits,
1523 #                        AES_KEY *key)
1524 $code.=<<___;
1525 .globl  AES_set_decrypt_key
1526 .type   AES_set_decrypt_key,\@function,3
1527 .align  16
1528 AES_set_decrypt_key:
1529         push    %rdx                    # save key schedule
1530         call    AES_set_encrypt_key
1531         cmp     \$0,%eax
1532         pop     %r8                     # restore key schedule
1533         jne     .Labort
1534
1535         push    %rbx
1536         push    %rbp
1537         push    %r12
1538         push    %r13
1539         push    %r14
1540         push    %r15
1541
1542         mov     240(%r8),%r14d          # pull number of rounds
1543         xor     %rdi,%rdi
1544         lea     (%rdi,%r14d,4),%rcx
1545         mov     %r8,%rsi
1546         lea     (%r8,%rcx,4),%rdi       # pointer to last chunk
1547 .align  4
1548 .Linvert:
1549                 mov     0(%rsi),%rax
1550                 mov     8(%rsi),%rbx
1551                 mov     0(%rdi),%rcx
1552                 mov     8(%rdi),%rdx
1553                 mov     %rax,0(%rdi)
1554                 mov     %rbx,8(%rdi)
1555                 mov     %rcx,0(%rsi)
1556                 mov     %rdx,8(%rsi)
1557                 lea     16(%rsi),%rsi
1558                 lea     -16(%rdi),%rdi
1559                 cmp     %rsi,%rdi
1560         jne     .Linvert
1561
1562         .picmeup %rax
1563         lea     AES_Te+2048+1024-.(%rax),%rax   # rcon
1564
1565         mov     40(%rax),$mask80
1566         mov     48(%rax),$maskfe
1567         mov     56(%rax),$mask1b
1568
1569         mov     %r8,$key
1570         sub     \$1,%r14d
1571 .align  4
1572 .Lpermute:
1573                 lea     16($key),$key
1574                 mov     0($key),%rax
1575                 mov     8($key),%rcx
1576 ___
1577                 &dectransform ();
1578 $code.=<<___;
1579                 mov     %eax,0($key)
1580                 mov     %ebx,4($key)
1581                 mov     %ecx,8($key)
1582                 mov     %edx,12($key)
1583                 sub     \$1,%r14d
1584         jnz     .Lpermute
1585
1586         xor     %rax,%rax
1587         pop     %r15
1588         pop     %r14
1589         pop     %r13
1590         pop     %r12
1591         pop     %rbp
1592         pop     %rbx
1593 .Labort:
1594         ret
1595 .size   AES_set_decrypt_key,.-AES_set_decrypt_key
1596 ___
1597
1598 # void AES_cbc_encrypt (const void char *inp, unsigned char *out,
1599 #                       size_t length, const AES_KEY *key,
1600 #                       unsigned char *ivp,const int enc);
1601 {
1602 # stack frame layout
1603 # -8(%rsp)              return address
1604 my $keyp="0(%rsp)";             # one to pass as $key
1605 my $keyend="8(%rsp)";           # &(keyp->rd_key[4*keyp->rounds])
1606 my $_rsp="16(%rsp)";            # saved %rsp
1607 my $_inp="24(%rsp)";            # copy of 1st parameter, inp
1608 my $_out="32(%rsp)";            # copy of 2nd parameter, out
1609 my $_len="40(%rsp)";            # copy of 3rd parameter, length
1610 my $_key="48(%rsp)";            # copy of 4th parameter, key
1611 my $_ivp="56(%rsp)";            # copy of 5th parameter, ivp
1612 my $ivec="64(%rsp)";            # ivec[16]
1613 my $aes_key="80(%rsp)";         # copy of aes_key
1614 my $mark="80+240(%rsp)";        # copy of aes_key->rounds
1615
1616 $code.=<<___;
1617 .globl  AES_cbc_encrypt
1618 .type   AES_cbc_encrypt,\@function,6
1619 .align  16
1620 .extern OPENSSL_ia32cap_P
1621 AES_cbc_encrypt:
1622         cmp     \$0,%rdx        # check length
1623         je      .Lcbc_just_ret
1624         push    %rbx
1625         push    %rbp
1626         push    %r12
1627         push    %r13
1628         push    %r14
1629         push    %r15
1630         pushfq
1631         cld
1632
1633         .picmeup $sbox
1634         lea     AES_Te-.($sbox),$sbox
1635         cmp     \$0,%r9
1636         jne     .Lcbc_picked_te
1637         lea     AES_Td-AES_Te($sbox),$sbox
1638 .Lcbc_picked_te:
1639
1640         mov     OPENSSL_ia32cap_P(%rip),%eax
1641         cmp     \$$speed_limit,%rdx
1642         jb      .Lcbc_slow_way
1643         test    \$15,%rdx
1644         jnz     .Lcbc_slow_way
1645         bt      \$28,%eax
1646         jc      .Lcbc_slow_way
1647
1648         # allocate aligned stack frame...
1649         lea     -88-248(%rsp),$key
1650         and     \$-64,$key
1651
1652         # ... and make sure it doesn't alias with AES_T[ed] modulo 4096
1653         mov     $sbox,%r10
1654         lea     2304($sbox),%r11
1655         mov     $key,%r12
1656         and     \$0xFFF,%r10    # s = $sbox&0xfff
1657         and     \$0xFFF,%r11    # e = ($sbox+2048)&0xfff
1658         and     \$0xFFF,%r12    # p = %rsp&0xfff
1659
1660         cmp     %r11,%r12       # if (p=>e) %rsp =- (p-e);
1661         jb      .Lcbc_te_break_out
1662         sub     %r11,%r12
1663         sub     %r12,$key
1664         jmp     .Lcbc_te_ok
1665 .Lcbc_te_break_out:             # else %rsp -= (p-s)&0xfff + framesz
1666         sub     %r10,%r12
1667         and     \$0xFFF,%r12
1668         add     \$320,%r12
1669         sub     %r12,$key
1670 .align  4
1671 .Lcbc_te_ok:
1672
1673         xchg    %rsp,$key
1674         add     \$8,%rsp        # reserve for return address!
1675         mov     $key,$_rsp      # save %rsp
1676         mov     %rdi,$_inp      # save copy of inp
1677         mov     %rsi,$_out      # save copy of out
1678         mov     %rdx,$_len      # save copy of len
1679         mov     %rcx,$_key      # save copy of key
1680         mov     %r8,$_ivp       # save copy of ivp
1681         movl    \$0,$mark       # copy of aes_key->rounds = 0;
1682         mov     %r8,%rbp        # rearrange input arguments
1683         mov     %r9,%rbx
1684         mov     %rsi,$out
1685         mov     %rdi,$inp
1686         mov     %rcx,$key
1687
1688         mov     240($key),%eax          # key->rounds
1689         # do we copy key schedule to stack?
1690         mov     $key,%r10
1691         sub     $sbox,%r10
1692         and     \$0xfff,%r10
1693         cmp     \$2304,%r10
1694         jb      .Lcbc_do_ecopy
1695         cmp     \$4096-248,%r10
1696         jb      .Lcbc_skip_ecopy
1697 .align  4
1698 .Lcbc_do_ecopy:
1699                 mov     $key,%rsi
1700                 lea     $aes_key,%rdi
1701                 lea     $aes_key,$key
1702                 mov     \$240/8,%ecx
1703                 .long   0x90A548F3      # rep movsq
1704                 mov     %eax,(%rdi)     # copy aes_key->rounds
1705 .Lcbc_skip_ecopy:
1706         mov     $key,$keyp      # save key pointer
1707
1708         mov     \$18,%ecx
1709 .align  4
1710 .Lcbc_prefetch_te:
1711                 mov     0($sbox),%r10
1712                 mov     32($sbox),%r11
1713                 mov     64($sbox),%r12
1714                 mov     96($sbox),%r13
1715                 lea     128($sbox),$sbox
1716                 sub     \$1,%ecx
1717         jnz     .Lcbc_prefetch_te
1718         lea     -2304($sbox),$sbox
1719
1720         cmp     \$0,%rbx
1721         je      .LFAST_DECRYPT
1722
1723 #----------------------------- ENCRYPT -----------------------------#
1724         mov     0(%rbp),$s0             # load iv
1725         mov     4(%rbp),$s1
1726         mov     8(%rbp),$s2
1727         mov     12(%rbp),$s3
1728
1729 .align  4
1730 .Lcbc_fast_enc_loop:
1731                 xor     0($inp),$s0
1732                 xor     4($inp),$s1
1733                 xor     8($inp),$s2
1734                 xor     12($inp),$s3
1735                 mov     $keyp,$key      # restore key
1736                 mov     $inp,$_inp      # if ($verticalspin) save inp
1737
1738                 call    _x86_64_AES_encrypt
1739
1740                 mov     $_inp,$inp      # if ($verticalspin) restore inp
1741                 mov     $_len,%r10
1742                 mov     $s0,0($out)
1743                 mov     $s1,4($out)
1744                 mov     $s2,8($out)
1745                 mov     $s3,12($out)
1746
1747                 lea     16($inp),$inp
1748                 lea     16($out),$out
1749                 sub     \$16,%r10
1750                 test    \$-16,%r10
1751                 mov     %r10,$_len
1752         jnz     .Lcbc_fast_enc_loop
1753         mov     $_ivp,%rbp      # restore ivp
1754         mov     $s0,0(%rbp)     # save ivec
1755         mov     $s1,4(%rbp)
1756         mov     $s2,8(%rbp)
1757         mov     $s3,12(%rbp)
1758
1759 .align  4
1760 .Lcbc_cleanup:
1761         cmpl    \$0,$mark       # was the key schedule copied?
1762         lea     $aes_key,%rdi
1763         je      .Lcbc_exit
1764                 mov     \$240/8,%ecx
1765                 xor     %rax,%rax
1766                 .long   0x90AB48F3      # rep stosq
1767 .Lcbc_exit:
1768         mov     $_rsp,%rsp
1769         popfq
1770         pop     %r15
1771         pop     %r14
1772         pop     %r13
1773         pop     %r12
1774         pop     %rbp
1775         pop     %rbx
1776 .Lcbc_just_ret:
1777         ret
1778
1779 #----------------------------- DECRYPT -----------------------------#
1780 .align  16
1781 .LFAST_DECRYPT:
1782         cmp     $inp,$out
1783         je      .Lcbc_fast_dec_in_place
1784
1785         mov     %rbp,$ivec
1786 .align  4
1787 .Lcbc_fast_dec_loop:
1788                 mov     0($inp),$s0     # read input
1789                 mov     4($inp),$s1
1790                 mov     8($inp),$s2
1791                 mov     12($inp),$s3
1792                 mov     $keyp,$key      # restore key
1793                 mov     $inp,$_inp      # if ($verticalspin) save inp
1794
1795                 call    _x86_64_AES_decrypt
1796
1797                 mov     $ivec,%rbp      # load ivp
1798                 mov     $_inp,$inp      # if ($verticalspin) restore inp
1799                 mov     $_len,%r10      # load len
1800                 xor     0(%rbp),$s0     # xor iv
1801                 xor     4(%rbp),$s1
1802                 xor     8(%rbp),$s2
1803                 xor     12(%rbp),$s3
1804                 mov     $inp,%rbp       # current input, next iv
1805
1806                 sub     \$16,%r10
1807                 mov     %r10,$_len      # update len
1808                 mov     %rbp,$ivec      # update ivp
1809
1810                 mov     $s0,0($out)     # write output
1811                 mov     $s1,4($out)
1812                 mov     $s2,8($out)
1813                 mov     $s3,12($out)
1814
1815                 lea     16($inp),$inp
1816                 lea     16($out),$out
1817         jnz     .Lcbc_fast_dec_loop
1818         mov     $_ivp,%r12              # load user ivp
1819         mov     0(%rbp),%r10            # load iv
1820         mov     8(%rbp),%r11
1821         mov     %r10,0(%r12)            # copy back to user
1822         mov     %r11,8(%r12)
1823         jmp     .Lcbc_cleanup
1824
1825 .align  16
1826 .Lcbc_fast_dec_in_place:
1827         mov     0(%rbp),%r10            # copy iv to stack
1828         mov     8(%rbp),%r11
1829         mov     %r10,0+$ivec
1830         mov     %r11,8+$ivec
1831 .align  4
1832 .Lcbc_fast_dec_in_place_loop:
1833                 mov     0($inp),$s0     # load input
1834                 mov     4($inp),$s1
1835                 mov     8($inp),$s2
1836                 mov     12($inp),$s3
1837                 mov     $keyp,$key      # restore key
1838                 mov     $inp,$_inp      # if ($verticalspin) save inp
1839
1840                 call    _x86_64_AES_decrypt
1841
1842                 mov     $_inp,$inp      # if ($verticalspin) restore inp
1843                 mov     $_len,%r10
1844                 xor     0+$ivec,$s0
1845                 xor     4+$ivec,$s1
1846                 xor     8+$ivec,$s2
1847                 xor     12+$ivec,$s3
1848
1849                 mov     0($inp),%r11    # load input
1850                 mov     8($inp),%r12
1851                 sub     \$16,%r10
1852                 jz      .Lcbc_fast_dec_in_place_done
1853
1854                 mov     %r11,0+$ivec    # copy input to iv
1855                 mov     %r12,8+$ivec
1856
1857                 mov     $s0,0($out)     # save output [zaps input]
1858                 mov     $s1,4($out)
1859                 mov     $s2,8($out)
1860                 mov     $s3,12($out)
1861
1862                 lea     16($inp),$inp
1863                 lea     16($out),$out
1864                 mov     %r10,$_len
1865         jmp     .Lcbc_fast_dec_in_place_loop
1866 .Lcbc_fast_dec_in_place_done:
1867         mov     $_ivp,%rdi
1868         mov     %r11,0(%rdi)    # copy iv back to user
1869         mov     %r12,8(%rdi)
1870
1871         mov     $s0,0($out)     # save output [zaps input]
1872         mov     $s1,4($out)
1873         mov     $s2,8($out)
1874         mov     $s3,12($out)
1875
1876         jmp     .Lcbc_cleanup
1877
1878 #--------------------------- SLOW ROUTINE ---------------------------#
1879 .align  16
1880 .Lcbc_slow_way:
1881         # allocate aligned stack frame...
1882         lea     -88(%rsp),%rbp
1883         and     \$-64,%rbp
1884         # ... just "above" key schedule
1885         lea     -88-63(%rcx),%rax
1886         sub     %rbp,%rax
1887         neg     %rax
1888         and     \$0x3c0,%rax
1889         sub     %rax,%rbp
1890
1891         xchg    %rsp,%rbp
1892         add     \$8,%rsp        # reserve for return address!
1893         mov     %rbp,$_rsp      # save %rsp
1894         #mov    %rdi,$_inp      # save copy of inp
1895         #mov    %rsi,$_out      # save copy of out
1896         #mov    %rdx,$_len      # save copy of len
1897         #mov    %rcx,$_key      # save copy of key
1898         mov     %r8,$_ivp       # save copy of ivp
1899         mov     %r8,%rbp        # rearrange input arguments
1900         mov     %r9,%rbx
1901         mov     %rsi,$out
1902         mov     %rdi,$inp
1903         mov     %rcx,$key
1904         mov     %rdx,%r10
1905
1906         mov     240($key),%eax
1907         mov     $key,$keyp      # save key pointer
1908         shl     \$4,%eax
1909         lea     ($key,%rax),%rax
1910         mov     %rax,$keyend
1911
1912         # pick Te4 copy which can't "overlap" with stack frame or key scdedule
1913         lea     2048($sbox),$sbox
1914         lea     768-8(%rsp),%rax
1915         sub     $sbox,%rax
1916         and     \$0x300,%rax
1917         lea     ($sbox,%rax),$sbox
1918
1919         cmp     \$0,%rbx
1920         je      .LSLOW_DECRYPT
1921
1922 #--------------------------- SLOW ENCRYPT ---------------------------#
1923         test    \$-16,%r10              # check upon length
1924         mov     0(%rbp),$s0             # load iv
1925         mov     4(%rbp),$s1
1926         mov     8(%rbp),$s2
1927         mov     12(%rbp),$s3
1928         jz      .Lcbc_slow_enc_tail     # short input...
1929
1930 .align  4
1931 .Lcbc_slow_enc_loop:
1932                 xor     0($inp),$s0
1933                 xor     4($inp),$s1
1934                 xor     8($inp),$s2
1935                 xor     12($inp),$s3
1936                 mov     $keyp,$key      # restore key
1937                 mov     $inp,$_inp      # save inp
1938                 mov     $out,$_out      # save out
1939                 mov     %r10,$_len      # save len
1940
1941                 call    _x86_64_AES_encrypt_compact
1942
1943                 mov     $_inp,$inp      # restore inp
1944                 mov     $_out,$out      # restore out
1945                 mov     $_len,%r10      # restore len
1946                 mov     $s0,0($out)
1947                 mov     $s1,4($out)
1948                 mov     $s2,8($out)
1949                 mov     $s3,12($out)
1950
1951                 lea     16($inp),$inp
1952                 lea     16($out),$out
1953                 sub     \$16,%r10
1954                 test    \$-16,%r10
1955         jnz     .Lcbc_slow_enc_loop
1956         test    \$15,%r10
1957         jnz     .Lcbc_slow_enc_tail
1958         mov     $_ivp,%rbp      # restore ivp
1959         mov     $s0,0(%rbp)     # save ivec
1960         mov     $s1,4(%rbp)
1961         mov     $s2,8(%rbp)
1962         mov     $s3,12(%rbp)
1963
1964         jmp     .Lcbc_exit
1965 .align  4
1966 .Lcbc_slow_enc_tail:
1967         cmp     $inp,$out
1968         je      .Lcbc_slow_enc_in_place
1969         mov     %r10,%rcx
1970         mov     $inp,%rsi
1971         mov     $out,%rdi
1972         .long   0x9066A4F3              # rep movsb
1973 .Lcbc_slow_enc_in_place:
1974         mov     \$16,%rcx               # zero tail
1975         sub     %r10,%rcx
1976         xor     %rax,%rax
1977         .long   0x9066AAF3              # rep stosb
1978         mov     $out,$inp               # this is not a mistake!
1979         movq    \$16,$_len              # len=16
1980         jmp     .Lcbc_slow_enc_loop     # one more spin...
1981 #--------------------------- SLOW DECRYPT ---------------------------#
1982 .align  16
1983 .LSLOW_DECRYPT:
1984         shr     \$3,%rax
1985         add     %rax,$sbox              # recall "magic" constants!
1986
1987         mov     0(%rbp),%r11            # copy iv to stack
1988         mov     8(%rbp),%r12
1989         mov     %r11,0+$ivec
1990         mov     %r12,8+$ivec
1991
1992 .align  4
1993 .Lcbc_slow_dec_loop:
1994                 mov     0($inp),$s0     # load input
1995                 mov     4($inp),$s1
1996                 mov     8($inp),$s2
1997                 mov     12($inp),$s3
1998                 mov     $keyp,$key      # restore key
1999                 mov     $inp,$_inp      # save inp
2000                 mov     $out,$_out      # save out
2001                 mov     %r10,$_len      # save len
2002
2003                 call    _x86_64_AES_decrypt_compact
2004
2005                 mov     $_inp,$inp      # restore inp
2006                 mov     $_out,$out      # restore out
2007                 mov     $_len,%r10
2008                 xor     0+$ivec,$s0
2009                 xor     4+$ivec,$s1
2010                 xor     8+$ivec,$s2
2011                 xor     12+$ivec,$s3
2012
2013                 mov     0($inp),%r11    # load input
2014                 mov     8($inp),%r12
2015                 sub     \$16,%r10
2016                 jc      .Lcbc_slow_dec_partial
2017                 jz      .Lcbc_slow_dec_done
2018
2019                 mov     %r11,0+$ivec    # copy input to iv
2020                 mov     %r12,8+$ivec
2021
2022                 mov     $s0,0($out)     # save output [can zap input]
2023                 mov     $s1,4($out)
2024                 mov     $s2,8($out)
2025                 mov     $s3,12($out)
2026
2027                 lea     16($inp),$inp
2028                 lea     16($out),$out
2029         jmp     .Lcbc_slow_dec_loop
2030 .Lcbc_slow_dec_done:
2031         mov     $_ivp,%rdi
2032         mov     %r11,0(%rdi)            # copy iv back to user
2033         mov     %r12,8(%rdi)
2034
2035         mov     $s0,0($out)             # save output [can zap input]
2036         mov     $s1,4($out)
2037         mov     $s2,8($out)
2038         mov     $s3,12($out)
2039
2040         jmp     .Lcbc_exit
2041
2042 .align  4
2043 .Lcbc_slow_dec_partial:
2044         mov     $_ivp,%rdi
2045         mov     %r11,0(%rdi)            # copy iv back to user
2046         mov     %r12,8(%rdi)
2047
2048         mov     $s0,0+$ivec             # save output to stack
2049         mov     $s1,4+$ivec
2050         mov     $s2,8+$ivec
2051         mov     $s3,12+$ivec
2052
2053         mov     $out,%rdi
2054         lea     $ivec,%rsi
2055         lea     16(%r10),%rcx
2056         .long   0x9066A4F3      # rep movsb
2057         jmp     .Lcbc_exit
2058 .size   AES_cbc_encrypt,.-AES_cbc_encrypt
2059 ___
2060 }
2061
2062 $code.=<<___;
2063 .globl  AES_Te
2064 .align  64
2065 AES_Te:
2066 ___
2067         &_data_word(0xa56363c6, 0x847c7cf8, 0x997777ee, 0x8d7b7bf6);
2068         &_data_word(0x0df2f2ff, 0xbd6b6bd6, 0xb16f6fde, 0x54c5c591);
2069         &_data_word(0x50303060, 0x03010102, 0xa96767ce, 0x7d2b2b56);
2070         &_data_word(0x19fefee7, 0x62d7d7b5, 0xe6abab4d, 0x9a7676ec);
2071         &_data_word(0x45caca8f, 0x9d82821f, 0x40c9c989, 0x877d7dfa);
2072         &_data_word(0x15fafaef, 0xeb5959b2, 0xc947478e, 0x0bf0f0fb);
2073         &_data_word(0xecadad41, 0x67d4d4b3, 0xfda2a25f, 0xeaafaf45);
2074         &_data_word(0xbf9c9c23, 0xf7a4a453, 0x967272e4, 0x5bc0c09b);
2075         &_data_word(0xc2b7b775, 0x1cfdfde1, 0xae93933d, 0x6a26264c);
2076         &_data_word(0x5a36366c, 0x413f3f7e, 0x02f7f7f5, 0x4fcccc83);
2077         &_data_word(0x5c343468, 0xf4a5a551, 0x34e5e5d1, 0x08f1f1f9);
2078         &_data_word(0x937171e2, 0x73d8d8ab, 0x53313162, 0x3f15152a);
2079         &_data_word(0x0c040408, 0x52c7c795, 0x65232346, 0x5ec3c39d);
2080         &_data_word(0x28181830, 0xa1969637, 0x0f05050a, 0xb59a9a2f);
2081         &_data_word(0x0907070e, 0x36121224, 0x9b80801b, 0x3de2e2df);
2082         &_data_word(0x26ebebcd, 0x6927274e, 0xcdb2b27f, 0x9f7575ea);
2083         &_data_word(0x1b090912, 0x9e83831d, 0x742c2c58, 0x2e1a1a34);
2084         &_data_word(0x2d1b1b36, 0xb26e6edc, 0xee5a5ab4, 0xfba0a05b);
2085         &_data_word(0xf65252a4, 0x4d3b3b76, 0x61d6d6b7, 0xceb3b37d);
2086         &_data_word(0x7b292952, 0x3ee3e3dd, 0x712f2f5e, 0x97848413);
2087         &_data_word(0xf55353a6, 0x68d1d1b9, 0x00000000, 0x2cededc1);
2088         &_data_word(0x60202040, 0x1ffcfce3, 0xc8b1b179, 0xed5b5bb6);
2089         &_data_word(0xbe6a6ad4, 0x46cbcb8d, 0xd9bebe67, 0x4b393972);
2090         &_data_word(0xde4a4a94, 0xd44c4c98, 0xe85858b0, 0x4acfcf85);
2091         &_data_word(0x6bd0d0bb, 0x2aefefc5, 0xe5aaaa4f, 0x16fbfbed);
2092         &_data_word(0xc5434386, 0xd74d4d9a, 0x55333366, 0x94858511);
2093         &_data_word(0xcf45458a, 0x10f9f9e9, 0x06020204, 0x817f7ffe);
2094         &_data_word(0xf05050a0, 0x443c3c78, 0xba9f9f25, 0xe3a8a84b);
2095         &_data_word(0xf35151a2, 0xfea3a35d, 0xc0404080, 0x8a8f8f05);
2096         &_data_word(0xad92923f, 0xbc9d9d21, 0x48383870, 0x04f5f5f1);
2097         &_data_word(0xdfbcbc63, 0xc1b6b677, 0x75dadaaf, 0x63212142);
2098         &_data_word(0x30101020, 0x1affffe5, 0x0ef3f3fd, 0x6dd2d2bf);
2099         &_data_word(0x4ccdcd81, 0x140c0c18, 0x35131326, 0x2fececc3);
2100         &_data_word(0xe15f5fbe, 0xa2979735, 0xcc444488, 0x3917172e);
2101         &_data_word(0x57c4c493, 0xf2a7a755, 0x827e7efc, 0x473d3d7a);
2102         &_data_word(0xac6464c8, 0xe75d5dba, 0x2b191932, 0x957373e6);
2103         &_data_word(0xa06060c0, 0x98818119, 0xd14f4f9e, 0x7fdcdca3);
2104         &_data_word(0x66222244, 0x7e2a2a54, 0xab90903b, 0x8388880b);
2105         &_data_word(0xca46468c, 0x29eeeec7, 0xd3b8b86b, 0x3c141428);
2106         &_data_word(0x79dedea7, 0xe25e5ebc, 0x1d0b0b16, 0x76dbdbad);
2107         &_data_word(0x3be0e0db, 0x56323264, 0x4e3a3a74, 0x1e0a0a14);
2108         &_data_word(0xdb494992, 0x0a06060c, 0x6c242448, 0xe45c5cb8);
2109         &_data_word(0x5dc2c29f, 0x6ed3d3bd, 0xefacac43, 0xa66262c4);
2110         &_data_word(0xa8919139, 0xa4959531, 0x37e4e4d3, 0x8b7979f2);
2111         &_data_word(0x32e7e7d5, 0x43c8c88b, 0x5937376e, 0xb76d6dda);
2112         &_data_word(0x8c8d8d01, 0x64d5d5b1, 0xd24e4e9c, 0xe0a9a949);
2113         &_data_word(0xb46c6cd8, 0xfa5656ac, 0x07f4f4f3, 0x25eaeacf);
2114         &_data_word(0xaf6565ca, 0x8e7a7af4, 0xe9aeae47, 0x18080810);
2115         &_data_word(0xd5baba6f, 0x887878f0, 0x6f25254a, 0x722e2e5c);
2116         &_data_word(0x241c1c38, 0xf1a6a657, 0xc7b4b473, 0x51c6c697);
2117         &_data_word(0x23e8e8cb, 0x7cdddda1, 0x9c7474e8, 0x211f1f3e);
2118         &_data_word(0xdd4b4b96, 0xdcbdbd61, 0x868b8b0d, 0x858a8a0f);
2119         &_data_word(0x907070e0, 0x423e3e7c, 0xc4b5b571, 0xaa6666cc);
2120         &_data_word(0xd8484890, 0x05030306, 0x01f6f6f7, 0x120e0e1c);
2121         &_data_word(0xa36161c2, 0x5f35356a, 0xf95757ae, 0xd0b9b969);
2122         &_data_word(0x91868617, 0x58c1c199, 0x271d1d3a, 0xb99e9e27);
2123         &_data_word(0x38e1e1d9, 0x13f8f8eb, 0xb398982b, 0x33111122);
2124         &_data_word(0xbb6969d2, 0x70d9d9a9, 0x898e8e07, 0xa7949433);
2125         &_data_word(0xb69b9b2d, 0x221e1e3c, 0x92878715, 0x20e9e9c9);
2126         &_data_word(0x49cece87, 0xff5555aa, 0x78282850, 0x7adfdfa5);
2127         &_data_word(0x8f8c8c03, 0xf8a1a159, 0x80898909, 0x170d0d1a);
2128         &_data_word(0xdabfbf65, 0x31e6e6d7, 0xc6424284, 0xb86868d0);
2129         &_data_word(0xc3414182, 0xb0999929, 0x772d2d5a, 0x110f0f1e);
2130         &_data_word(0xcbb0b07b, 0xfc5454a8, 0xd6bbbb6d, 0x3a16162c);
2131
2132 #Te4    # four copies of Te4 to choose from to avoid L1 aliasing
2133         &data_byte(0x63, 0x7c, 0x77, 0x7b, 0xf2, 0x6b, 0x6f, 0xc5);
2134         &data_byte(0x30, 0x01, 0x67, 0x2b, 0xfe, 0xd7, 0xab, 0x76);
2135         &data_byte(0xca, 0x82, 0xc9, 0x7d, 0xfa, 0x59, 0x47, 0xf0);
2136         &data_byte(0xad, 0xd4, 0xa2, 0xaf, 0x9c, 0xa4, 0x72, 0xc0);
2137         &data_byte(0xb7, 0xfd, 0x93, 0x26, 0x36, 0x3f, 0xf7, 0xcc);
2138         &data_byte(0x34, 0xa5, 0xe5, 0xf1, 0x71, 0xd8, 0x31, 0x15);
2139         &data_byte(0x04, 0xc7, 0x23, 0xc3, 0x18, 0x96, 0x05, 0x9a);
2140         &data_byte(0x07, 0x12, 0x80, 0xe2, 0xeb, 0x27, 0xb2, 0x75);
2141         &data_byte(0x09, 0x83, 0x2c, 0x1a, 0x1b, 0x6e, 0x5a, 0xa0);
2142         &data_byte(0x52, 0x3b, 0xd6, 0xb3, 0x29, 0xe3, 0x2f, 0x84);
2143         &data_byte(0x53, 0xd1, 0x00, 0xed, 0x20, 0xfc, 0xb1, 0x5b);
2144         &data_byte(0x6a, 0xcb, 0xbe, 0x39, 0x4a, 0x4c, 0x58, 0xcf);
2145         &data_byte(0xd0, 0xef, 0xaa, 0xfb, 0x43, 0x4d, 0x33, 0x85);
2146         &data_byte(0x45, 0xf9, 0x02, 0x7f, 0x50, 0x3c, 0x9f, 0xa8);
2147         &data_byte(0x51, 0xa3, 0x40, 0x8f, 0x92, 0x9d, 0x38, 0xf5);
2148         &data_byte(0xbc, 0xb6, 0xda, 0x21, 0x10, 0xff, 0xf3, 0xd2);
2149         &data_byte(0xcd, 0x0c, 0x13, 0xec, 0x5f, 0x97, 0x44, 0x17);
2150         &data_byte(0xc4, 0xa7, 0x7e, 0x3d, 0x64, 0x5d, 0x19, 0x73);
2151         &data_byte(0x60, 0x81, 0x4f, 0xdc, 0x22, 0x2a, 0x90, 0x88);
2152         &data_byte(0x46, 0xee, 0xb8, 0x14, 0xde, 0x5e, 0x0b, 0xdb);
2153         &data_byte(0xe0, 0x32, 0x3a, 0x0a, 0x49, 0x06, 0x24, 0x5c);
2154         &data_byte(0xc2, 0xd3, 0xac, 0x62, 0x91, 0x95, 0xe4, 0x79);
2155         &data_byte(0xe7, 0xc8, 0x37, 0x6d, 0x8d, 0xd5, 0x4e, 0xa9);
2156         &data_byte(0x6c, 0x56, 0xf4, 0xea, 0x65, 0x7a, 0xae, 0x08);
2157         &data_byte(0xba, 0x78, 0x25, 0x2e, 0x1c, 0xa6, 0xb4, 0xc6);
2158         &data_byte(0xe8, 0xdd, 0x74, 0x1f, 0x4b, 0xbd, 0x8b, 0x8a);
2159         &data_byte(0x70, 0x3e, 0xb5, 0x66, 0x48, 0x03, 0xf6, 0x0e);
2160         &data_byte(0x61, 0x35, 0x57, 0xb9, 0x86, 0xc1, 0x1d, 0x9e);
2161         &data_byte(0xe1, 0xf8, 0x98, 0x11, 0x69, 0xd9, 0x8e, 0x94);
2162         &data_byte(0x9b, 0x1e, 0x87, 0xe9, 0xce, 0x55, 0x28, 0xdf);
2163         &data_byte(0x8c, 0xa1, 0x89, 0x0d, 0xbf, 0xe6, 0x42, 0x68);
2164         &data_byte(0x41, 0x99, 0x2d, 0x0f, 0xb0, 0x54, 0xbb, 0x16);
2165
2166         &data_byte(0x63, 0x7c, 0x77, 0x7b, 0xf2, 0x6b, 0x6f, 0xc5);
2167         &data_byte(0x30, 0x01, 0x67, 0x2b, 0xfe, 0xd7, 0xab, 0x76);
2168         &data_byte(0xca, 0x82, 0xc9, 0x7d, 0xfa, 0x59, 0x47, 0xf0);
2169         &data_byte(0xad, 0xd4, 0xa2, 0xaf, 0x9c, 0xa4, 0x72, 0xc0);
2170         &data_byte(0xb7, 0xfd, 0x93, 0x26, 0x36, 0x3f, 0xf7, 0xcc);
2171         &data_byte(0x34, 0xa5, 0xe5, 0xf1, 0x71, 0xd8, 0x31, 0x15);
2172         &data_byte(0x04, 0xc7, 0x23, 0xc3, 0x18, 0x96, 0x05, 0x9a);
2173         &data_byte(0x07, 0x12, 0x80, 0xe2, 0xeb, 0x27, 0xb2, 0x75);
2174         &data_byte(0x09, 0x83, 0x2c, 0x1a, 0x1b, 0x6e, 0x5a, 0xa0);
2175         &data_byte(0x52, 0x3b, 0xd6, 0xb3, 0x29, 0xe3, 0x2f, 0x84);
2176         &data_byte(0x53, 0xd1, 0x00, 0xed, 0x20, 0xfc, 0xb1, 0x5b);
2177         &data_byte(0x6a, 0xcb, 0xbe, 0x39, 0x4a, 0x4c, 0x58, 0xcf);
2178         &data_byte(0xd0, 0xef, 0xaa, 0xfb, 0x43, 0x4d, 0x33, 0x85);
2179         &data_byte(0x45, 0xf9, 0x02, 0x7f, 0x50, 0x3c, 0x9f, 0xa8);
2180         &data_byte(0x51, 0xa3, 0x40, 0x8f, 0x92, 0x9d, 0x38, 0xf5);
2181         &data_byte(0xbc, 0xb6, 0xda, 0x21, 0x10, 0xff, 0xf3, 0xd2);
2182         &data_byte(0xcd, 0x0c, 0x13, 0xec, 0x5f, 0x97, 0x44, 0x17);
2183         &data_byte(0xc4, 0xa7, 0x7e, 0x3d, 0x64, 0x5d, 0x19, 0x73);
2184         &data_byte(0x60, 0x81, 0x4f, 0xdc, 0x22, 0x2a, 0x90, 0x88);
2185         &data_byte(0x46, 0xee, 0xb8, 0x14, 0xde, 0x5e, 0x0b, 0xdb);
2186         &data_byte(0xe0, 0x32, 0x3a, 0x0a, 0x49, 0x06, 0x24, 0x5c);
2187         &data_byte(0xc2, 0xd3, 0xac, 0x62, 0x91, 0x95, 0xe4, 0x79);
2188         &data_byte(0xe7, 0xc8, 0x37, 0x6d, 0x8d, 0xd5, 0x4e, 0xa9);
2189         &data_byte(0x6c, 0x56, 0xf4, 0xea, 0x65, 0x7a, 0xae, 0x08);
2190         &data_byte(0xba, 0x78, 0x25, 0x2e, 0x1c, 0xa6, 0xb4, 0xc6);
2191         &data_byte(0xe8, 0xdd, 0x74, 0x1f, 0x4b, 0xbd, 0x8b, 0x8a);
2192         &data_byte(0x70, 0x3e, 0xb5, 0x66, 0x48, 0x03, 0xf6, 0x0e);
2193         &data_byte(0x61, 0x35, 0x57, 0xb9, 0x86, 0xc1, 0x1d, 0x9e);
2194         &data_byte(0xe1, 0xf8, 0x98, 0x11, 0x69, 0xd9, 0x8e, 0x94);
2195         &data_byte(0x9b, 0x1e, 0x87, 0xe9, 0xce, 0x55, 0x28, 0xdf);
2196         &data_byte(0x8c, 0xa1, 0x89, 0x0d, 0xbf, 0xe6, 0x42, 0x68);
2197         &data_byte(0x41, 0x99, 0x2d, 0x0f, 0xb0, 0x54, 0xbb, 0x16);
2198
2199         &data_byte(0x63, 0x7c, 0x77, 0x7b, 0xf2, 0x6b, 0x6f, 0xc5);
2200         &data_byte(0x30, 0x01, 0x67, 0x2b, 0xfe, 0xd7, 0xab, 0x76);
2201         &data_byte(0xca, 0x82, 0xc9, 0x7d, 0xfa, 0x59, 0x47, 0xf0);
2202         &data_byte(0xad, 0xd4, 0xa2, 0xaf, 0x9c, 0xa4, 0x72, 0xc0);
2203         &data_byte(0xb7, 0xfd, 0x93, 0x26, 0x36, 0x3f, 0xf7, 0xcc);
2204         &data_byte(0x34, 0xa5, 0xe5, 0xf1, 0x71, 0xd8, 0x31, 0x15);
2205         &data_byte(0x04, 0xc7, 0x23, 0xc3, 0x18, 0x96, 0x05, 0x9a);
2206         &data_byte(0x07, 0x12, 0x80, 0xe2, 0xeb, 0x27, 0xb2, 0x75);
2207         &data_byte(0x09, 0x83, 0x2c, 0x1a, 0x1b, 0x6e, 0x5a, 0xa0);
2208         &data_byte(0x52, 0x3b, 0xd6, 0xb3, 0x29, 0xe3, 0x2f, 0x84);
2209         &data_byte(0x53, 0xd1, 0x00, 0xed, 0x20, 0xfc, 0xb1, 0x5b);
2210         &data_byte(0x6a, 0xcb, 0xbe, 0x39, 0x4a, 0x4c, 0x58, 0xcf);
2211         &data_byte(0xd0, 0xef, 0xaa, 0xfb, 0x43, 0x4d, 0x33, 0x85);
2212         &data_byte(0x45, 0xf9, 0x02, 0x7f, 0x50, 0x3c, 0x9f, 0xa8);
2213         &data_byte(0x51, 0xa3, 0x40, 0x8f, 0x92, 0x9d, 0x38, 0xf5);
2214         &data_byte(0xbc, 0xb6, 0xda, 0x21, 0x10, 0xff, 0xf3, 0xd2);
2215         &data_byte(0xcd, 0x0c, 0x13, 0xec, 0x5f, 0x97, 0x44, 0x17);
2216         &data_byte(0xc4, 0xa7, 0x7e, 0x3d, 0x64, 0x5d, 0x19, 0x73);
2217         &data_byte(0x60, 0x81, 0x4f, 0xdc, 0x22, 0x2a, 0x90, 0x88);
2218         &data_byte(0x46, 0xee, 0xb8, 0x14, 0xde, 0x5e, 0x0b, 0xdb);
2219         &data_byte(0xe0, 0x32, 0x3a, 0x0a, 0x49, 0x06, 0x24, 0x5c);
2220         &data_byte(0xc2, 0xd3, 0xac, 0x62, 0x91, 0x95, 0xe4, 0x79);
2221         &data_byte(0xe7, 0xc8, 0x37, 0x6d, 0x8d, 0xd5, 0x4e, 0xa9);
2222         &data_byte(0x6c, 0x56, 0xf4, 0xea, 0x65, 0x7a, 0xae, 0x08);
2223         &data_byte(0xba, 0x78, 0x25, 0x2e, 0x1c, 0xa6, 0xb4, 0xc6);
2224         &data_byte(0xe8, 0xdd, 0x74, 0x1f, 0x4b, 0xbd, 0x8b, 0x8a);
2225         &data_byte(0x70, 0x3e, 0xb5, 0x66, 0x48, 0x03, 0xf6, 0x0e);
2226         &data_byte(0x61, 0x35, 0x57, 0xb9, 0x86, 0xc1, 0x1d, 0x9e);
2227         &data_byte(0xe1, 0xf8, 0x98, 0x11, 0x69, 0xd9, 0x8e, 0x94);
2228         &data_byte(0x9b, 0x1e, 0x87, 0xe9, 0xce, 0x55, 0x28, 0xdf);
2229         &data_byte(0x8c, 0xa1, 0x89, 0x0d, 0xbf, 0xe6, 0x42, 0x68);
2230         &data_byte(0x41, 0x99, 0x2d, 0x0f, 0xb0, 0x54, 0xbb, 0x16);
2231
2232         &data_byte(0x63, 0x7c, 0x77, 0x7b, 0xf2, 0x6b, 0x6f, 0xc5);
2233         &data_byte(0x30, 0x01, 0x67, 0x2b, 0xfe, 0xd7, 0xab, 0x76);
2234         &data_byte(0xca, 0x82, 0xc9, 0x7d, 0xfa, 0x59, 0x47, 0xf0);
2235         &data_byte(0xad, 0xd4, 0xa2, 0xaf, 0x9c, 0xa4, 0x72, 0xc0);
2236         &data_byte(0xb7, 0xfd, 0x93, 0x26, 0x36, 0x3f, 0xf7, 0xcc);
2237         &data_byte(0x34, 0xa5, 0xe5, 0xf1, 0x71, 0xd8, 0x31, 0x15);
2238         &data_byte(0x04, 0xc7, 0x23, 0xc3, 0x18, 0x96, 0x05, 0x9a);
2239         &data_byte(0x07, 0x12, 0x80, 0xe2, 0xeb, 0x27, 0xb2, 0x75);
2240         &data_byte(0x09, 0x83, 0x2c, 0x1a, 0x1b, 0x6e, 0x5a, 0xa0);
2241         &data_byte(0x52, 0x3b, 0xd6, 0xb3, 0x29, 0xe3, 0x2f, 0x84);
2242         &data_byte(0x53, 0xd1, 0x00, 0xed, 0x20, 0xfc, 0xb1, 0x5b);
2243         &data_byte(0x6a, 0xcb, 0xbe, 0x39, 0x4a, 0x4c, 0x58, 0xcf);
2244         &data_byte(0xd0, 0xef, 0xaa, 0xfb, 0x43, 0x4d, 0x33, 0x85);
2245         &data_byte(0x45, 0xf9, 0x02, 0x7f, 0x50, 0x3c, 0x9f, 0xa8);
2246         &data_byte(0x51, 0xa3, 0x40, 0x8f, 0x92, 0x9d, 0x38, 0xf5);
2247         &data_byte(0xbc, 0xb6, 0xda, 0x21, 0x10, 0xff, 0xf3, 0xd2);
2248         &data_byte(0xcd, 0x0c, 0x13, 0xec, 0x5f, 0x97, 0x44, 0x17);
2249         &data_byte(0xc4, 0xa7, 0x7e, 0x3d, 0x64, 0x5d, 0x19, 0x73);
2250         &data_byte(0x60, 0x81, 0x4f, 0xdc, 0x22, 0x2a, 0x90, 0x88);
2251         &data_byte(0x46, 0xee, 0xb8, 0x14, 0xde, 0x5e, 0x0b, 0xdb);
2252         &data_byte(0xe0, 0x32, 0x3a, 0x0a, 0x49, 0x06, 0x24, 0x5c);
2253         &data_byte(0xc2, 0xd3, 0xac, 0x62, 0x91, 0x95, 0xe4, 0x79);
2254         &data_byte(0xe7, 0xc8, 0x37, 0x6d, 0x8d, 0xd5, 0x4e, 0xa9);
2255         &data_byte(0x6c, 0x56, 0xf4, 0xea, 0x65, 0x7a, 0xae, 0x08);
2256         &data_byte(0xba, 0x78, 0x25, 0x2e, 0x1c, 0xa6, 0xb4, 0xc6);
2257         &data_byte(0xe8, 0xdd, 0x74, 0x1f, 0x4b, 0xbd, 0x8b, 0x8a);
2258         &data_byte(0x70, 0x3e, 0xb5, 0x66, 0x48, 0x03, 0xf6, 0x0e);
2259         &data_byte(0x61, 0x35, 0x57, 0xb9, 0x86, 0xc1, 0x1d, 0x9e);
2260         &data_byte(0xe1, 0xf8, 0x98, 0x11, 0x69, 0xd9, 0x8e, 0x94);
2261         &data_byte(0x9b, 0x1e, 0x87, 0xe9, 0xce, 0x55, 0x28, 0xdf);
2262         &data_byte(0x8c, 0xa1, 0x89, 0x0d, 0xbf, 0xe6, 0x42, 0x68);
2263         &data_byte(0x41, 0x99, 0x2d, 0x0f, 0xb0, 0x54, 0xbb, 0x16);
2264 #rcon:
2265 $code.=<<___;
2266         .long   0x00000001, 0x00000002, 0x00000004, 0x00000008
2267         .long   0x00000010, 0x00000020, 0x00000040, 0x00000080
2268         .long   0x0000001b, 0x00000036, 0x80808080, 0x80808080
2269         .long   0xfefefefe, 0xfefefefe, 0x1b1b1b1b, 0x1b1b1b1b
2270 ___
2271 $code.=<<___;
2272 .globl  AES_Td
2273 .align  64
2274 AES_Td:
2275 ___
2276         &_data_word(0x50a7f451, 0x5365417e, 0xc3a4171a, 0x965e273a);
2277         &_data_word(0xcb6bab3b, 0xf1459d1f, 0xab58faac, 0x9303e34b);
2278         &_data_word(0x55fa3020, 0xf66d76ad, 0x9176cc88, 0x254c02f5);
2279         &_data_word(0xfcd7e54f, 0xd7cb2ac5, 0x80443526, 0x8fa362b5);
2280         &_data_word(0x495ab1de, 0x671bba25, 0x980eea45, 0xe1c0fe5d);
2281         &_data_word(0x02752fc3, 0x12f04c81, 0xa397468d, 0xc6f9d36b);
2282         &_data_word(0xe75f8f03, 0x959c9215, 0xeb7a6dbf, 0xda595295);
2283         &_data_word(0x2d83bed4, 0xd3217458, 0x2969e049, 0x44c8c98e);
2284         &_data_word(0x6a89c275, 0x78798ef4, 0x6b3e5899, 0xdd71b927);
2285         &_data_word(0xb64fe1be, 0x17ad88f0, 0x66ac20c9, 0xb43ace7d);
2286         &_data_word(0x184adf63, 0x82311ae5, 0x60335197, 0x457f5362);
2287         &_data_word(0xe07764b1, 0x84ae6bbb, 0x1ca081fe, 0x942b08f9);
2288         &_data_word(0x58684870, 0x19fd458f, 0x876cde94, 0xb7f87b52);
2289         &_data_word(0x23d373ab, 0xe2024b72, 0x578f1fe3, 0x2aab5566);
2290         &_data_word(0x0728ebb2, 0x03c2b52f, 0x9a7bc586, 0xa50837d3);
2291         &_data_word(0xf2872830, 0xb2a5bf23, 0xba6a0302, 0x5c8216ed);
2292         &_data_word(0x2b1ccf8a, 0x92b479a7, 0xf0f207f3, 0xa1e2694e);
2293         &_data_word(0xcdf4da65, 0xd5be0506, 0x1f6234d1, 0x8afea6c4);
2294         &_data_word(0x9d532e34, 0xa055f3a2, 0x32e18a05, 0x75ebf6a4);
2295         &_data_word(0x39ec830b, 0xaaef6040, 0x069f715e, 0x51106ebd);
2296         &_data_word(0xf98a213e, 0x3d06dd96, 0xae053edd, 0x46bde64d);
2297         &_data_word(0xb58d5491, 0x055dc471, 0x6fd40604, 0xff155060);
2298         &_data_word(0x24fb9819, 0x97e9bdd6, 0xcc434089, 0x779ed967);
2299         &_data_word(0xbd42e8b0, 0x888b8907, 0x385b19e7, 0xdbeec879);
2300         &_data_word(0x470a7ca1, 0xe90f427c, 0xc91e84f8, 0x00000000);
2301         &_data_word(0x83868009, 0x48ed2b32, 0xac70111e, 0x4e725a6c);
2302         &_data_word(0xfbff0efd, 0x5638850f, 0x1ed5ae3d, 0x27392d36);
2303         &_data_word(0x64d90f0a, 0x21a65c68, 0xd1545b9b, 0x3a2e3624);
2304         &_data_word(0xb1670a0c, 0x0fe75793, 0xd296eeb4, 0x9e919b1b);
2305         &_data_word(0x4fc5c080, 0xa220dc61, 0x694b775a, 0x161a121c);
2306         &_data_word(0x0aba93e2, 0xe52aa0c0, 0x43e0223c, 0x1d171b12);
2307         &_data_word(0x0b0d090e, 0xadc78bf2, 0xb9a8b62d, 0xc8a91e14);
2308         &_data_word(0x8519f157, 0x4c0775af, 0xbbdd99ee, 0xfd607fa3);
2309         &_data_word(0x9f2601f7, 0xbcf5725c, 0xc53b6644, 0x347efb5b);
2310         &_data_word(0x7629438b, 0xdcc623cb, 0x68fcedb6, 0x63f1e4b8);
2311         &_data_word(0xcadc31d7, 0x10856342, 0x40229713, 0x2011c684);
2312         &_data_word(0x7d244a85, 0xf83dbbd2, 0x1132f9ae, 0x6da129c7);
2313         &_data_word(0x4b2f9e1d, 0xf330b2dc, 0xec52860d, 0xd0e3c177);
2314         &_data_word(0x6c16b32b, 0x99b970a9, 0xfa489411, 0x2264e947);
2315         &_data_word(0xc48cfca8, 0x1a3ff0a0, 0xd82c7d56, 0xef903322);
2316         &_data_word(0xc74e4987, 0xc1d138d9, 0xfea2ca8c, 0x360bd498);
2317         &_data_word(0xcf81f5a6, 0x28de7aa5, 0x268eb7da, 0xa4bfad3f);
2318         &_data_word(0xe49d3a2c, 0x0d927850, 0x9bcc5f6a, 0x62467e54);
2319         &_data_word(0xc2138df6, 0xe8b8d890, 0x5ef7392e, 0xf5afc382);
2320         &_data_word(0xbe805d9f, 0x7c93d069, 0xa92dd56f, 0xb31225cf);
2321         &_data_word(0x3b99acc8, 0xa77d1810, 0x6e639ce8, 0x7bbb3bdb);
2322         &_data_word(0x097826cd, 0xf418596e, 0x01b79aec, 0xa89a4f83);
2323         &_data_word(0x656e95e6, 0x7ee6ffaa, 0x08cfbc21, 0xe6e815ef);
2324         &_data_word(0xd99be7ba, 0xce366f4a, 0xd4099fea, 0xd67cb029);
2325         &_data_word(0xafb2a431, 0x31233f2a, 0x3094a5c6, 0xc066a235);
2326         &_data_word(0x37bc4e74, 0xa6ca82fc, 0xb0d090e0, 0x15d8a733);
2327         &_data_word(0x4a9804f1, 0xf7daec41, 0x0e50cd7f, 0x2ff69117);
2328         &_data_word(0x8dd64d76, 0x4db0ef43, 0x544daacc, 0xdf0496e4);
2329         &_data_word(0xe3b5d19e, 0x1b886a4c, 0xb81f2cc1, 0x7f516546);
2330         &_data_word(0x04ea5e9d, 0x5d358c01, 0x737487fa, 0x2e410bfb);
2331         &_data_word(0x5a1d67b3, 0x52d2db92, 0x335610e9, 0x1347d66d);
2332         &_data_word(0x8c61d79a, 0x7a0ca137, 0x8e14f859, 0x893c13eb);
2333         &_data_word(0xee27a9ce, 0x35c961b7, 0xede51ce1, 0x3cb1477a);
2334         &_data_word(0x59dfd29c, 0x3f73f255, 0x79ce1418, 0xbf37c773);
2335         &_data_word(0xeacdf753, 0x5baafd5f, 0x146f3ddf, 0x86db4478);
2336         &_data_word(0x81f3afca, 0x3ec468b9, 0x2c342438, 0x5f40a3c2);
2337         &_data_word(0x72c31d16, 0x0c25e2bc, 0x8b493c28, 0x41950dff);
2338         &_data_word(0x7101a839, 0xdeb30c08, 0x9ce4b4d8, 0x90c15664);
2339         &_data_word(0x6184cb7b, 0x70b632d5, 0x745c6c48, 0x4257b8d0);
2340
2341 #Td4:   # four copies of Td4 to choose from to avoid L1 aliasing
2342         &data_byte(0x52, 0x09, 0x6a, 0xd5, 0x30, 0x36, 0xa5, 0x38);
2343         &data_byte(0xbf, 0x40, 0xa3, 0x9e, 0x81, 0xf3, 0xd7, 0xfb);
2344         &data_byte(0x7c, 0xe3, 0x39, 0x82, 0x9b, 0x2f, 0xff, 0x87);
2345         &data_byte(0x34, 0x8e, 0x43, 0x44, 0xc4, 0xde, 0xe9, 0xcb);
2346         &data_byte(0x54, 0x7b, 0x94, 0x32, 0xa6, 0xc2, 0x23, 0x3d);
2347         &data_byte(0xee, 0x4c, 0x95, 0x0b, 0x42, 0xfa, 0xc3, 0x4e);
2348         &data_byte(0x08, 0x2e, 0xa1, 0x66, 0x28, 0xd9, 0x24, 0xb2);
2349         &data_byte(0x76, 0x5b, 0xa2, 0x49, 0x6d, 0x8b, 0xd1, 0x25);
2350         &data_byte(0x72, 0xf8, 0xf6, 0x64, 0x86, 0x68, 0x98, 0x16);
2351         &data_byte(0xd4, 0xa4, 0x5c, 0xcc, 0x5d, 0x65, 0xb6, 0x92);
2352         &data_byte(0x6c, 0x70, 0x48, 0x50, 0xfd, 0xed, 0xb9, 0xda);
2353         &data_byte(0x5e, 0x15, 0x46, 0x57, 0xa7, 0x8d, 0x9d, 0x84);
2354         &data_byte(0x90, 0xd8, 0xab, 0x00, 0x8c, 0xbc, 0xd3, 0x0a);
2355         &data_byte(0xf7, 0xe4, 0x58, 0x05, 0xb8, 0xb3, 0x45, 0x06);
2356         &data_byte(0xd0, 0x2c, 0x1e, 0x8f, 0xca, 0x3f, 0x0f, 0x02);
2357         &data_byte(0xc1, 0xaf, 0xbd, 0x03, 0x01, 0x13, 0x8a, 0x6b);
2358         &data_byte(0x3a, 0x91, 0x11, 0x41, 0x4f, 0x67, 0xdc, 0xea);
2359         &data_byte(0x97, 0xf2, 0xcf, 0xce, 0xf0, 0xb4, 0xe6, 0x73);
2360         &data_byte(0x96, 0xac, 0x74, 0x22, 0xe7, 0xad, 0x35, 0x85);
2361         &data_byte(0xe2, 0xf9, 0x37, 0xe8, 0x1c, 0x75, 0xdf, 0x6e);
2362         &data_byte(0x47, 0xf1, 0x1a, 0x71, 0x1d, 0x29, 0xc5, 0x89);
2363         &data_byte(0x6f, 0xb7, 0x62, 0x0e, 0xaa, 0x18, 0xbe, 0x1b);
2364         &data_byte(0xfc, 0x56, 0x3e, 0x4b, 0xc6, 0xd2, 0x79, 0x20);
2365         &data_byte(0x9a, 0xdb, 0xc0, 0xfe, 0x78, 0xcd, 0x5a, 0xf4);
2366         &data_byte(0x1f, 0xdd, 0xa8, 0x33, 0x88, 0x07, 0xc7, 0x31);
2367         &data_byte(0xb1, 0x12, 0x10, 0x59, 0x27, 0x80, 0xec, 0x5f);
2368         &data_byte(0x60, 0x51, 0x7f, 0xa9, 0x19, 0xb5, 0x4a, 0x0d);
2369         &data_byte(0x2d, 0xe5, 0x7a, 0x9f, 0x93, 0xc9, 0x9c, 0xef);
2370         &data_byte(0xa0, 0xe0, 0x3b, 0x4d, 0xae, 0x2a, 0xf5, 0xb0);
2371         &data_byte(0xc8, 0xeb, 0xbb, 0x3c, 0x83, 0x53, 0x99, 0x61);
2372         &data_byte(0x17, 0x2b, 0x04, 0x7e, 0xba, 0x77, 0xd6, 0x26);
2373         &data_byte(0xe1, 0x69, 0x14, 0x63, 0x55, 0x21, 0x0c, 0x7d);
2374 $code.=<<___;
2375         .long   0x80808080, 0x80808080, 0xfefefefe, 0xfefefefe
2376         .long   0x1b1b1b1b, 0x1b1b1b1b, 0, 0
2377 ___
2378         &data_byte(0x52, 0x09, 0x6a, 0xd5, 0x30, 0x36, 0xa5, 0x38);
2379         &data_byte(0xbf, 0x40, 0xa3, 0x9e, 0x81, 0xf3, 0xd7, 0xfb);
2380         &data_byte(0x7c, 0xe3, 0x39, 0x82, 0x9b, 0x2f, 0xff, 0x87);
2381         &data_byte(0x34, 0x8e, 0x43, 0x44, 0xc4, 0xde, 0xe9, 0xcb);
2382         &data_byte(0x54, 0x7b, 0x94, 0x32, 0xa6, 0xc2, 0x23, 0x3d);
2383         &data_byte(0xee, 0x4c, 0x95, 0x0b, 0x42, 0xfa, 0xc3, 0x4e);
2384         &data_byte(0x08, 0x2e, 0xa1, 0x66, 0x28, 0xd9, 0x24, 0xb2);
2385         &data_byte(0x76, 0x5b, 0xa2, 0x49, 0x6d, 0x8b, 0xd1, 0x25);
2386         &data_byte(0x72, 0xf8, 0xf6, 0x64, 0x86, 0x68, 0x98, 0x16);
2387         &data_byte(0xd4, 0xa4, 0x5c, 0xcc, 0x5d, 0x65, 0xb6, 0x92);
2388         &data_byte(0x6c, 0x70, 0x48, 0x50, 0xfd, 0xed, 0xb9, 0xda);
2389         &data_byte(0x5e, 0x15, 0x46, 0x57, 0xa7, 0x8d, 0x9d, 0x84);
2390         &data_byte(0x90, 0xd8, 0xab, 0x00, 0x8c, 0xbc, 0xd3, 0x0a);
2391         &data_byte(0xf7, 0xe4, 0x58, 0x05, 0xb8, 0xb3, 0x45, 0x06);
2392         &data_byte(0xd0, 0x2c, 0x1e, 0x8f, 0xca, 0x3f, 0x0f, 0x02);
2393         &data_byte(0xc1, 0xaf, 0xbd, 0x03, 0x01, 0x13, 0x8a, 0x6b);
2394         &data_byte(0x3a, 0x91, 0x11, 0x41, 0x4f, 0x67, 0xdc, 0xea);
2395         &data_byte(0x97, 0xf2, 0xcf, 0xce, 0xf0, 0xb4, 0xe6, 0x73);
2396         &data_byte(0x96, 0xac, 0x74, 0x22, 0xe7, 0xad, 0x35, 0x85);
2397         &data_byte(0xe2, 0xf9, 0x37, 0xe8, 0x1c, 0x75, 0xdf, 0x6e);
2398         &data_byte(0x47, 0xf1, 0x1a, 0x71, 0x1d, 0x29, 0xc5, 0x89);
2399         &data_byte(0x6f, 0xb7, 0x62, 0x0e, 0xaa, 0x18, 0xbe, 0x1b);
2400         &data_byte(0xfc, 0x56, 0x3e, 0x4b, 0xc6, 0xd2, 0x79, 0x20);
2401         &data_byte(0x9a, 0xdb, 0xc0, 0xfe, 0x78, 0xcd, 0x5a, 0xf4);
2402         &data_byte(0x1f, 0xdd, 0xa8, 0x33, 0x88, 0x07, 0xc7, 0x31);
2403         &data_byte(0xb1, 0x12, 0x10, 0x59, 0x27, 0x80, 0xec, 0x5f);
2404         &data_byte(0x60, 0x51, 0x7f, 0xa9, 0x19, 0xb5, 0x4a, 0x0d);
2405         &data_byte(0x2d, 0xe5, 0x7a, 0x9f, 0x93, 0xc9, 0x9c, 0xef);
2406         &data_byte(0xa0, 0xe0, 0x3b, 0x4d, 0xae, 0x2a, 0xf5, 0xb0);
2407         &data_byte(0xc8, 0xeb, 0xbb, 0x3c, 0x83, 0x53, 0x99, 0x61);
2408         &data_byte(0x17, 0x2b, 0x04, 0x7e, 0xba, 0x77, 0xd6, 0x26);
2409         &data_byte(0xe1, 0x69, 0x14, 0x63, 0x55, 0x21, 0x0c, 0x7d);
2410 $code.=<<___;
2411         .long   0x80808080, 0x80808080, 0xfefefefe, 0xfefefefe
2412         .long   0x1b1b1b1b, 0x1b1b1b1b, 0, 0
2413 ___
2414         &data_byte(0x52, 0x09, 0x6a, 0xd5, 0x30, 0x36, 0xa5, 0x38);
2415         &data_byte(0xbf, 0x40, 0xa3, 0x9e, 0x81, 0xf3, 0xd7, 0xfb);
2416         &data_byte(0x7c, 0xe3, 0x39, 0x82, 0x9b, 0x2f, 0xff, 0x87);
2417         &data_byte(0x34, 0x8e, 0x43, 0x44, 0xc4, 0xde, 0xe9, 0xcb);
2418         &data_byte(0x54, 0x7b, 0x94, 0x32, 0xa6, 0xc2, 0x23, 0x3d);
2419         &data_byte(0xee, 0x4c, 0x95, 0x0b, 0x42, 0xfa, 0xc3, 0x4e);
2420         &data_byte(0x08, 0x2e, 0xa1, 0x66, 0x28, 0xd9, 0x24, 0xb2);
2421         &data_byte(0x76, 0x5b, 0xa2, 0x49, 0x6d, 0x8b, 0xd1, 0x25);
2422         &data_byte(0x72, 0xf8, 0xf6, 0x64, 0x86, 0x68, 0x98, 0x16);
2423         &data_byte(0xd4, 0xa4, 0x5c, 0xcc, 0x5d, 0x65, 0xb6, 0x92);
2424         &data_byte(0x6c, 0x70, 0x48, 0x50, 0xfd, 0xed, 0xb9, 0xda);
2425         &data_byte(0x5e, 0x15, 0x46, 0x57, 0xa7, 0x8d, 0x9d, 0x84);
2426         &data_byte(0x90, 0xd8, 0xab, 0x00, 0x8c, 0xbc, 0xd3, 0x0a);
2427         &data_byte(0xf7, 0xe4, 0x58, 0x05, 0xb8, 0xb3, 0x45, 0x06);
2428         &data_byte(0xd0, 0x2c, 0x1e, 0x8f, 0xca, 0x3f, 0x0f, 0x02);
2429         &data_byte(0xc1, 0xaf, 0xbd, 0x03, 0x01, 0x13, 0x8a, 0x6b);
2430         &data_byte(0x3a, 0x91, 0x11, 0x41, 0x4f, 0x67, 0xdc, 0xea);
2431         &data_byte(0x97, 0xf2, 0xcf, 0xce, 0xf0, 0xb4, 0xe6, 0x73);
2432         &data_byte(0x96, 0xac, 0x74, 0x22, 0xe7, 0xad, 0x35, 0x85);
2433         &data_byte(0xe2, 0xf9, 0x37, 0xe8, 0x1c, 0x75, 0xdf, 0x6e);
2434         &data_byte(0x47, 0xf1, 0x1a, 0x71, 0x1d, 0x29, 0xc5, 0x89);
2435         &data_byte(0x6f, 0xb7, 0x62, 0x0e, 0xaa, 0x18, 0xbe, 0x1b);
2436         &data_byte(0xfc, 0x56, 0x3e, 0x4b, 0xc6, 0xd2, 0x79, 0x20);
2437         &data_byte(0x9a, 0xdb, 0xc0, 0xfe, 0x78, 0xcd, 0x5a, 0xf4);
2438         &data_byte(0x1f, 0xdd, 0xa8, 0x33, 0x88, 0x07, 0xc7, 0x31);
2439         &data_byte(0xb1, 0x12, 0x10, 0x59, 0x27, 0x80, 0xec, 0x5f);
2440         &data_byte(0x60, 0x51, 0x7f, 0xa9, 0x19, 0xb5, 0x4a, 0x0d);
2441         &data_byte(0x2d, 0xe5, 0x7a, 0x9f, 0x93, 0xc9, 0x9c, 0xef);
2442         &data_byte(0xa0, 0xe0, 0x3b, 0x4d, 0xae, 0x2a, 0xf5, 0xb0);
2443         &data_byte(0xc8, 0xeb, 0xbb, 0x3c, 0x83, 0x53, 0x99, 0x61);
2444         &data_byte(0x17, 0x2b, 0x04, 0x7e, 0xba, 0x77, 0xd6, 0x26);
2445         &data_byte(0xe1, 0x69, 0x14, 0x63, 0x55, 0x21, 0x0c, 0x7d);
2446 $code.=<<___;
2447         .long   0x80808080, 0x80808080, 0xfefefefe, 0xfefefefe
2448         .long   0x1b1b1b1b, 0x1b1b1b1b, 0, 0
2449 ___
2450         &data_byte(0x52, 0x09, 0x6a, 0xd5, 0x30, 0x36, 0xa5, 0x38);
2451         &data_byte(0xbf, 0x40, 0xa3, 0x9e, 0x81, 0xf3, 0xd7, 0xfb);
2452         &data_byte(0x7c, 0xe3, 0x39, 0x82, 0x9b, 0x2f, 0xff, 0x87);
2453         &data_byte(0x34, 0x8e, 0x43, 0x44, 0xc4, 0xde, 0xe9, 0xcb);
2454         &data_byte(0x54, 0x7b, 0x94, 0x32, 0xa6, 0xc2, 0x23, 0x3d);
2455         &data_byte(0xee, 0x4c, 0x95, 0x0b, 0x42, 0xfa, 0xc3, 0x4e);
2456         &data_byte(0x08, 0x2e, 0xa1, 0x66, 0x28, 0xd9, 0x24, 0xb2);
2457         &data_byte(0x76, 0x5b, 0xa2, 0x49, 0x6d, 0x8b, 0xd1, 0x25);
2458         &data_byte(0x72, 0xf8, 0xf6, 0x64, 0x86, 0x68, 0x98, 0x16);
2459         &data_byte(0xd4, 0xa4, 0x5c, 0xcc, 0x5d, 0x65, 0xb6, 0x92);
2460         &data_byte(0x6c, 0x70, 0x48, 0x50, 0xfd, 0xed, 0xb9, 0xda);
2461         &data_byte(0x5e, 0x15, 0x46, 0x57, 0xa7, 0x8d, 0x9d, 0x84);
2462         &data_byte(0x90, 0xd8, 0xab, 0x00, 0x8c, 0xbc, 0xd3, 0x0a);
2463         &data_byte(0xf7, 0xe4, 0x58, 0x05, 0xb8, 0xb3, 0x45, 0x06);
2464         &data_byte(0xd0, 0x2c, 0x1e, 0x8f, 0xca, 0x3f, 0x0f, 0x02);
2465         &data_byte(0xc1, 0xaf, 0xbd, 0x03, 0x01, 0x13, 0x8a, 0x6b);
2466         &data_byte(0x3a, 0x91, 0x11, 0x41, 0x4f, 0x67, 0xdc, 0xea);
2467         &data_byte(0x97, 0xf2, 0xcf, 0xce, 0xf0, 0xb4, 0xe6, 0x73);
2468         &data_byte(0x96, 0xac, 0x74, 0x22, 0xe7, 0xad, 0x35, 0x85);
2469         &data_byte(0xe2, 0xf9, 0x37, 0xe8, 0x1c, 0x75, 0xdf, 0x6e);
2470         &data_byte(0x47, 0xf1, 0x1a, 0x71, 0x1d, 0x29, 0xc5, 0x89);
2471         &data_byte(0x6f, 0xb7, 0x62, 0x0e, 0xaa, 0x18, 0xbe, 0x1b);
2472         &data_byte(0xfc, 0x56, 0x3e, 0x4b, 0xc6, 0xd2, 0x79, 0x20);
2473         &data_byte(0x9a, 0xdb, 0xc0, 0xfe, 0x78, 0xcd, 0x5a, 0xf4);
2474         &data_byte(0x1f, 0xdd, 0xa8, 0x33, 0x88, 0x07, 0xc7, 0x31);
2475         &data_byte(0xb1, 0x12, 0x10, 0x59, 0x27, 0x80, 0xec, 0x5f);
2476         &data_byte(0x60, 0x51, 0x7f, 0xa9, 0x19, 0xb5, 0x4a, 0x0d);
2477         &data_byte(0x2d, 0xe5, 0x7a, 0x9f, 0x93, 0xc9, 0x9c, 0xef);
2478         &data_byte(0xa0, 0xe0, 0x3b, 0x4d, 0xae, 0x2a, 0xf5, 0xb0);
2479         &data_byte(0xc8, 0xeb, 0xbb, 0x3c, 0x83, 0x53, 0x99, 0x61);
2480         &data_byte(0x17, 0x2b, 0x04, 0x7e, 0xba, 0x77, 0xd6, 0x26);
2481         &data_byte(0xe1, 0x69, 0x14, 0x63, 0x55, 0x21, 0x0c, 0x7d);
2482 $code.=<<___;
2483         .long   0x80808080, 0x80808080, 0xfefefefe, 0xfefefefe
2484         .long   0x1b1b1b1b, 0x1b1b1b1b, 0, 0
2485 .asciz  "AES for x86_64, CRYPTOGAMS by <appro\@openssl.org>"
2486 .align  64
2487 ___
2488
2489 $code =~ s/\`([^\`]*)\`/eval($1)/gem;
2490
2491 print $code;
2492
2493 close STDOUT;