Remove OPENSSL_NO_AES guards
[openssl.git] / crypto / evp / e_aes.c
1 /* ====================================================================
2  * Copyright (c) 2001-2014 The OpenSSL Project.  All rights reserved.
3  *
4  * Redistribution and use in source and binary forms, with or without
5  * modification, are permitted provided that the following conditions
6  * are met:
7  *
8  * 1. Redistributions of source code must retain the above copyright
9  *    notice, this list of conditions and the following disclaimer.
10  *
11  * 2. Redistributions in binary form must reproduce the above copyright
12  *    notice, this list of conditions and the following disclaimer in
13  *    the documentation and/or other materials provided with the
14  *    distribution.
15  *
16  * 3. All advertising materials mentioning features or use of this
17  *    software must display the following acknowledgment:
18  *    "This product includes software developed by the OpenSSL Project
19  *    for use in the OpenSSL Toolkit. (http://www.openssl.org/)"
20  *
21  * 4. The names "OpenSSL Toolkit" and "OpenSSL Project" must not be used to
22  *    endorse or promote products derived from this software without
23  *    prior written permission. For written permission, please contact
24  *    openssl-core@openssl.org.
25  *
26  * 5. Products derived from this software may not be called "OpenSSL"
27  *    nor may "OpenSSL" appear in their names without prior written
28  *    permission of the OpenSSL Project.
29  *
30  * 6. Redistributions of any form whatsoever must retain the following
31  *    acknowledgment:
32  *    "This product includes software developed by the OpenSSL Project
33  *    for use in the OpenSSL Toolkit (http://www.openssl.org/)"
34  *
35  * THIS SOFTWARE IS PROVIDED BY THE OpenSSL PROJECT ``AS IS'' AND ANY
36  * EXPRESSED OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
37  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
38  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE OpenSSL PROJECT OR
39  * ITS CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
40  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
41  * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
42  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
43  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT,
44  * STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
45  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED
46  * OF THE POSSIBILITY OF SUCH DAMAGE.
47  * ====================================================================
48  *
49  */
50
51 #include <openssl/opensslconf.h>
52 #include <openssl/crypto.h>
53 #include <openssl/evp.h>
54 #include <openssl/err.h>
55 #include <string.h>
56 #include <assert.h>
57 #include <openssl/aes.h>
58 #include "internal/evp_int.h"
59 #include "modes_lcl.h"
60 #include <openssl/rand.h>
61
62 typedef struct {
63     union {
64         double align;
65         AES_KEY ks;
66     } ks;
67     block128_f block;
68     union {
69         cbc128_f cbc;
70         ctr128_f ctr;
71     } stream;
72 } EVP_AES_KEY;
73
74 typedef struct {
75     union {
76         double align;
77         AES_KEY ks;
78     } ks;                       /* AES key schedule to use */
79     int key_set;                /* Set if key initialised */
80     int iv_set;                 /* Set if an iv is set */
81     GCM128_CONTEXT gcm;
82     unsigned char *iv;          /* Temporary IV store */
83     int ivlen;                  /* IV length */
84     int taglen;
85     int iv_gen;                 /* It is OK to generate IVs */
86     int tls_aad_len;            /* TLS AAD length */
87     ctr128_f ctr;
88 } EVP_AES_GCM_CTX;
89
90 typedef struct {
91     union {
92         double align;
93         AES_KEY ks;
94     } ks1, ks2;                 /* AES key schedules to use */
95     XTS128_CONTEXT xts;
96     void (*stream) (const unsigned char *in,
97                     unsigned char *out, size_t length,
98                     const AES_KEY *key1, const AES_KEY *key2,
99                     const unsigned char iv[16]);
100 } EVP_AES_XTS_CTX;
101
102 typedef struct {
103     union {
104         double align;
105         AES_KEY ks;
106     } ks;                       /* AES key schedule to use */
107     int key_set;                /* Set if key initialised */
108     int iv_set;                 /* Set if an iv is set */
109     int tag_set;                /* Set if tag is valid */
110     int len_set;                /* Set if message length set */
111     int L, M;                   /* L and M parameters from RFC3610 */
112     int tls_aad_len;            /* TLS AAD length */
113     CCM128_CONTEXT ccm;
114     ccm128_f str;
115 } EVP_AES_CCM_CTX;
116
117 #ifndef OPENSSL_NO_OCB
118 typedef struct {
119     union {
120         double align;
121         AES_KEY ks;
122     } ksenc;                    /* AES key schedule to use for encryption */
123     union {
124         double align;
125         AES_KEY ks;
126     } ksdec;                    /* AES key schedule to use for decryption */
127     int key_set;                /* Set if key initialised */
128     int iv_set;                 /* Set if an iv is set */
129     OCB128_CONTEXT ocb;
130     unsigned char *iv;          /* Temporary IV store */
131     unsigned char tag[16];
132     unsigned char data_buf[16]; /* Store partial data blocks */
133     unsigned char aad_buf[16];  /* Store partial AAD blocks */
134     int data_buf_len;
135     int aad_buf_len;
136     int ivlen;                  /* IV length */
137     int taglen;
138 } EVP_AES_OCB_CTX;
139 #endif
140
141 #define MAXBITCHUNK     ((size_t)1<<(sizeof(size_t)*8-4))
142
143 #ifdef VPAES_ASM
144 int vpaes_set_encrypt_key(const unsigned char *userKey, int bits,
145                           AES_KEY *key);
146 int vpaes_set_decrypt_key(const unsigned char *userKey, int bits,
147                           AES_KEY *key);
148
149 void vpaes_encrypt(const unsigned char *in, unsigned char *out,
150                    const AES_KEY *key);
151 void vpaes_decrypt(const unsigned char *in, unsigned char *out,
152                    const AES_KEY *key);
153
154 void vpaes_cbc_encrypt(const unsigned char *in,
155                        unsigned char *out,
156                        size_t length,
157                        const AES_KEY *key, unsigned char *ivec, int enc);
158 #endif
159 #ifdef BSAES_ASM
160 void bsaes_cbc_encrypt(const unsigned char *in, unsigned char *out,
161                        size_t length, const AES_KEY *key,
162                        unsigned char ivec[16], int enc);
163 void bsaes_ctr32_encrypt_blocks(const unsigned char *in, unsigned char *out,
164                                 size_t len, const AES_KEY *key,
165                                 const unsigned char ivec[16]);
166 void bsaes_xts_encrypt(const unsigned char *inp, unsigned char *out,
167                        size_t len, const AES_KEY *key1,
168                        const AES_KEY *key2, const unsigned char iv[16]);
169 void bsaes_xts_decrypt(const unsigned char *inp, unsigned char *out,
170                        size_t len, const AES_KEY *key1,
171                        const AES_KEY *key2, const unsigned char iv[16]);
172 #endif
173 #ifdef AES_CTR_ASM
174 void AES_ctr32_encrypt(const unsigned char *in, unsigned char *out,
175                        size_t blocks, const AES_KEY *key,
176                        const unsigned char ivec[AES_BLOCK_SIZE]);
177 #endif
178 #ifdef AES_XTS_ASM
179 void AES_xts_encrypt(const char *inp, char *out, size_t len,
180                      const AES_KEY *key1, const AES_KEY *key2,
181                      const unsigned char iv[16]);
182 void AES_xts_decrypt(const char *inp, char *out, size_t len,
183                      const AES_KEY *key1, const AES_KEY *key2,
184                      const unsigned char iv[16]);
185 #endif
186
187 #if     defined(OPENSSL_CPUID_OBJ) && (defined(__powerpc__) || defined(__ppc__) || defined(_ARCH_PPC))
188 # include "ppc_arch.h"
189 # ifdef VPAES_ASM
190 #  define VPAES_CAPABLE (OPENSSL_ppccap_P & PPC_ALTIVEC)
191 # endif
192 # define HWAES_CAPABLE  (OPENSSL_ppccap_P & PPC_CRYPTO207)
193 # define HWAES_set_encrypt_key aes_p8_set_encrypt_key
194 # define HWAES_set_decrypt_key aes_p8_set_decrypt_key
195 # define HWAES_encrypt aes_p8_encrypt
196 # define HWAES_decrypt aes_p8_decrypt
197 # define HWAES_cbc_encrypt aes_p8_cbc_encrypt
198 # define HWAES_ctr32_encrypt_blocks aes_p8_ctr32_encrypt_blocks
199 #endif
200
201 #if     defined(AES_ASM) && !defined(I386_ONLY) &&      (  \
202         ((defined(__i386)       || defined(__i386__)    || \
203           defined(_M_IX86)) && defined(OPENSSL_IA32_SSE2))|| \
204         defined(__x86_64)       || defined(__x86_64__)  || \
205         defined(_M_AMD64)       || defined(_M_X64)      || \
206         defined(__INTEL__)                              )
207
208 extern unsigned int OPENSSL_ia32cap_P[];
209
210 # ifdef VPAES_ASM
211 #  define VPAES_CAPABLE   (OPENSSL_ia32cap_P[1]&(1<<(41-32)))
212 # endif
213 # ifdef BSAES_ASM
214 #  define BSAES_CAPABLE   (OPENSSL_ia32cap_P[1]&(1<<(41-32)))
215 # endif
216 /*
217  * AES-NI section
218  */
219 # define AESNI_CAPABLE   (OPENSSL_ia32cap_P[1]&(1<<(57-32)))
220
221 int aesni_set_encrypt_key(const unsigned char *userKey, int bits,
222                           AES_KEY *key);
223 int aesni_set_decrypt_key(const unsigned char *userKey, int bits,
224                           AES_KEY *key);
225
226 void aesni_encrypt(const unsigned char *in, unsigned char *out,
227                    const AES_KEY *key);
228 void aesni_decrypt(const unsigned char *in, unsigned char *out,
229                    const AES_KEY *key);
230
231 void aesni_ecb_encrypt(const unsigned char *in,
232                        unsigned char *out,
233                        size_t length, const AES_KEY *key, int enc);
234 void aesni_cbc_encrypt(const unsigned char *in,
235                        unsigned char *out,
236                        size_t length,
237                        const AES_KEY *key, unsigned char *ivec, int enc);
238
239 void aesni_ctr32_encrypt_blocks(const unsigned char *in,
240                                 unsigned char *out,
241                                 size_t blocks,
242                                 const void *key, const unsigned char *ivec);
243
244 void aesni_xts_encrypt(const unsigned char *in,
245                        unsigned char *out,
246                        size_t length,
247                        const AES_KEY *key1, const AES_KEY *key2,
248                        const unsigned char iv[16]);
249
250 void aesni_xts_decrypt(const unsigned char *in,
251                        unsigned char *out,
252                        size_t length,
253                        const AES_KEY *key1, const AES_KEY *key2,
254                        const unsigned char iv[16]);
255
256 void aesni_ccm64_encrypt_blocks(const unsigned char *in,
257                                 unsigned char *out,
258                                 size_t blocks,
259                                 const void *key,
260                                 const unsigned char ivec[16],
261                                 unsigned char cmac[16]);
262
263 void aesni_ccm64_decrypt_blocks(const unsigned char *in,
264                                 unsigned char *out,
265                                 size_t blocks,
266                                 const void *key,
267                                 const unsigned char ivec[16],
268                                 unsigned char cmac[16]);
269
270 # if defined(__x86_64) || defined(__x86_64__) || defined(_M_AMD64) || defined(_M_X64)
271 size_t aesni_gcm_encrypt(const unsigned char *in,
272                          unsigned char *out,
273                          size_t len,
274                          const void *key, unsigned char ivec[16], u64 *Xi);
275 #  define AES_gcm_encrypt aesni_gcm_encrypt
276 size_t aesni_gcm_decrypt(const unsigned char *in,
277                          unsigned char *out,
278                          size_t len,
279                          const void *key, unsigned char ivec[16], u64 *Xi);
280 #  define AES_gcm_decrypt aesni_gcm_decrypt
281 void gcm_ghash_avx(u64 Xi[2], const u128 Htable[16], const u8 *in,
282                    size_t len);
283 #  define AES_GCM_ASM(gctx)       (gctx->ctr==aesni_ctr32_encrypt_blocks && \
284                                  gctx->gcm.ghash==gcm_ghash_avx)
285 #  define AES_GCM_ASM2(gctx)      (gctx->gcm.block==(block128_f)aesni_encrypt && \
286                                  gctx->gcm.ghash==gcm_ghash_avx)
287 #  undef AES_GCM_ASM2          /* minor size optimization */
288 # endif
289
290 static int aesni_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
291                           const unsigned char *iv, int enc)
292 {
293     int ret, mode;
294     EVP_AES_KEY *dat = EVP_C_DATA(EVP_AES_KEY,ctx);
295
296     mode = EVP_CIPHER_CTX_mode(ctx);
297     if ((mode == EVP_CIPH_ECB_MODE || mode == EVP_CIPH_CBC_MODE)
298         && !enc) {
299         ret = aesni_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
300                                     &dat->ks.ks);
301         dat->block = (block128_f) aesni_decrypt;
302         dat->stream.cbc = mode == EVP_CIPH_CBC_MODE ?
303             (cbc128_f) aesni_cbc_encrypt : NULL;
304     } else {
305         ret = aesni_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
306                                     &dat->ks.ks);
307         dat->block = (block128_f) aesni_encrypt;
308         if (mode == EVP_CIPH_CBC_MODE)
309             dat->stream.cbc = (cbc128_f) aesni_cbc_encrypt;
310         else if (mode == EVP_CIPH_CTR_MODE)
311             dat->stream.ctr = (ctr128_f) aesni_ctr32_encrypt_blocks;
312         else
313             dat->stream.cbc = NULL;
314     }
315
316     if (ret < 0) {
317         EVPerr(EVP_F_AESNI_INIT_KEY, EVP_R_AES_KEY_SETUP_FAILED);
318         return 0;
319     }
320
321     return 1;
322 }
323
324 static int aesni_cbc_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
325                             const unsigned char *in, size_t len)
326 {
327     aesni_cbc_encrypt(in, out, len, &EVP_C_DATA(EVP_AES_KEY,ctx)->ks.ks,
328                       EVP_CIPHER_CTX_iv_noconst(ctx),
329                       EVP_CIPHER_CTX_encrypting(ctx));
330
331     return 1;
332 }
333
334 static int aesni_ecb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
335                             const unsigned char *in, size_t len)
336 {
337     size_t bl = EVP_CIPHER_CTX_block_size(ctx);
338
339     if (len < bl)
340         return 1;
341
342     aesni_ecb_encrypt(in, out, len, &EVP_C_DATA(EVP_AES_KEY,ctx)->ks.ks,
343                       EVP_CIPHER_CTX_encrypting(ctx));
344
345     return 1;
346 }
347
348 # define aesni_ofb_cipher aes_ofb_cipher
349 static int aesni_ofb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
350                             const unsigned char *in, size_t len);
351
352 # define aesni_cfb_cipher aes_cfb_cipher
353 static int aesni_cfb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
354                             const unsigned char *in, size_t len);
355
356 # define aesni_cfb8_cipher aes_cfb8_cipher
357 static int aesni_cfb8_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
358                              const unsigned char *in, size_t len);
359
360 # define aesni_cfb1_cipher aes_cfb1_cipher
361 static int aesni_cfb1_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
362                              const unsigned char *in, size_t len);
363
364 # define aesni_ctr_cipher aes_ctr_cipher
365 static int aesni_ctr_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
366                             const unsigned char *in, size_t len);
367
368 static int aesni_gcm_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
369                               const unsigned char *iv, int enc)
370 {
371     EVP_AES_GCM_CTX *gctx = EVP_C_DATA(EVP_AES_GCM_CTX,ctx);
372     if (!iv && !key)
373         return 1;
374     if (key) {
375         aesni_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
376                               &gctx->ks.ks);
377         CRYPTO_gcm128_init(&gctx->gcm, &gctx->ks, (block128_f) aesni_encrypt);
378         gctx->ctr = (ctr128_f) aesni_ctr32_encrypt_blocks;
379         /*
380          * If we have an iv can set it directly, otherwise use saved IV.
381          */
382         if (iv == NULL && gctx->iv_set)
383             iv = gctx->iv;
384         if (iv) {
385             CRYPTO_gcm128_setiv(&gctx->gcm, iv, gctx->ivlen);
386             gctx->iv_set = 1;
387         }
388         gctx->key_set = 1;
389     } else {
390         /* If key set use IV, otherwise copy */
391         if (gctx->key_set)
392             CRYPTO_gcm128_setiv(&gctx->gcm, iv, gctx->ivlen);
393         else
394             memcpy(gctx->iv, iv, gctx->ivlen);
395         gctx->iv_set = 1;
396         gctx->iv_gen = 0;
397     }
398     return 1;
399 }
400
401 # define aesni_gcm_cipher aes_gcm_cipher
402 static int aesni_gcm_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
403                             const unsigned char *in, size_t len);
404
405 static int aesni_xts_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
406                               const unsigned char *iv, int enc)
407 {
408     EVP_AES_XTS_CTX *xctx = EVP_C_DATA(EVP_AES_XTS_CTX,ctx);
409     if (!iv && !key)
410         return 1;
411
412     if (key) {
413         /* key_len is two AES keys */
414         if (enc) {
415             aesni_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 4,
416                                   &xctx->ks1.ks);
417             xctx->xts.block1 = (block128_f) aesni_encrypt;
418             xctx->stream = aesni_xts_encrypt;
419         } else {
420             aesni_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 4,
421                                   &xctx->ks1.ks);
422             xctx->xts.block1 = (block128_f) aesni_decrypt;
423             xctx->stream = aesni_xts_decrypt;
424         }
425
426         aesni_set_encrypt_key(key + EVP_CIPHER_CTX_key_length(ctx) / 2,
427                               EVP_CIPHER_CTX_key_length(ctx) * 4,
428                               &xctx->ks2.ks);
429         xctx->xts.block2 = (block128_f) aesni_encrypt;
430
431         xctx->xts.key1 = &xctx->ks1;
432     }
433
434     if (iv) {
435         xctx->xts.key2 = &xctx->ks2;
436         memcpy(EVP_CIPHER_CTX_iv_noconst(ctx), iv, 16);
437     }
438
439     return 1;
440 }
441
442 # define aesni_xts_cipher aes_xts_cipher
443 static int aesni_xts_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
444                             const unsigned char *in, size_t len);
445
446 static int aesni_ccm_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
447                               const unsigned char *iv, int enc)
448 {
449     EVP_AES_CCM_CTX *cctx = EVP_C_DATA(EVP_AES_CCM_CTX,ctx);
450     if (!iv && !key)
451         return 1;
452     if (key) {
453         aesni_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
454                               &cctx->ks.ks);
455         CRYPTO_ccm128_init(&cctx->ccm, cctx->M, cctx->L,
456                            &cctx->ks, (block128_f) aesni_encrypt);
457         cctx->str = enc ? (ccm128_f) aesni_ccm64_encrypt_blocks :
458             (ccm128_f) aesni_ccm64_decrypt_blocks;
459         cctx->key_set = 1;
460     }
461     if (iv) {
462         memcpy(EVP_CIPHER_CTX_iv_noconst(ctx), iv, 15 - cctx->L);
463         cctx->iv_set = 1;
464     }
465     return 1;
466 }
467
468 # define aesni_ccm_cipher aes_ccm_cipher
469 static int aesni_ccm_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
470                             const unsigned char *in, size_t len);
471
472 # ifndef OPENSSL_NO_OCB
473 void aesni_ocb_encrypt(const unsigned char *in, unsigned char *out,
474                        size_t blocks, const void *key,
475                        size_t start_block_num,
476                        unsigned char offset_i[16],
477                        const unsigned char L_[][16],
478                        unsigned char checksum[16]);
479 void aesni_ocb_decrypt(const unsigned char *in, unsigned char *out,
480                        size_t blocks, const void *key,
481                        size_t start_block_num,
482                        unsigned char offset_i[16],
483                        const unsigned char L_[][16],
484                        unsigned char checksum[16]);
485
486 static int aesni_ocb_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
487                               const unsigned char *iv, int enc)
488 {
489     EVP_AES_OCB_CTX *octx = EVP_C_DATA(EVP_AES_OCB_CTX,ctx);
490     if (!iv && !key)
491         return 1;
492     if (key) {
493         do {
494             /*
495              * We set both the encrypt and decrypt key here because decrypt
496              * needs both. We could possibly optimise to remove setting the
497              * decrypt for an encryption operation.
498              */
499             aesni_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
500                                   &octx->ksenc.ks);
501             aesni_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
502                                   &octx->ksdec.ks);
503             if (!CRYPTO_ocb128_init(&octx->ocb,
504                                     &octx->ksenc.ks, &octx->ksdec.ks,
505                                     (block128_f) aesni_encrypt,
506                                     (block128_f) aesni_decrypt,
507                                     enc ? aesni_ocb_encrypt
508                                         : aesni_ocb_decrypt))
509                 return 0;
510         }
511         while (0);
512
513         /*
514          * If we have an iv we can set it directly, otherwise use saved IV.
515          */
516         if (iv == NULL && octx->iv_set)
517             iv = octx->iv;
518         if (iv) {
519             if (CRYPTO_ocb128_setiv(&octx->ocb, iv, octx->ivlen, octx->taglen)
520                 != 1)
521                 return 0;
522             octx->iv_set = 1;
523         }
524         octx->key_set = 1;
525     } else {
526         /* If key set use IV, otherwise copy */
527         if (octx->key_set)
528             CRYPTO_ocb128_setiv(&octx->ocb, iv, octx->ivlen, octx->taglen);
529         else
530             memcpy(octx->iv, iv, octx->ivlen);
531         octx->iv_set = 1;
532     }
533     return 1;
534 }
535
536 #  define aesni_ocb_cipher aes_ocb_cipher
537 static int aesni_ocb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
538                             const unsigned char *in, size_t len);
539 # endif                        /* OPENSSL_NO_OCB */
540
541 # define BLOCK_CIPHER_generic(nid,keylen,blocksize,ivlen,nmode,mode,MODE,flags) \
542 static const EVP_CIPHER aesni_##keylen##_##mode = { \
543         nid##_##keylen##_##nmode,blocksize,keylen/8,ivlen, \
544         flags|EVP_CIPH_##MODE##_MODE,   \
545         aesni_init_key,                 \
546         aesni_##mode##_cipher,          \
547         NULL,                           \
548         sizeof(EVP_AES_KEY),            \
549         NULL,NULL,NULL,NULL }; \
550 static const EVP_CIPHER aes_##keylen##_##mode = { \
551         nid##_##keylen##_##nmode,blocksize,     \
552         keylen/8,ivlen, \
553         flags|EVP_CIPH_##MODE##_MODE,   \
554         aes_init_key,                   \
555         aes_##mode##_cipher,            \
556         NULL,                           \
557         sizeof(EVP_AES_KEY),            \
558         NULL,NULL,NULL,NULL }; \
559 const EVP_CIPHER *EVP_aes_##keylen##_##mode(void) \
560 { return AESNI_CAPABLE?&aesni_##keylen##_##mode:&aes_##keylen##_##mode; }
561
562 # define BLOCK_CIPHER_custom(nid,keylen,blocksize,ivlen,mode,MODE,flags) \
563 static const EVP_CIPHER aesni_##keylen##_##mode = { \
564         nid##_##keylen##_##mode,blocksize, \
565         (EVP_CIPH_##MODE##_MODE==EVP_CIPH_XTS_MODE?2:1)*keylen/8, ivlen, \
566         flags|EVP_CIPH_##MODE##_MODE,   \
567         aesni_##mode##_init_key,        \
568         aesni_##mode##_cipher,          \
569         aes_##mode##_cleanup,           \
570         sizeof(EVP_AES_##MODE##_CTX),   \
571         NULL,NULL,aes_##mode##_ctrl,NULL }; \
572 static const EVP_CIPHER aes_##keylen##_##mode = { \
573         nid##_##keylen##_##mode,blocksize, \
574         (EVP_CIPH_##MODE##_MODE==EVP_CIPH_XTS_MODE?2:1)*keylen/8, ivlen, \
575         flags|EVP_CIPH_##MODE##_MODE,   \
576         aes_##mode##_init_key,          \
577         aes_##mode##_cipher,            \
578         aes_##mode##_cleanup,           \
579         sizeof(EVP_AES_##MODE##_CTX),   \
580         NULL,NULL,aes_##mode##_ctrl,NULL }; \
581 const EVP_CIPHER *EVP_aes_##keylen##_##mode(void) \
582 { return AESNI_CAPABLE?&aesni_##keylen##_##mode:&aes_##keylen##_##mode; }
583
584 #elif   defined(AES_ASM) && (defined(__sparc) || defined(__sparc__))
585
586 # include "sparc_arch.h"
587
588 extern unsigned int OPENSSL_sparcv9cap_P[];
589
590 # define SPARC_AES_CAPABLE       (OPENSSL_sparcv9cap_P[1] & CFR_AES)
591
592 void aes_t4_set_encrypt_key(const unsigned char *key, int bits, AES_KEY *ks);
593 void aes_t4_set_decrypt_key(const unsigned char *key, int bits, AES_KEY *ks);
594 void aes_t4_encrypt(const unsigned char *in, unsigned char *out,
595                     const AES_KEY *key);
596 void aes_t4_decrypt(const unsigned char *in, unsigned char *out,
597                     const AES_KEY *key);
598 /*
599  * Key-length specific subroutines were chosen for following reason.
600  * Each SPARC T4 core can execute up to 8 threads which share core's
601  * resources. Loading as much key material to registers allows to
602  * minimize references to shared memory interface, as well as amount
603  * of instructions in inner loops [much needed on T4]. But then having
604  * non-key-length specific routines would require conditional branches
605  * either in inner loops or on subroutines' entries. Former is hardly
606  * acceptable, while latter means code size increase to size occupied
607  * by multiple key-length specific subroutines, so why fight?
608  */
609 void aes128_t4_cbc_encrypt(const unsigned char *in, unsigned char *out,
610                            size_t len, const AES_KEY *key,
611                            unsigned char *ivec);
612 void aes128_t4_cbc_decrypt(const unsigned char *in, unsigned char *out,
613                            size_t len, const AES_KEY *key,
614                            unsigned char *ivec);
615 void aes192_t4_cbc_encrypt(const unsigned char *in, unsigned char *out,
616                            size_t len, const AES_KEY *key,
617                            unsigned char *ivec);
618 void aes192_t4_cbc_decrypt(const unsigned char *in, unsigned char *out,
619                            size_t len, const AES_KEY *key,
620                            unsigned char *ivec);
621 void aes256_t4_cbc_encrypt(const unsigned char *in, unsigned char *out,
622                            size_t len, const AES_KEY *key,
623                            unsigned char *ivec);
624 void aes256_t4_cbc_decrypt(const unsigned char *in, unsigned char *out,
625                            size_t len, const AES_KEY *key,
626                            unsigned char *ivec);
627 void aes128_t4_ctr32_encrypt(const unsigned char *in, unsigned char *out,
628                              size_t blocks, const AES_KEY *key,
629                              unsigned char *ivec);
630 void aes192_t4_ctr32_encrypt(const unsigned char *in, unsigned char *out,
631                              size_t blocks, const AES_KEY *key,
632                              unsigned char *ivec);
633 void aes256_t4_ctr32_encrypt(const unsigned char *in, unsigned char *out,
634                              size_t blocks, const AES_KEY *key,
635                              unsigned char *ivec);
636 void aes128_t4_xts_encrypt(const unsigned char *in, unsigned char *out,
637                            size_t blocks, const AES_KEY *key1,
638                            const AES_KEY *key2, const unsigned char *ivec);
639 void aes128_t4_xts_decrypt(const unsigned char *in, unsigned char *out,
640                            size_t blocks, const AES_KEY *key1,
641                            const AES_KEY *key2, const unsigned char *ivec);
642 void aes256_t4_xts_encrypt(const unsigned char *in, unsigned char *out,
643                            size_t blocks, const AES_KEY *key1,
644                            const AES_KEY *key2, const unsigned char *ivec);
645 void aes256_t4_xts_decrypt(const unsigned char *in, unsigned char *out,
646                            size_t blocks, const AES_KEY *key1,
647                            const AES_KEY *key2, const unsigned char *ivec);
648
649 static int aes_t4_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
650                            const unsigned char *iv, int enc)
651 {
652     int ret, mode, bits;
653     EVP_AES_KEY *dat = EVP_C_DATA(EVP_AES_KEY,ctx);
654
655     mode = EVP_CIPHER_CTX_mode(ctx);
656     bits = EVP_CIPHER_CTX_key_length(ctx) * 8;
657     if ((mode == EVP_CIPH_ECB_MODE || mode == EVP_CIPH_CBC_MODE)
658         && !enc) {
659         ret = 0;
660         aes_t4_set_decrypt_key(key, bits, &dat->ks.ks);
661         dat->block = (block128_f) aes_t4_decrypt;
662         switch (bits) {
663         case 128:
664             dat->stream.cbc = mode == EVP_CIPH_CBC_MODE ?
665                 (cbc128_f) aes128_t4_cbc_decrypt : NULL;
666             break;
667         case 192:
668             dat->stream.cbc = mode == EVP_CIPH_CBC_MODE ?
669                 (cbc128_f) aes192_t4_cbc_decrypt : NULL;
670             break;
671         case 256:
672             dat->stream.cbc = mode == EVP_CIPH_CBC_MODE ?
673                 (cbc128_f) aes256_t4_cbc_decrypt : NULL;
674             break;
675         default:
676             ret = -1;
677         }
678     } else {
679         ret = 0;
680         aes_t4_set_encrypt_key(key, bits, &dat->ks.ks);
681         dat->block = (block128_f) aes_t4_encrypt;
682         switch (bits) {
683         case 128:
684             if (mode == EVP_CIPH_CBC_MODE)
685                 dat->stream.cbc = (cbc128_f) aes128_t4_cbc_encrypt;
686             else if (mode == EVP_CIPH_CTR_MODE)
687                 dat->stream.ctr = (ctr128_f) aes128_t4_ctr32_encrypt;
688             else
689                 dat->stream.cbc = NULL;
690             break;
691         case 192:
692             if (mode == EVP_CIPH_CBC_MODE)
693                 dat->stream.cbc = (cbc128_f) aes192_t4_cbc_encrypt;
694             else if (mode == EVP_CIPH_CTR_MODE)
695                 dat->stream.ctr = (ctr128_f) aes192_t4_ctr32_encrypt;
696             else
697                 dat->stream.cbc = NULL;
698             break;
699         case 256:
700             if (mode == EVP_CIPH_CBC_MODE)
701                 dat->stream.cbc = (cbc128_f) aes256_t4_cbc_encrypt;
702             else if (mode == EVP_CIPH_CTR_MODE)
703                 dat->stream.ctr = (ctr128_f) aes256_t4_ctr32_encrypt;
704             else
705                 dat->stream.cbc = NULL;
706             break;
707         default:
708             ret = -1;
709         }
710     }
711
712     if (ret < 0) {
713         EVPerr(EVP_F_AES_T4_INIT_KEY, EVP_R_AES_KEY_SETUP_FAILED);
714         return 0;
715     }
716
717     return 1;
718 }
719
720 # define aes_t4_cbc_cipher aes_cbc_cipher
721 static int aes_t4_cbc_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
722                              const unsigned char *in, size_t len);
723
724 # define aes_t4_ecb_cipher aes_ecb_cipher
725 static int aes_t4_ecb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
726                              const unsigned char *in, size_t len);
727
728 # define aes_t4_ofb_cipher aes_ofb_cipher
729 static int aes_t4_ofb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
730                              const unsigned char *in, size_t len);
731
732 # define aes_t4_cfb_cipher aes_cfb_cipher
733 static int aes_t4_cfb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
734                              const unsigned char *in, size_t len);
735
736 # define aes_t4_cfb8_cipher aes_cfb8_cipher
737 static int aes_t4_cfb8_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
738                               const unsigned char *in, size_t len);
739
740 # define aes_t4_cfb1_cipher aes_cfb1_cipher
741 static int aes_t4_cfb1_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
742                               const unsigned char *in, size_t len);
743
744 # define aes_t4_ctr_cipher aes_ctr_cipher
745 static int aes_t4_ctr_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
746                              const unsigned char *in, size_t len);
747
748 static int aes_t4_gcm_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
749                                const unsigned char *iv, int enc)
750 {
751     EVP_AES_GCM_CTX *gctx = EVP_C_DATA(EVP_AES_GCM_CTX,ctx);
752     if (!iv && !key)
753         return 1;
754     if (key) {
755         int bits = EVP_CIPHER_CTX_key_length(ctx) * 8;
756         aes_t4_set_encrypt_key(key, bits, &gctx->ks.ks);
757         CRYPTO_gcm128_init(&gctx->gcm, &gctx->ks,
758                            (block128_f) aes_t4_encrypt);
759         switch (bits) {
760         case 128:
761             gctx->ctr = (ctr128_f) aes128_t4_ctr32_encrypt;
762             break;
763         case 192:
764             gctx->ctr = (ctr128_f) aes192_t4_ctr32_encrypt;
765             break;
766         case 256:
767             gctx->ctr = (ctr128_f) aes256_t4_ctr32_encrypt;
768             break;
769         default:
770             return 0;
771         }
772         /*
773          * If we have an iv can set it directly, otherwise use saved IV.
774          */
775         if (iv == NULL && gctx->iv_set)
776             iv = gctx->iv;
777         if (iv) {
778             CRYPTO_gcm128_setiv(&gctx->gcm, iv, gctx->ivlen);
779             gctx->iv_set = 1;
780         }
781         gctx->key_set = 1;
782     } else {
783         /* If key set use IV, otherwise copy */
784         if (gctx->key_set)
785             CRYPTO_gcm128_setiv(&gctx->gcm, iv, gctx->ivlen);
786         else
787             memcpy(gctx->iv, iv, gctx->ivlen);
788         gctx->iv_set = 1;
789         gctx->iv_gen = 0;
790     }
791     return 1;
792 }
793
794 # define aes_t4_gcm_cipher aes_gcm_cipher
795 static int aes_t4_gcm_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
796                              const unsigned char *in, size_t len);
797
798 static int aes_t4_xts_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
799                                const unsigned char *iv, int enc)
800 {
801     EVP_AES_XTS_CTX *xctx = EVP_C_DATA(EVP_AES_XTS_CTX,ctx);
802     if (!iv && !key)
803         return 1;
804
805     if (key) {
806         int bits = EVP_CIPHER_CTX_key_length(ctx) * 4;
807         xctx->stream = NULL;
808         /* key_len is two AES keys */
809         if (enc) {
810             aes_t4_set_encrypt_key(key, bits, &xctx->ks1.ks);
811             xctx->xts.block1 = (block128_f) aes_t4_encrypt;
812             switch (bits) {
813             case 128:
814                 xctx->stream = aes128_t4_xts_encrypt;
815                 break;
816             case 256:
817                 xctx->stream = aes256_t4_xts_encrypt;
818                 break;
819             default:
820                 return 0;
821             }
822         } else {
823             aes_t4_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 4,
824                                    &xctx->ks1.ks);
825             xctx->xts.block1 = (block128_f) aes_t4_decrypt;
826             switch (bits) {
827             case 128:
828                 xctx->stream = aes128_t4_xts_decrypt;
829                 break;
830             case 256:
831                 xctx->stream = aes256_t4_xts_decrypt;
832                 break;
833             default:
834                 return 0;
835             }
836         }
837
838         aes_t4_set_encrypt_key(key + EVP_CIPHER_CTX_key_length(ctx) / 2,
839                                EVP_CIPHER_CTX_key_length(ctx) * 4,
840                                &xctx->ks2.ks);
841         xctx->xts.block2 = (block128_f) aes_t4_encrypt;
842
843         xctx->xts.key1 = &xctx->ks1;
844     }
845
846     if (iv) {
847         xctx->xts.key2 = &xctx->ks2;
848         memcpy(EVP_CIPHER_CTX_iv_noconst(ctx), iv, 16);
849     }
850
851     return 1;
852 }
853
854 # define aes_t4_xts_cipher aes_xts_cipher
855 static int aes_t4_xts_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
856                              const unsigned char *in, size_t len);
857
858 static int aes_t4_ccm_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
859                                const unsigned char *iv, int enc)
860 {
861     EVP_AES_CCM_CTX *cctx = EVP_C_DATA(EVP_AES_CCM_CTX,ctx);
862     if (!iv && !key)
863         return 1;
864     if (key) {
865         int bits = EVP_CIPHER_CTX_key_length(ctx) * 8;
866         aes_t4_set_encrypt_key(key, bits, &cctx->ks.ks);
867         CRYPTO_ccm128_init(&cctx->ccm, cctx->M, cctx->L,
868                            &cctx->ks, (block128_f) aes_t4_encrypt);
869         cctx->str = NULL;
870         cctx->key_set = 1;
871     }
872     if (iv) {
873         memcpy(EVP_CIPHER_CTX_iv_noconst(ctx), iv, 15 - cctx->L);
874         cctx->iv_set = 1;
875     }
876     return 1;
877 }
878
879 # define aes_t4_ccm_cipher aes_ccm_cipher
880 static int aes_t4_ccm_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
881                              const unsigned char *in, size_t len);
882
883 # ifndef OPENSSL_NO_OCB
884 static int aes_t4_ocb_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
885                                const unsigned char *iv, int enc)
886 {
887     EVP_AES_OCB_CTX *octx = EVP_C_DATA(EVP_AES_OCB_CTX,ctx);
888     if (!iv && !key)
889         return 1;
890     if (key) {
891         do {
892             /*
893              * We set both the encrypt and decrypt key here because decrypt
894              * needs both. We could possibly optimise to remove setting the
895              * decrypt for an encryption operation.
896              */
897             aes_t4_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
898                                    &octx->ksenc.ks);
899             aes_t4_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
900                                    &octx->ksdec.ks);
901             if (!CRYPTO_ocb128_init(&octx->ocb,
902                                     &octx->ksenc.ks, &octx->ksdec.ks,
903                                     (block128_f) aes_t4_encrypt,
904                                     (block128_f) aes_t4_decrypt,
905                                     NULL))
906                 return 0;
907         }
908         while (0);
909
910         /*
911          * If we have an iv we can set it directly, otherwise use saved IV.
912          */
913         if (iv == NULL && octx->iv_set)
914             iv = octx->iv;
915         if (iv) {
916             if (CRYPTO_ocb128_setiv(&octx->ocb, iv, octx->ivlen, octx->taglen)
917                 != 1)
918                 return 0;
919             octx->iv_set = 1;
920         }
921         octx->key_set = 1;
922     } else {
923         /* If key set use IV, otherwise copy */
924         if (octx->key_set)
925             CRYPTO_ocb128_setiv(&octx->ocb, iv, octx->ivlen, octx->taglen);
926         else
927             memcpy(octx->iv, iv, octx->ivlen);
928         octx->iv_set = 1;
929     }
930     return 1;
931 }
932
933 #  define aes_t4_ocb_cipher aes_ocb_cipher
934 static int aes_t4_ocb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
935                              const unsigned char *in, size_t len);
936 # endif                        /* OPENSSL_NO_OCB */
937
938 # define BLOCK_CIPHER_generic(nid,keylen,blocksize,ivlen,nmode,mode,MODE,flags) \
939 static const EVP_CIPHER aes_t4_##keylen##_##mode = { \
940         nid##_##keylen##_##nmode,blocksize,keylen/8,ivlen, \
941         flags|EVP_CIPH_##MODE##_MODE,   \
942         aes_t4_init_key,                \
943         aes_t4_##mode##_cipher,         \
944         NULL,                           \
945         sizeof(EVP_AES_KEY),            \
946         NULL,NULL,NULL,NULL }; \
947 static const EVP_CIPHER aes_##keylen##_##mode = { \
948         nid##_##keylen##_##nmode,blocksize,     \
949         keylen/8,ivlen, \
950         flags|EVP_CIPH_##MODE##_MODE,   \
951         aes_init_key,                   \
952         aes_##mode##_cipher,            \
953         NULL,                           \
954         sizeof(EVP_AES_KEY),            \
955         NULL,NULL,NULL,NULL }; \
956 const EVP_CIPHER *EVP_aes_##keylen##_##mode(void) \
957 { return SPARC_AES_CAPABLE?&aes_t4_##keylen##_##mode:&aes_##keylen##_##mode; }
958
959 # define BLOCK_CIPHER_custom(nid,keylen,blocksize,ivlen,mode,MODE,flags) \
960 static const EVP_CIPHER aes_t4_##keylen##_##mode = { \
961         nid##_##keylen##_##mode,blocksize, \
962         (EVP_CIPH_##MODE##_MODE==EVP_CIPH_XTS_MODE?2:1)*keylen/8, ivlen, \
963         flags|EVP_CIPH_##MODE##_MODE,   \
964         aes_t4_##mode##_init_key,       \
965         aes_t4_##mode##_cipher,         \
966         aes_##mode##_cleanup,           \
967         sizeof(EVP_AES_##MODE##_CTX),   \
968         NULL,NULL,aes_##mode##_ctrl,NULL }; \
969 static const EVP_CIPHER aes_##keylen##_##mode = { \
970         nid##_##keylen##_##mode,blocksize, \
971         (EVP_CIPH_##MODE##_MODE==EVP_CIPH_XTS_MODE?2:1)*keylen/8, ivlen, \
972         flags|EVP_CIPH_##MODE##_MODE,   \
973         aes_##mode##_init_key,          \
974         aes_##mode##_cipher,            \
975         aes_##mode##_cleanup,           \
976         sizeof(EVP_AES_##MODE##_CTX),   \
977         NULL,NULL,aes_##mode##_ctrl,NULL }; \
978 const EVP_CIPHER *EVP_aes_##keylen##_##mode(void) \
979 { return SPARC_AES_CAPABLE?&aes_t4_##keylen##_##mode:&aes_##keylen##_##mode; }
980
981 #else
982
983 # define BLOCK_CIPHER_generic(nid,keylen,blocksize,ivlen,nmode,mode,MODE,flags) \
984 static const EVP_CIPHER aes_##keylen##_##mode = { \
985         nid##_##keylen##_##nmode,blocksize,keylen/8,ivlen, \
986         flags|EVP_CIPH_##MODE##_MODE,   \
987         aes_init_key,                   \
988         aes_##mode##_cipher,            \
989         NULL,                           \
990         sizeof(EVP_AES_KEY),            \
991         NULL,NULL,NULL,NULL }; \
992 const EVP_CIPHER *EVP_aes_##keylen##_##mode(void) \
993 { return &aes_##keylen##_##mode; }
994
995 # define BLOCK_CIPHER_custom(nid,keylen,blocksize,ivlen,mode,MODE,flags) \
996 static const EVP_CIPHER aes_##keylen##_##mode = { \
997         nid##_##keylen##_##mode,blocksize, \
998         (EVP_CIPH_##MODE##_MODE==EVP_CIPH_XTS_MODE?2:1)*keylen/8, ivlen, \
999         flags|EVP_CIPH_##MODE##_MODE,   \
1000         aes_##mode##_init_key,          \
1001         aes_##mode##_cipher,            \
1002         aes_##mode##_cleanup,           \
1003         sizeof(EVP_AES_##MODE##_CTX),   \
1004         NULL,NULL,aes_##mode##_ctrl,NULL }; \
1005 const EVP_CIPHER *EVP_aes_##keylen##_##mode(void) \
1006 { return &aes_##keylen##_##mode; }
1007
1008 #endif
1009
1010 #if defined(OPENSSL_CPUID_OBJ) && (defined(__arm__) || defined(__arm) || defined(__aarch64__))
1011 # include "arm_arch.h"
1012 # if __ARM_MAX_ARCH__>=7
1013 #  if defined(BSAES_ASM)
1014 #   define BSAES_CAPABLE (OPENSSL_armcap_P & ARMV7_NEON)
1015 #  endif
1016 #  if defined(VPAES_ASM)
1017 #   define VPAES_CAPABLE (OPENSSL_armcap_P & ARMV7_NEON)
1018 #  endif
1019 #  define HWAES_CAPABLE (OPENSSL_armcap_P & ARMV8_AES)
1020 #  define HWAES_set_encrypt_key aes_v8_set_encrypt_key
1021 #  define HWAES_set_decrypt_key aes_v8_set_decrypt_key
1022 #  define HWAES_encrypt aes_v8_encrypt
1023 #  define HWAES_decrypt aes_v8_decrypt
1024 #  define HWAES_cbc_encrypt aes_v8_cbc_encrypt
1025 #  define HWAES_ctr32_encrypt_blocks aes_v8_ctr32_encrypt_blocks
1026 # endif
1027 #endif
1028
1029 #if defined(HWAES_CAPABLE)
1030 int HWAES_set_encrypt_key(const unsigned char *userKey, const int bits,
1031                           AES_KEY *key);
1032 int HWAES_set_decrypt_key(const unsigned char *userKey, const int bits,
1033                           AES_KEY *key);
1034 void HWAES_encrypt(const unsigned char *in, unsigned char *out,
1035                    const AES_KEY *key);
1036 void HWAES_decrypt(const unsigned char *in, unsigned char *out,
1037                    const AES_KEY *key);
1038 void HWAES_cbc_encrypt(const unsigned char *in, unsigned char *out,
1039                        size_t length, const AES_KEY *key,
1040                        unsigned char *ivec, const int enc);
1041 void HWAES_ctr32_encrypt_blocks(const unsigned char *in, unsigned char *out,
1042                                 size_t len, const AES_KEY *key,
1043                                 const unsigned char ivec[16]);
1044 #endif
1045
1046 #define BLOCK_CIPHER_generic_pack(nid,keylen,flags)             \
1047         BLOCK_CIPHER_generic(nid,keylen,16,16,cbc,cbc,CBC,flags|EVP_CIPH_FLAG_DEFAULT_ASN1)     \
1048         BLOCK_CIPHER_generic(nid,keylen,16,0,ecb,ecb,ECB,flags|EVP_CIPH_FLAG_DEFAULT_ASN1)      \
1049         BLOCK_CIPHER_generic(nid,keylen,1,16,ofb128,ofb,OFB,flags|EVP_CIPH_FLAG_DEFAULT_ASN1)   \
1050         BLOCK_CIPHER_generic(nid,keylen,1,16,cfb128,cfb,CFB,flags|EVP_CIPH_FLAG_DEFAULT_ASN1)   \
1051         BLOCK_CIPHER_generic(nid,keylen,1,16,cfb1,cfb1,CFB,flags)       \
1052         BLOCK_CIPHER_generic(nid,keylen,1,16,cfb8,cfb8,CFB,flags)       \
1053         BLOCK_CIPHER_generic(nid,keylen,1,16,ctr,ctr,CTR,flags)
1054
1055 static int aes_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
1056                         const unsigned char *iv, int enc)
1057 {
1058     int ret, mode;
1059     EVP_AES_KEY *dat = EVP_C_DATA(EVP_AES_KEY,ctx);
1060
1061     mode = EVP_CIPHER_CTX_mode(ctx);
1062     if ((mode == EVP_CIPH_ECB_MODE || mode == EVP_CIPH_CBC_MODE)
1063         && !enc)
1064 #ifdef HWAES_CAPABLE
1065         if (HWAES_CAPABLE) {
1066             ret = HWAES_set_decrypt_key(key,
1067                                         EVP_CIPHER_CTX_key_length(ctx) * 8,
1068                                         &dat->ks.ks);
1069             dat->block = (block128_f) HWAES_decrypt;
1070             dat->stream.cbc = NULL;
1071 # ifdef HWAES_cbc_encrypt
1072             if (mode == EVP_CIPH_CBC_MODE)
1073                 dat->stream.cbc = (cbc128_f) HWAES_cbc_encrypt;
1074 # endif
1075         } else
1076 #endif
1077 #ifdef BSAES_CAPABLE
1078         if (BSAES_CAPABLE && mode == EVP_CIPH_CBC_MODE) {
1079             ret = AES_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
1080                                       &dat->ks.ks);
1081             dat->block = (block128_f) AES_decrypt;
1082             dat->stream.cbc = (cbc128_f) bsaes_cbc_encrypt;
1083         } else
1084 #endif
1085 #ifdef VPAES_CAPABLE
1086         if (VPAES_CAPABLE) {
1087             ret = vpaes_set_decrypt_key(key,
1088                                         EVP_CIPHER_CTX_key_length(ctx) * 8,
1089                                         &dat->ks.ks);
1090             dat->block = (block128_f) vpaes_decrypt;
1091             dat->stream.cbc = mode == EVP_CIPH_CBC_MODE ?
1092                 (cbc128_f) vpaes_cbc_encrypt : NULL;
1093         } else
1094 #endif
1095         {
1096             ret = AES_set_decrypt_key(key,
1097                                       EVP_CIPHER_CTX_key_length(ctx) * 8,
1098                                       &dat->ks.ks);
1099             dat->block = (block128_f) AES_decrypt;
1100             dat->stream.cbc = mode == EVP_CIPH_CBC_MODE ?
1101                 (cbc128_f) AES_cbc_encrypt : NULL;
1102     } else
1103 #ifdef HWAES_CAPABLE
1104     if (HWAES_CAPABLE) {
1105         ret = HWAES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
1106                                     &dat->ks.ks);
1107         dat->block = (block128_f) HWAES_encrypt;
1108         dat->stream.cbc = NULL;
1109 # ifdef HWAES_cbc_encrypt
1110         if (mode == EVP_CIPH_CBC_MODE)
1111             dat->stream.cbc = (cbc128_f) HWAES_cbc_encrypt;
1112         else
1113 # endif
1114 # ifdef HWAES_ctr32_encrypt_blocks
1115         if (mode == EVP_CIPH_CTR_MODE)
1116             dat->stream.ctr = (ctr128_f) HWAES_ctr32_encrypt_blocks;
1117         else
1118 # endif
1119             (void)0;            /* terminate potentially open 'else' */
1120     } else
1121 #endif
1122 #ifdef BSAES_CAPABLE
1123     if (BSAES_CAPABLE && mode == EVP_CIPH_CTR_MODE) {
1124         ret = AES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
1125                                   &dat->ks.ks);
1126         dat->block = (block128_f) AES_encrypt;
1127         dat->stream.ctr = (ctr128_f) bsaes_ctr32_encrypt_blocks;
1128     } else
1129 #endif
1130 #ifdef VPAES_CAPABLE
1131     if (VPAES_CAPABLE) {
1132         ret = vpaes_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
1133                                     &dat->ks.ks);
1134         dat->block = (block128_f) vpaes_encrypt;
1135         dat->stream.cbc = mode == EVP_CIPH_CBC_MODE ?
1136             (cbc128_f) vpaes_cbc_encrypt : NULL;
1137     } else
1138 #endif
1139     {
1140         ret = AES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
1141                                   &dat->ks.ks);
1142         dat->block = (block128_f) AES_encrypt;
1143         dat->stream.cbc = mode == EVP_CIPH_CBC_MODE ?
1144             (cbc128_f) AES_cbc_encrypt : NULL;
1145 #ifdef AES_CTR_ASM
1146         if (mode == EVP_CIPH_CTR_MODE)
1147             dat->stream.ctr = (ctr128_f) AES_ctr32_encrypt;
1148 #endif
1149     }
1150
1151     if (ret < 0) {
1152         EVPerr(EVP_F_AES_INIT_KEY, EVP_R_AES_KEY_SETUP_FAILED);
1153         return 0;
1154     }
1155
1156     return 1;
1157 }
1158
1159 static int aes_cbc_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
1160                           const unsigned char *in, size_t len)
1161 {
1162     EVP_AES_KEY *dat = EVP_C_DATA(EVP_AES_KEY,ctx);
1163
1164     if (dat->stream.cbc)
1165         (*dat->stream.cbc) (in, out, len, &dat->ks,
1166                             EVP_CIPHER_CTX_iv_noconst(ctx),
1167                             EVP_CIPHER_CTX_encrypting(ctx));
1168     else if (EVP_CIPHER_CTX_encrypting(ctx))
1169         CRYPTO_cbc128_encrypt(in, out, len, &dat->ks,
1170                               EVP_CIPHER_CTX_iv_noconst(ctx), dat->block);
1171     else
1172         CRYPTO_cbc128_decrypt(in, out, len, &dat->ks,
1173                               EVP_CIPHER_CTX_iv_noconst(ctx), dat->block);
1174
1175     return 1;
1176 }
1177
1178 static int aes_ecb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
1179                           const unsigned char *in, size_t len)
1180 {
1181     size_t bl = EVP_CIPHER_CTX_block_size(ctx);
1182     size_t i;
1183     EVP_AES_KEY *dat = EVP_C_DATA(EVP_AES_KEY,ctx);
1184
1185     if (len < bl)
1186         return 1;
1187
1188     for (i = 0, len -= bl; i <= len; i += bl)
1189         (*dat->block) (in + i, out + i, &dat->ks);
1190
1191     return 1;
1192 }
1193
1194 static int aes_ofb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
1195                           const unsigned char *in, size_t len)
1196 {
1197     EVP_AES_KEY *dat = EVP_C_DATA(EVP_AES_KEY,ctx);
1198
1199     int num = EVP_CIPHER_CTX_num(ctx);
1200     CRYPTO_ofb128_encrypt(in, out, len, &dat->ks,
1201                           EVP_CIPHER_CTX_iv_noconst(ctx), &num, dat->block);
1202     EVP_CIPHER_CTX_set_num(ctx, num);
1203     return 1;
1204 }
1205
1206 static int aes_cfb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
1207                           const unsigned char *in, size_t len)
1208 {
1209     EVP_AES_KEY *dat = EVP_C_DATA(EVP_AES_KEY,ctx);
1210
1211     int num = EVP_CIPHER_CTX_num(ctx);
1212     CRYPTO_cfb128_encrypt(in, out, len, &dat->ks,
1213                           EVP_CIPHER_CTX_iv_noconst(ctx), &num,
1214                           EVP_CIPHER_CTX_encrypting(ctx), dat->block);
1215     EVP_CIPHER_CTX_set_num(ctx, num);
1216     return 1;
1217 }
1218
1219 static int aes_cfb8_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
1220                            const unsigned char *in, size_t len)
1221 {
1222     EVP_AES_KEY *dat = EVP_C_DATA(EVP_AES_KEY,ctx);
1223
1224     int num = EVP_CIPHER_CTX_num(ctx);
1225     CRYPTO_cfb128_8_encrypt(in, out, len, &dat->ks,
1226                             EVP_CIPHER_CTX_iv_noconst(ctx), &num,
1227                             EVP_CIPHER_CTX_encrypting(ctx), dat->block);
1228     EVP_CIPHER_CTX_set_num(ctx, num);
1229     return 1;
1230 }
1231
1232 static int aes_cfb1_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
1233                            const unsigned char *in, size_t len)
1234 {
1235     EVP_AES_KEY *dat = EVP_C_DATA(EVP_AES_KEY,ctx);
1236
1237     if (EVP_CIPHER_CTX_test_flags(ctx, EVP_CIPH_FLAG_LENGTH_BITS)) {
1238         int num = EVP_CIPHER_CTX_num(ctx);
1239         CRYPTO_cfb128_1_encrypt(in, out, len, &dat->ks,
1240                                 EVP_CIPHER_CTX_iv_noconst(ctx), &num,
1241                                 EVP_CIPHER_CTX_encrypting(ctx), dat->block);
1242         EVP_CIPHER_CTX_set_num(ctx, num);
1243         return 1;
1244     }
1245
1246     while (len >= MAXBITCHUNK) {
1247         int num = EVP_CIPHER_CTX_num(ctx);
1248         CRYPTO_cfb128_1_encrypt(in, out, MAXBITCHUNK * 8, &dat->ks,
1249                                 EVP_CIPHER_CTX_iv_noconst(ctx), &num,
1250                                 EVP_CIPHER_CTX_encrypting(ctx), dat->block);
1251         EVP_CIPHER_CTX_set_num(ctx, num);
1252         len -= MAXBITCHUNK;
1253     }
1254     if (len) {
1255         int num = EVP_CIPHER_CTX_num(ctx);
1256         CRYPTO_cfb128_1_encrypt(in, out, len * 8, &dat->ks,
1257                                 EVP_CIPHER_CTX_iv_noconst(ctx), &num,
1258                                 EVP_CIPHER_CTX_encrypting(ctx), dat->block);
1259         EVP_CIPHER_CTX_set_num(ctx, num);
1260     }
1261
1262     return 1;
1263 }
1264
1265 static int aes_ctr_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
1266                           const unsigned char *in, size_t len)
1267 {
1268     unsigned int num = EVP_CIPHER_CTX_num(ctx);
1269     EVP_AES_KEY *dat = EVP_C_DATA(EVP_AES_KEY,ctx);
1270
1271     if (dat->stream.ctr)
1272         CRYPTO_ctr128_encrypt_ctr32(in, out, len, &dat->ks,
1273                                     EVP_CIPHER_CTX_iv_noconst(ctx),
1274                                     EVP_CIPHER_CTX_buf_noconst(ctx),
1275                                     &num, dat->stream.ctr);
1276     else
1277         CRYPTO_ctr128_encrypt(in, out, len, &dat->ks,
1278                               EVP_CIPHER_CTX_iv_noconst(ctx),
1279                               EVP_CIPHER_CTX_buf_noconst(ctx), &num,
1280                               dat->block);
1281     EVP_CIPHER_CTX_set_num(ctx, num);
1282     return 1;
1283 }
1284
1285 BLOCK_CIPHER_generic_pack(NID_aes, 128, 0)
1286     BLOCK_CIPHER_generic_pack(NID_aes, 192, 0)
1287     BLOCK_CIPHER_generic_pack(NID_aes, 256, 0)
1288
1289 static int aes_gcm_cleanup(EVP_CIPHER_CTX *c)
1290 {
1291     EVP_AES_GCM_CTX *gctx = EVP_C_DATA(EVP_AES_GCM_CTX,c);
1292     OPENSSL_cleanse(&gctx->gcm, sizeof(gctx->gcm));
1293     if (gctx->iv != EVP_CIPHER_CTX_iv_noconst(c))
1294         OPENSSL_free(gctx->iv);
1295     return 1;
1296 }
1297
1298 /* increment counter (64-bit int) by 1 */
1299 static void ctr64_inc(unsigned char *counter)
1300 {
1301     int n = 8;
1302     unsigned char c;
1303
1304     do {
1305         --n;
1306         c = counter[n];
1307         ++c;
1308         counter[n] = c;
1309         if (c)
1310             return;
1311     } while (n);
1312 }
1313
1314 static int aes_gcm_ctrl(EVP_CIPHER_CTX *c, int type, int arg, void *ptr)
1315 {
1316     EVP_AES_GCM_CTX *gctx = EVP_C_DATA(EVP_AES_GCM_CTX,c);
1317     switch (type) {
1318     case EVP_CTRL_INIT:
1319         gctx->key_set = 0;
1320         gctx->iv_set = 0;
1321         gctx->ivlen = EVP_CIPHER_CTX_iv_length(c);
1322         gctx->iv = EVP_CIPHER_CTX_iv_noconst(c);
1323         gctx->taglen = -1;
1324         gctx->iv_gen = 0;
1325         gctx->tls_aad_len = -1;
1326         return 1;
1327
1328     case EVP_CTRL_AEAD_SET_IVLEN:
1329         if (arg <= 0)
1330             return 0;
1331         /* Allocate memory for IV if needed */
1332         if ((arg > EVP_MAX_IV_LENGTH) && (arg > gctx->ivlen)) {
1333             if (gctx->iv != EVP_CIPHER_CTX_iv_noconst(c))
1334                 OPENSSL_free(gctx->iv);
1335             gctx->iv = OPENSSL_malloc(arg);
1336             if (gctx->iv == NULL)
1337                 return 0;
1338         }
1339         gctx->ivlen = arg;
1340         return 1;
1341
1342     case EVP_CTRL_AEAD_SET_TAG:
1343         if (arg <= 0 || arg > 16 || EVP_CIPHER_CTX_encrypting(c))
1344             return 0;
1345         memcpy(EVP_CIPHER_CTX_buf_noconst(c), ptr, arg);
1346         gctx->taglen = arg;
1347         return 1;
1348
1349     case EVP_CTRL_AEAD_GET_TAG:
1350         if (arg <= 0 || arg > 16 || !EVP_CIPHER_CTX_encrypting(c)
1351             || gctx->taglen < 0)
1352             return 0;
1353         memcpy(ptr, EVP_CIPHER_CTX_buf_noconst(c), arg);
1354         return 1;
1355
1356     case EVP_CTRL_GCM_SET_IV_FIXED:
1357         /* Special case: -1 length restores whole IV */
1358         if (arg == -1) {
1359             memcpy(gctx->iv, ptr, gctx->ivlen);
1360             gctx->iv_gen = 1;
1361             return 1;
1362         }
1363         /*
1364          * Fixed field must be at least 4 bytes and invocation field at least
1365          * 8.
1366          */
1367         if ((arg < 4) || (gctx->ivlen - arg) < 8)
1368             return 0;
1369         if (arg)
1370             memcpy(gctx->iv, ptr, arg);
1371         if (EVP_CIPHER_CTX_encrypting(c)
1372             && RAND_bytes(gctx->iv + arg, gctx->ivlen - arg) <= 0)
1373             return 0;
1374         gctx->iv_gen = 1;
1375         return 1;
1376
1377     case EVP_CTRL_GCM_IV_GEN:
1378         if (gctx->iv_gen == 0 || gctx->key_set == 0)
1379             return 0;
1380         CRYPTO_gcm128_setiv(&gctx->gcm, gctx->iv, gctx->ivlen);
1381         if (arg <= 0 || arg > gctx->ivlen)
1382             arg = gctx->ivlen;
1383         memcpy(ptr, gctx->iv + gctx->ivlen - arg, arg);
1384         /*
1385          * Invocation field will be at least 8 bytes in size and so no need
1386          * to check wrap around or increment more than last 8 bytes.
1387          */
1388         ctr64_inc(gctx->iv + gctx->ivlen - 8);
1389         gctx->iv_set = 1;
1390         return 1;
1391
1392     case EVP_CTRL_GCM_SET_IV_INV:
1393         if (gctx->iv_gen == 0 || gctx->key_set == 0
1394             || EVP_CIPHER_CTX_encrypting(c))
1395             return 0;
1396         memcpy(gctx->iv + gctx->ivlen - arg, ptr, arg);
1397         CRYPTO_gcm128_setiv(&gctx->gcm, gctx->iv, gctx->ivlen);
1398         gctx->iv_set = 1;
1399         return 1;
1400
1401     case EVP_CTRL_AEAD_TLS1_AAD:
1402         /* Save the AAD for later use */
1403         if (arg != EVP_AEAD_TLS1_AAD_LEN)
1404             return 0;
1405         memcpy(EVP_CIPHER_CTX_buf_noconst(c), ptr, arg);
1406         gctx->tls_aad_len = arg;
1407         {
1408             unsigned int len =
1409                 EVP_CIPHER_CTX_buf_noconst(c)[arg - 2] << 8
1410                 | EVP_CIPHER_CTX_buf_noconst(c)[arg - 1];
1411             /* Correct length for explicit IV */
1412             len -= EVP_GCM_TLS_EXPLICIT_IV_LEN;
1413             /* If decrypting correct for tag too */
1414             if (!EVP_CIPHER_CTX_encrypting(c))
1415                 len -= EVP_GCM_TLS_TAG_LEN;
1416             EVP_CIPHER_CTX_buf_noconst(c)[arg - 2] = len >> 8;
1417             EVP_CIPHER_CTX_buf_noconst(c)[arg - 1] = len & 0xff;
1418         }
1419         /* Extra padding: tag appended to record */
1420         return EVP_GCM_TLS_TAG_LEN;
1421
1422     case EVP_CTRL_COPY:
1423         {
1424             EVP_CIPHER_CTX *out = ptr;
1425             EVP_AES_GCM_CTX *gctx_out = EVP_C_DATA(EVP_AES_GCM_CTX,out);
1426             if (gctx->gcm.key) {
1427                 if (gctx->gcm.key != &gctx->ks)
1428                     return 0;
1429                 gctx_out->gcm.key = &gctx_out->ks;
1430             }
1431             if (gctx->iv == EVP_CIPHER_CTX_iv_noconst(c))
1432                 gctx_out->iv = EVP_CIPHER_CTX_iv_noconst(out);
1433             else {
1434                 gctx_out->iv = OPENSSL_malloc(gctx->ivlen);
1435                 if (gctx_out->iv == NULL)
1436                     return 0;
1437                 memcpy(gctx_out->iv, gctx->iv, gctx->ivlen);
1438             }
1439             return 1;
1440         }
1441
1442     default:
1443         return -1;
1444
1445     }
1446 }
1447
1448 static int aes_gcm_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
1449                             const unsigned char *iv, int enc)
1450 {
1451     EVP_AES_GCM_CTX *gctx = EVP_C_DATA(EVP_AES_GCM_CTX,ctx);
1452     if (!iv && !key)
1453         return 1;
1454     if (key) {
1455         do {
1456 #ifdef HWAES_CAPABLE
1457             if (HWAES_CAPABLE) {
1458                 HWAES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
1459                                       &gctx->ks.ks);
1460                 CRYPTO_gcm128_init(&gctx->gcm, &gctx->ks,
1461                                    (block128_f) HWAES_encrypt);
1462 # ifdef HWAES_ctr32_encrypt_blocks
1463                 gctx->ctr = (ctr128_f) HWAES_ctr32_encrypt_blocks;
1464 # else
1465                 gctx->ctr = NULL;
1466 # endif
1467                 break;
1468             } else
1469 #endif
1470 #ifdef BSAES_CAPABLE
1471             if (BSAES_CAPABLE) {
1472                 AES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
1473                                     &gctx->ks.ks);
1474                 CRYPTO_gcm128_init(&gctx->gcm, &gctx->ks,
1475                                    (block128_f) AES_encrypt);
1476                 gctx->ctr = (ctr128_f) bsaes_ctr32_encrypt_blocks;
1477                 break;
1478             } else
1479 #endif
1480 #ifdef VPAES_CAPABLE
1481             if (VPAES_CAPABLE) {
1482                 vpaes_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
1483                                       &gctx->ks.ks);
1484                 CRYPTO_gcm128_init(&gctx->gcm, &gctx->ks,
1485                                    (block128_f) vpaes_encrypt);
1486                 gctx->ctr = NULL;
1487                 break;
1488             } else
1489 #endif
1490                 (void)0;        /* terminate potentially open 'else' */
1491
1492             AES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
1493                                 &gctx->ks.ks);
1494             CRYPTO_gcm128_init(&gctx->gcm, &gctx->ks,
1495                                (block128_f) AES_encrypt);
1496 #ifdef AES_CTR_ASM
1497             gctx->ctr = (ctr128_f) AES_ctr32_encrypt;
1498 #else
1499             gctx->ctr = NULL;
1500 #endif
1501         } while (0);
1502
1503         /*
1504          * If we have an iv can set it directly, otherwise use saved IV.
1505          */
1506         if (iv == NULL && gctx->iv_set)
1507             iv = gctx->iv;
1508         if (iv) {
1509             CRYPTO_gcm128_setiv(&gctx->gcm, iv, gctx->ivlen);
1510             gctx->iv_set = 1;
1511         }
1512         gctx->key_set = 1;
1513     } else {
1514         /* If key set use IV, otherwise copy */
1515         if (gctx->key_set)
1516             CRYPTO_gcm128_setiv(&gctx->gcm, iv, gctx->ivlen);
1517         else
1518             memcpy(gctx->iv, iv, gctx->ivlen);
1519         gctx->iv_set = 1;
1520         gctx->iv_gen = 0;
1521     }
1522     return 1;
1523 }
1524
1525 /*
1526  * Handle TLS GCM packet format. This consists of the last portion of the IV
1527  * followed by the payload and finally the tag. On encrypt generate IV,
1528  * encrypt payload and write the tag. On verify retrieve IV, decrypt payload
1529  * and verify tag.
1530  */
1531
1532 static int aes_gcm_tls_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
1533                               const unsigned char *in, size_t len)
1534 {
1535     EVP_AES_GCM_CTX *gctx = EVP_C_DATA(EVP_AES_GCM_CTX,ctx);
1536     int rv = -1;
1537     /* Encrypt/decrypt must be performed in place */
1538     if (out != in
1539         || len < (EVP_GCM_TLS_EXPLICIT_IV_LEN + EVP_GCM_TLS_TAG_LEN))
1540         return -1;
1541     /*
1542      * Set IV from start of buffer or generate IV and write to start of
1543      * buffer.
1544      */
1545     if (EVP_CIPHER_CTX_ctrl(ctx, EVP_CIPHER_CTX_encrypting(ctx) ?
1546                             EVP_CTRL_GCM_IV_GEN : EVP_CTRL_GCM_SET_IV_INV,
1547                             EVP_GCM_TLS_EXPLICIT_IV_LEN, out) <= 0)
1548         goto err;
1549     /* Use saved AAD */
1550     if (CRYPTO_gcm128_aad(&gctx->gcm, EVP_CIPHER_CTX_buf_noconst(ctx),
1551                           gctx->tls_aad_len))
1552         goto err;
1553     /* Fix buffer and length to point to payload */
1554     in += EVP_GCM_TLS_EXPLICIT_IV_LEN;
1555     out += EVP_GCM_TLS_EXPLICIT_IV_LEN;
1556     len -= EVP_GCM_TLS_EXPLICIT_IV_LEN + EVP_GCM_TLS_TAG_LEN;
1557     if (EVP_CIPHER_CTX_encrypting(ctx)) {
1558         /* Encrypt payload */
1559         if (gctx->ctr) {
1560             size_t bulk = 0;
1561 #if defined(AES_GCM_ASM)
1562             if (len >= 32 && AES_GCM_ASM(gctx)) {
1563                 if (CRYPTO_gcm128_encrypt(&gctx->gcm, NULL, NULL, 0))
1564                     return -1;
1565
1566                 bulk = AES_gcm_encrypt(in, out, len,
1567                                        gctx->gcm.key,
1568                                        gctx->gcm.Yi.c, gctx->gcm.Xi.u);
1569                 gctx->gcm.len.u[1] += bulk;
1570             }
1571 #endif
1572             if (CRYPTO_gcm128_encrypt_ctr32(&gctx->gcm,
1573                                             in + bulk,
1574                                             out + bulk,
1575                                             len - bulk, gctx->ctr))
1576                 goto err;
1577         } else {
1578             size_t bulk = 0;
1579 #if defined(AES_GCM_ASM2)
1580             if (len >= 32 && AES_GCM_ASM2(gctx)) {
1581                 if (CRYPTO_gcm128_encrypt(&gctx->gcm, NULL, NULL, 0))
1582                     return -1;
1583
1584                 bulk = AES_gcm_encrypt(in, out, len,
1585                                        gctx->gcm.key,
1586                                        gctx->gcm.Yi.c, gctx->gcm.Xi.u);
1587                 gctx->gcm.len.u[1] += bulk;
1588             }
1589 #endif
1590             if (CRYPTO_gcm128_encrypt(&gctx->gcm,
1591                                       in + bulk, out + bulk, len - bulk))
1592                 goto err;
1593         }
1594         out += len;
1595         /* Finally write tag */
1596         CRYPTO_gcm128_tag(&gctx->gcm, out, EVP_GCM_TLS_TAG_LEN);
1597         rv = len + EVP_GCM_TLS_EXPLICIT_IV_LEN + EVP_GCM_TLS_TAG_LEN;
1598     } else {
1599         /* Decrypt */
1600         if (gctx->ctr) {
1601             size_t bulk = 0;
1602 #if defined(AES_GCM_ASM)
1603             if (len >= 16 && AES_GCM_ASM(gctx)) {
1604                 if (CRYPTO_gcm128_decrypt(&gctx->gcm, NULL, NULL, 0))
1605                     return -1;
1606
1607                 bulk = AES_gcm_decrypt(in, out, len,
1608                                        gctx->gcm.key,
1609                                        gctx->gcm.Yi.c, gctx->gcm.Xi.u);
1610                 gctx->gcm.len.u[1] += bulk;
1611             }
1612 #endif
1613             if (CRYPTO_gcm128_decrypt_ctr32(&gctx->gcm,
1614                                             in + bulk,
1615                                             out + bulk,
1616                                             len - bulk, gctx->ctr))
1617                 goto err;
1618         } else {
1619             size_t bulk = 0;
1620 #if defined(AES_GCM_ASM2)
1621             if (len >= 16 && AES_GCM_ASM2(gctx)) {
1622                 if (CRYPTO_gcm128_decrypt(&gctx->gcm, NULL, NULL, 0))
1623                     return -1;
1624
1625                 bulk = AES_gcm_decrypt(in, out, len,
1626                                        gctx->gcm.key,
1627                                        gctx->gcm.Yi.c, gctx->gcm.Xi.u);
1628                 gctx->gcm.len.u[1] += bulk;
1629             }
1630 #endif
1631             if (CRYPTO_gcm128_decrypt(&gctx->gcm,
1632                                       in + bulk, out + bulk, len - bulk))
1633                 goto err;
1634         }
1635         /* Retrieve tag */
1636         CRYPTO_gcm128_tag(&gctx->gcm, EVP_CIPHER_CTX_buf_noconst(ctx),
1637                           EVP_GCM_TLS_TAG_LEN);
1638         /* If tag mismatch wipe buffer */
1639         if (CRYPTO_memcmp(EVP_CIPHER_CTX_buf_noconst(ctx), in + len,
1640                           EVP_GCM_TLS_TAG_LEN)) {
1641             OPENSSL_cleanse(out, len);
1642             goto err;
1643         }
1644         rv = len;
1645     }
1646
1647  err:
1648     gctx->iv_set = 0;
1649     gctx->tls_aad_len = -1;
1650     return rv;
1651 }
1652
1653 static int aes_gcm_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
1654                           const unsigned char *in, size_t len)
1655 {
1656     EVP_AES_GCM_CTX *gctx = EVP_C_DATA(EVP_AES_GCM_CTX,ctx);
1657     /* If not set up, return error */
1658     if (!gctx->key_set)
1659         return -1;
1660
1661     if (gctx->tls_aad_len >= 0)
1662         return aes_gcm_tls_cipher(ctx, out, in, len);
1663
1664     if (!gctx->iv_set)
1665         return -1;
1666     if (in) {
1667         if (out == NULL) {
1668             if (CRYPTO_gcm128_aad(&gctx->gcm, in, len))
1669                 return -1;
1670         } else if (EVP_CIPHER_CTX_encrypting(ctx)) {
1671             if (gctx->ctr) {
1672                 size_t bulk = 0;
1673 #if defined(AES_GCM_ASM)
1674                 if (len >= 32 && AES_GCM_ASM(gctx)) {
1675                     size_t res = (16 - gctx->gcm.mres) % 16;
1676
1677                     if (CRYPTO_gcm128_encrypt(&gctx->gcm, in, out, res))
1678                         return -1;
1679
1680                     bulk = AES_gcm_encrypt(in + res,
1681                                            out + res, len - res,
1682                                            gctx->gcm.key, gctx->gcm.Yi.c,
1683                                            gctx->gcm.Xi.u);
1684                     gctx->gcm.len.u[1] += bulk;
1685                     bulk += res;
1686                 }
1687 #endif
1688                 if (CRYPTO_gcm128_encrypt_ctr32(&gctx->gcm,
1689                                                 in + bulk,
1690                                                 out + bulk,
1691                                                 len - bulk, gctx->ctr))
1692                     return -1;
1693             } else {
1694                 size_t bulk = 0;
1695 #if defined(AES_GCM_ASM2)
1696                 if (len >= 32 && AES_GCM_ASM2(gctx)) {
1697                     size_t res = (16 - gctx->gcm.mres) % 16;
1698
1699                     if (CRYPTO_gcm128_encrypt(&gctx->gcm, in, out, res))
1700                         return -1;
1701
1702                     bulk = AES_gcm_encrypt(in + res,
1703                                            out + res, len - res,
1704                                            gctx->gcm.key, gctx->gcm.Yi.c,
1705                                            gctx->gcm.Xi.u);
1706                     gctx->gcm.len.u[1] += bulk;
1707                     bulk += res;
1708                 }
1709 #endif
1710                 if (CRYPTO_gcm128_encrypt(&gctx->gcm,
1711                                           in + bulk, out + bulk, len - bulk))
1712                     return -1;
1713             }
1714         } else {
1715             if (gctx->ctr) {
1716                 size_t bulk = 0;
1717 #if defined(AES_GCM_ASM)
1718                 if (len >= 16 && AES_GCM_ASM(gctx)) {
1719                     size_t res = (16 - gctx->gcm.mres) % 16;
1720
1721                     if (CRYPTO_gcm128_decrypt(&gctx->gcm, in, out, res))
1722                         return -1;
1723
1724                     bulk = AES_gcm_decrypt(in + res,
1725                                            out + res, len - res,
1726                                            gctx->gcm.key,
1727                                            gctx->gcm.Yi.c, gctx->gcm.Xi.u);
1728                     gctx->gcm.len.u[1] += bulk;
1729                     bulk += res;
1730                 }
1731 #endif
1732                 if (CRYPTO_gcm128_decrypt_ctr32(&gctx->gcm,
1733                                                 in + bulk,
1734                                                 out + bulk,
1735                                                 len - bulk, gctx->ctr))
1736                     return -1;
1737             } else {
1738                 size_t bulk = 0;
1739 #if defined(AES_GCM_ASM2)
1740                 if (len >= 16 && AES_GCM_ASM2(gctx)) {
1741                     size_t res = (16 - gctx->gcm.mres) % 16;
1742
1743                     if (CRYPTO_gcm128_decrypt(&gctx->gcm, in, out, res))
1744                         return -1;
1745
1746                     bulk = AES_gcm_decrypt(in + res,
1747                                            out + res, len - res,
1748                                            gctx->gcm.key,
1749                                            gctx->gcm.Yi.c, gctx->gcm.Xi.u);
1750                     gctx->gcm.len.u[1] += bulk;
1751                     bulk += res;
1752                 }
1753 #endif
1754                 if (CRYPTO_gcm128_decrypt(&gctx->gcm,
1755                                           in + bulk, out + bulk, len - bulk))
1756                     return -1;
1757             }
1758         }
1759         return len;
1760     } else {
1761         if (!EVP_CIPHER_CTX_encrypting(ctx)) {
1762             if (gctx->taglen < 0)
1763                 return -1;
1764             if (CRYPTO_gcm128_finish(&gctx->gcm,
1765                                      EVP_CIPHER_CTX_buf_noconst(ctx),
1766                                      gctx->taglen) != 0)
1767                 return -1;
1768             gctx->iv_set = 0;
1769             return 0;
1770         }
1771         CRYPTO_gcm128_tag(&gctx->gcm, EVP_CIPHER_CTX_buf_noconst(ctx), 16);
1772         gctx->taglen = 16;
1773         /* Don't reuse the IV */
1774         gctx->iv_set = 0;
1775         return 0;
1776     }
1777
1778 }
1779
1780 #define CUSTOM_FLAGS    (EVP_CIPH_FLAG_DEFAULT_ASN1 \
1781                 | EVP_CIPH_CUSTOM_IV | EVP_CIPH_FLAG_CUSTOM_CIPHER \
1782                 | EVP_CIPH_ALWAYS_CALL_INIT | EVP_CIPH_CTRL_INIT \
1783                 | EVP_CIPH_CUSTOM_COPY)
1784
1785 BLOCK_CIPHER_custom(NID_aes, 128, 1, 12, gcm, GCM,
1786                     EVP_CIPH_FLAG_AEAD_CIPHER | CUSTOM_FLAGS)
1787     BLOCK_CIPHER_custom(NID_aes, 192, 1, 12, gcm, GCM,
1788                     EVP_CIPH_FLAG_AEAD_CIPHER | CUSTOM_FLAGS)
1789     BLOCK_CIPHER_custom(NID_aes, 256, 1, 12, gcm, GCM,
1790                     EVP_CIPH_FLAG_AEAD_CIPHER | CUSTOM_FLAGS)
1791
1792 static int aes_xts_ctrl(EVP_CIPHER_CTX *c, int type, int arg, void *ptr)
1793 {
1794     EVP_AES_XTS_CTX *xctx = EVP_C_DATA(EVP_AES_XTS_CTX,c);
1795     if (type == EVP_CTRL_COPY) {
1796         EVP_CIPHER_CTX *out = ptr;
1797         EVP_AES_XTS_CTX *xctx_out = EVP_C_DATA(EVP_AES_XTS_CTX,out);
1798         if (xctx->xts.key1) {
1799             if (xctx->xts.key1 != &xctx->ks1)
1800                 return 0;
1801             xctx_out->xts.key1 = &xctx_out->ks1;
1802         }
1803         if (xctx->xts.key2) {
1804             if (xctx->xts.key2 != &xctx->ks2)
1805                 return 0;
1806             xctx_out->xts.key2 = &xctx_out->ks2;
1807         }
1808         return 1;
1809     } else if (type != EVP_CTRL_INIT)
1810         return -1;
1811     /* key1 and key2 are used as an indicator both key and IV are set */
1812     xctx->xts.key1 = NULL;
1813     xctx->xts.key2 = NULL;
1814     return 1;
1815 }
1816
1817 static int aes_xts_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
1818                             const unsigned char *iv, int enc)
1819 {
1820     EVP_AES_XTS_CTX *xctx = EVP_C_DATA(EVP_AES_XTS_CTX,ctx);
1821     if (!iv && !key)
1822         return 1;
1823
1824     if (key)
1825         do {
1826 #ifdef AES_XTS_ASM
1827             xctx->stream = enc ? AES_xts_encrypt : AES_xts_decrypt;
1828 #else
1829             xctx->stream = NULL;
1830 #endif
1831             /* key_len is two AES keys */
1832 #ifdef HWAES_CAPABLE
1833             if (HWAES_CAPABLE) {
1834                 if (enc) {
1835                     HWAES_set_encrypt_key(key,
1836                                           EVP_CIPHER_CTX_key_length(ctx) * 4,
1837                                           &xctx->ks1.ks);
1838                     xctx->xts.block1 = (block128_f) HWAES_encrypt;
1839                 } else {
1840                     HWAES_set_decrypt_key(key,
1841                                           EVP_CIPHER_CTX_key_length(ctx) * 4,
1842                                           &xctx->ks1.ks);
1843                     xctx->xts.block1 = (block128_f) HWAES_decrypt;
1844                 }
1845
1846                 HWAES_set_encrypt_key(key + EVP_CIPHER_CTX_key_length(ctx) / 2,
1847                                       EVP_CIPHER_CTX_key_length(ctx) * 4,
1848                                       &xctx->ks2.ks);
1849                 xctx->xts.block2 = (block128_f) HWAES_encrypt;
1850
1851                 xctx->xts.key1 = &xctx->ks1;
1852                 break;
1853             } else
1854 #endif
1855 #ifdef BSAES_CAPABLE
1856             if (BSAES_CAPABLE)
1857                 xctx->stream = enc ? bsaes_xts_encrypt : bsaes_xts_decrypt;
1858             else
1859 #endif
1860 #ifdef VPAES_CAPABLE
1861             if (VPAES_CAPABLE) {
1862                 if (enc) {
1863                     vpaes_set_encrypt_key(key,
1864                                           EVP_CIPHER_CTX_key_length(ctx) * 4,
1865                                           &xctx->ks1.ks);
1866                     xctx->xts.block1 = (block128_f) vpaes_encrypt;
1867                 } else {
1868                     vpaes_set_decrypt_key(key,
1869                                           EVP_CIPHER_CTX_key_length(ctx) * 4,
1870                                           &xctx->ks1.ks);
1871                     xctx->xts.block1 = (block128_f) vpaes_decrypt;
1872                 }
1873
1874                 vpaes_set_encrypt_key(key + EVP_CIPHER_CTX_key_length(ctx) / 2,
1875                                       EVP_CIPHER_CTX_key_length(ctx) * 4,
1876                                       &xctx->ks2.ks);
1877                 xctx->xts.block2 = (block128_f) vpaes_encrypt;
1878
1879                 xctx->xts.key1 = &xctx->ks1;
1880                 break;
1881             } else
1882 #endif
1883                 (void)0;        /* terminate potentially open 'else' */
1884
1885             if (enc) {
1886                 AES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 4,
1887                                     &xctx->ks1.ks);
1888                 xctx->xts.block1 = (block128_f) AES_encrypt;
1889             } else {
1890                 AES_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 4,
1891                                     &xctx->ks1.ks);
1892                 xctx->xts.block1 = (block128_f) AES_decrypt;
1893             }
1894
1895             AES_set_encrypt_key(key + EVP_CIPHER_CTX_key_length(ctx) / 2,
1896                                 EVP_CIPHER_CTX_key_length(ctx) * 4,
1897                                 &xctx->ks2.ks);
1898             xctx->xts.block2 = (block128_f) AES_encrypt;
1899
1900             xctx->xts.key1 = &xctx->ks1;
1901         } while (0);
1902
1903     if (iv) {
1904         xctx->xts.key2 = &xctx->ks2;
1905         memcpy(EVP_CIPHER_CTX_iv_noconst(ctx), iv, 16);
1906     }
1907
1908     return 1;
1909 }
1910
1911 static int aes_xts_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
1912                           const unsigned char *in, size_t len)
1913 {
1914     EVP_AES_XTS_CTX *xctx = EVP_C_DATA(EVP_AES_XTS_CTX,ctx);
1915     if (!xctx->xts.key1 || !xctx->xts.key2)
1916         return 0;
1917     if (!out || !in || len < AES_BLOCK_SIZE)
1918         return 0;
1919     if (xctx->stream)
1920         (*xctx->stream) (in, out, len,
1921                          xctx->xts.key1, xctx->xts.key2,
1922                          EVP_CIPHER_CTX_iv_noconst(ctx));
1923     else if (CRYPTO_xts128_encrypt(&xctx->xts, EVP_CIPHER_CTX_iv_noconst(ctx),
1924                                    in, out, len,
1925                                    EVP_CIPHER_CTX_encrypting(ctx)))
1926         return 0;
1927     return 1;
1928 }
1929
1930 #define aes_xts_cleanup NULL
1931
1932 #define XTS_FLAGS       (EVP_CIPH_FLAG_DEFAULT_ASN1 | EVP_CIPH_CUSTOM_IV \
1933                          | EVP_CIPH_ALWAYS_CALL_INIT | EVP_CIPH_CTRL_INIT \
1934                          | EVP_CIPH_CUSTOM_COPY)
1935
1936 BLOCK_CIPHER_custom(NID_aes, 128, 1, 16, xts, XTS, XTS_FLAGS)
1937     BLOCK_CIPHER_custom(NID_aes, 256, 1, 16, xts, XTS, XTS_FLAGS)
1938
1939 static int aes_ccm_ctrl(EVP_CIPHER_CTX *c, int type, int arg, void *ptr)
1940 {
1941     EVP_AES_CCM_CTX *cctx = EVP_C_DATA(EVP_AES_CCM_CTX,c);
1942     switch (type) {
1943     case EVP_CTRL_INIT:
1944         cctx->key_set = 0;
1945         cctx->iv_set = 0;
1946         cctx->L = 8;
1947         cctx->M = 12;
1948         cctx->tag_set = 0;
1949         cctx->len_set = 0;
1950         cctx->tls_aad_len = -1;
1951         return 1;
1952
1953     case EVP_CTRL_AEAD_TLS1_AAD:
1954         /* Save the AAD for later use */
1955         if (arg != EVP_AEAD_TLS1_AAD_LEN)
1956             return 0;
1957         memcpy(EVP_CIPHER_CTX_buf_noconst(c), ptr, arg);
1958         cctx->tls_aad_len = arg;
1959         {
1960             uint16_t len =
1961                 EVP_CIPHER_CTX_buf_noconst(c)[arg - 2] << 8
1962                 | EVP_CIPHER_CTX_buf_noconst(c)[arg - 1];
1963             /* Correct length for explicit IV */
1964             len -= EVP_CCM_TLS_EXPLICIT_IV_LEN;
1965             /* If decrypting correct for tag too */
1966             if (!EVP_CIPHER_CTX_encrypting(c))
1967                 len -= cctx->M;
1968             EVP_CIPHER_CTX_buf_noconst(c)[arg - 2] = len >> 8;
1969             EVP_CIPHER_CTX_buf_noconst(c)[arg - 1] = len & 0xff;
1970         }
1971         /* Extra padding: tag appended to record */
1972         return cctx->M;
1973
1974     case EVP_CTRL_CCM_SET_IV_FIXED:
1975         /* Sanity check length */
1976         if (arg != EVP_CCM_TLS_FIXED_IV_LEN)
1977             return 0;
1978         /* Just copy to first part of IV */
1979         memcpy(EVP_CIPHER_CTX_iv_noconst(c), ptr, arg);
1980         return 1;
1981
1982     case EVP_CTRL_AEAD_SET_IVLEN:
1983         arg = 15 - arg;
1984     case EVP_CTRL_CCM_SET_L:
1985         if (arg < 2 || arg > 8)
1986             return 0;
1987         cctx->L = arg;
1988         return 1;
1989
1990     case EVP_CTRL_AEAD_SET_TAG:
1991         if ((arg & 1) || arg < 4 || arg > 16)
1992             return 0;
1993         if (EVP_CIPHER_CTX_encrypting(c) && ptr)
1994             return 0;
1995         if (ptr) {
1996             cctx->tag_set = 1;
1997             memcpy(EVP_CIPHER_CTX_buf_noconst(c), ptr, arg);
1998         }
1999         cctx->M = arg;
2000         return 1;
2001
2002     case EVP_CTRL_AEAD_GET_TAG:
2003         if (!EVP_CIPHER_CTX_encrypting(c) || !cctx->tag_set)
2004             return 0;
2005         if (!CRYPTO_ccm128_tag(&cctx->ccm, ptr, (size_t)arg))
2006             return 0;
2007         cctx->tag_set = 0;
2008         cctx->iv_set = 0;
2009         cctx->len_set = 0;
2010         return 1;
2011
2012     case EVP_CTRL_COPY:
2013         {
2014             EVP_CIPHER_CTX *out = ptr;
2015             EVP_AES_CCM_CTX *cctx_out = EVP_C_DATA(EVP_AES_CCM_CTX,out);
2016             if (cctx->ccm.key) {
2017                 if (cctx->ccm.key != &cctx->ks)
2018                     return 0;
2019                 cctx_out->ccm.key = &cctx_out->ks;
2020             }
2021             return 1;
2022         }
2023
2024     default:
2025         return -1;
2026
2027     }
2028 }
2029
2030 static int aes_ccm_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
2031                             const unsigned char *iv, int enc)
2032 {
2033     EVP_AES_CCM_CTX *cctx = EVP_C_DATA(EVP_AES_CCM_CTX,ctx);
2034     if (!iv && !key)
2035         return 1;
2036     if (key)
2037         do {
2038 #ifdef HWAES_CAPABLE
2039             if (HWAES_CAPABLE) {
2040                 HWAES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2041                                       &cctx->ks.ks);
2042
2043                 CRYPTO_ccm128_init(&cctx->ccm, cctx->M, cctx->L,
2044                                    &cctx->ks, (block128_f) HWAES_encrypt);
2045                 cctx->str = NULL;
2046                 cctx->key_set = 1;
2047                 break;
2048             } else
2049 #endif
2050 #ifdef VPAES_CAPABLE
2051             if (VPAES_CAPABLE) {
2052                 vpaes_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2053                                       &cctx->ks.ks);
2054                 CRYPTO_ccm128_init(&cctx->ccm, cctx->M, cctx->L,
2055                                    &cctx->ks, (block128_f) vpaes_encrypt);
2056                 cctx->str = NULL;
2057                 cctx->key_set = 1;
2058                 break;
2059             }
2060 #endif
2061             AES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2062                                 &cctx->ks.ks);
2063             CRYPTO_ccm128_init(&cctx->ccm, cctx->M, cctx->L,
2064                                &cctx->ks, (block128_f) AES_encrypt);
2065             cctx->str = NULL;
2066             cctx->key_set = 1;
2067         } while (0);
2068     if (iv) {
2069         memcpy(EVP_CIPHER_CTX_iv_noconst(ctx), iv, 15 - cctx->L);
2070         cctx->iv_set = 1;
2071     }
2072     return 1;
2073 }
2074
2075 static int aes_ccm_tls_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
2076                               const unsigned char *in, size_t len)
2077 {
2078     EVP_AES_CCM_CTX *cctx = EVP_C_DATA(EVP_AES_CCM_CTX,ctx);
2079     CCM128_CONTEXT *ccm = &cctx->ccm;
2080     /* Encrypt/decrypt must be performed in place */
2081     if (out != in || len < (EVP_CCM_TLS_EXPLICIT_IV_LEN + (size_t)cctx->M))
2082         return -1;
2083     /* If encrypting set explicit IV from sequence number (start of AAD) */
2084     if (EVP_CIPHER_CTX_encrypting(ctx))
2085         memcpy(out, EVP_CIPHER_CTX_buf_noconst(ctx),
2086                EVP_CCM_TLS_EXPLICIT_IV_LEN);
2087     /* Get rest of IV from explicit IV */
2088     memcpy(EVP_CIPHER_CTX_iv_noconst(ctx) + EVP_CCM_TLS_FIXED_IV_LEN, in,
2089            EVP_CCM_TLS_EXPLICIT_IV_LEN);
2090     /* Correct length value */
2091     len -= EVP_CCM_TLS_EXPLICIT_IV_LEN + cctx->M;
2092     if (CRYPTO_ccm128_setiv(ccm, EVP_CIPHER_CTX_iv_noconst(ctx), 15 - cctx->L,
2093                             len))
2094             return -1;
2095     /* Use saved AAD */
2096     CRYPTO_ccm128_aad(ccm, EVP_CIPHER_CTX_buf_noconst(ctx), cctx->tls_aad_len);
2097     /* Fix buffer to point to payload */
2098     in += EVP_CCM_TLS_EXPLICIT_IV_LEN;
2099     out += EVP_CCM_TLS_EXPLICIT_IV_LEN;
2100     if (EVP_CIPHER_CTX_encrypting(ctx)) {
2101         if (cctx->str ? CRYPTO_ccm128_encrypt_ccm64(ccm, in, out, len,
2102                                                     cctx->str) :
2103             CRYPTO_ccm128_encrypt(ccm, in, out, len))
2104             return -1;
2105         if (!CRYPTO_ccm128_tag(ccm, out + len, cctx->M))
2106             return -1;
2107         return len + EVP_CCM_TLS_EXPLICIT_IV_LEN + cctx->M;
2108     } else {
2109         if (cctx->str ? !CRYPTO_ccm128_decrypt_ccm64(ccm, in, out, len,
2110                                                      cctx->str) :
2111             !CRYPTO_ccm128_decrypt(ccm, in, out, len)) {
2112             unsigned char tag[16];
2113             if (CRYPTO_ccm128_tag(ccm, tag, cctx->M)) {
2114                 if (!CRYPTO_memcmp(tag, in + len, cctx->M))
2115                     return len;
2116             }
2117         }
2118         OPENSSL_cleanse(out, len);
2119         return -1;
2120     }
2121 }
2122
2123 static int aes_ccm_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
2124                           const unsigned char *in, size_t len)
2125 {
2126     EVP_AES_CCM_CTX *cctx = EVP_C_DATA(EVP_AES_CCM_CTX,ctx);
2127     CCM128_CONTEXT *ccm = &cctx->ccm;
2128     /* If not set up, return error */
2129     if (!cctx->key_set)
2130         return -1;
2131
2132     if (cctx->tls_aad_len >= 0)
2133         return aes_ccm_tls_cipher(ctx, out, in, len);
2134
2135     if (!cctx->iv_set)
2136         return -1;
2137
2138     if (!EVP_CIPHER_CTX_encrypting(ctx) && !cctx->tag_set)
2139         return -1;
2140     if (!out) {
2141         if (!in) {
2142             if (CRYPTO_ccm128_setiv(ccm, EVP_CIPHER_CTX_iv_noconst(ctx),
2143                                     15 - cctx->L, len))
2144                 return -1;
2145             cctx->len_set = 1;
2146             return len;
2147         }
2148         /* If have AAD need message length */
2149         if (!cctx->len_set && len)
2150             return -1;
2151         CRYPTO_ccm128_aad(ccm, in, len);
2152         return len;
2153     }
2154     /* EVP_*Final() doesn't return any data */
2155     if (!in)
2156         return 0;
2157     /* If not set length yet do it */
2158     if (!cctx->len_set) {
2159         if (CRYPTO_ccm128_setiv(ccm, EVP_CIPHER_CTX_iv_noconst(ctx),
2160                                 15 - cctx->L, len))
2161             return -1;
2162         cctx->len_set = 1;
2163     }
2164     if (EVP_CIPHER_CTX_encrypting(ctx)) {
2165         if (cctx->str ? CRYPTO_ccm128_encrypt_ccm64(ccm, in, out, len,
2166                                                     cctx->str) :
2167             CRYPTO_ccm128_encrypt(ccm, in, out, len))
2168             return -1;
2169         cctx->tag_set = 1;
2170         return len;
2171     } else {
2172         int rv = -1;
2173         if (cctx->str ? !CRYPTO_ccm128_decrypt_ccm64(ccm, in, out, len,
2174                                                      cctx->str) :
2175             !CRYPTO_ccm128_decrypt(ccm, in, out, len)) {
2176             unsigned char tag[16];
2177             if (CRYPTO_ccm128_tag(ccm, tag, cctx->M)) {
2178                 if (!CRYPTO_memcmp(tag, EVP_CIPHER_CTX_buf_noconst(ctx),
2179                                    cctx->M))
2180                     rv = len;
2181             }
2182         }
2183         if (rv == -1)
2184             OPENSSL_cleanse(out, len);
2185         cctx->iv_set = 0;
2186         cctx->tag_set = 0;
2187         cctx->len_set = 0;
2188         return rv;
2189     }
2190 }
2191
2192 #define aes_ccm_cleanup NULL
2193
2194 BLOCK_CIPHER_custom(NID_aes, 128, 1, 12, ccm, CCM,
2195                     EVP_CIPH_FLAG_AEAD_CIPHER | CUSTOM_FLAGS)
2196     BLOCK_CIPHER_custom(NID_aes, 192, 1, 12, ccm, CCM,
2197                         EVP_CIPH_FLAG_AEAD_CIPHER | CUSTOM_FLAGS)
2198     BLOCK_CIPHER_custom(NID_aes, 256, 1, 12, ccm, CCM,
2199                         EVP_CIPH_FLAG_AEAD_CIPHER | CUSTOM_FLAGS)
2200
2201 typedef struct {
2202     union {
2203         double align;
2204         AES_KEY ks;
2205     } ks;
2206     /* Indicates if IV has been set */
2207     unsigned char *iv;
2208 } EVP_AES_WRAP_CTX;
2209
2210 static int aes_wrap_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
2211                              const unsigned char *iv, int enc)
2212 {
2213     EVP_AES_WRAP_CTX *wctx = EVP_C_DATA(EVP_AES_WRAP_CTX,ctx);
2214     if (!iv && !key)
2215         return 1;
2216     if (key) {
2217         if (EVP_CIPHER_CTX_encrypting(ctx))
2218             AES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2219                                 &wctx->ks.ks);
2220         else
2221             AES_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2222                                 &wctx->ks.ks);
2223         if (!iv)
2224             wctx->iv = NULL;
2225     }
2226     if (iv) {
2227         memcpy(EVP_CIPHER_CTX_iv_noconst(ctx), iv, EVP_CIPHER_CTX_iv_length(ctx));
2228         wctx->iv = EVP_CIPHER_CTX_iv_noconst(ctx);
2229     }
2230     return 1;
2231 }
2232
2233 static int aes_wrap_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
2234                            const unsigned char *in, size_t inlen)
2235 {
2236     EVP_AES_WRAP_CTX *wctx = EVP_C_DATA(EVP_AES_WRAP_CTX,ctx);
2237     size_t rv;
2238     /* AES wrap with padding has IV length of 4, without padding 8 */
2239     int pad = EVP_CIPHER_CTX_iv_length(ctx) == 4;
2240     /* No final operation so always return zero length */
2241     if (!in)
2242         return 0;
2243     /* Input length must always be non-zero */
2244     if (!inlen)
2245         return -1;
2246     /* If decrypting need at least 16 bytes and multiple of 8 */
2247     if (!EVP_CIPHER_CTX_encrypting(ctx) && (inlen < 16 || inlen & 0x7))
2248         return -1;
2249     /* If not padding input must be multiple of 8 */
2250     if (!pad && inlen & 0x7)
2251         return -1;
2252     if (!out) {
2253         if (EVP_CIPHER_CTX_encrypting(ctx)) {
2254             /* If padding round up to multiple of 8 */
2255             if (pad)
2256                 inlen = (inlen + 7) / 8 * 8;
2257             /* 8 byte prefix */
2258             return inlen + 8;
2259         } else {
2260             /*
2261              * If not padding output will be exactly 8 bytes smaller than
2262              * input. If padding it will be at least 8 bytes smaller but we
2263              * don't know how much.
2264              */
2265             return inlen - 8;
2266         }
2267     }
2268     if (pad) {
2269         if (EVP_CIPHER_CTX_encrypting(ctx))
2270             rv = CRYPTO_128_wrap_pad(&wctx->ks.ks, wctx->iv,
2271                                      out, in, inlen,
2272                                      (block128_f) AES_encrypt);
2273         else
2274             rv = CRYPTO_128_unwrap_pad(&wctx->ks.ks, wctx->iv,
2275                                        out, in, inlen,
2276                                        (block128_f) AES_decrypt);
2277     } else {
2278         if (EVP_CIPHER_CTX_encrypting(ctx))
2279             rv = CRYPTO_128_wrap(&wctx->ks.ks, wctx->iv,
2280                                  out, in, inlen, (block128_f) AES_encrypt);
2281         else
2282             rv = CRYPTO_128_unwrap(&wctx->ks.ks, wctx->iv,
2283                                    out, in, inlen, (block128_f) AES_decrypt);
2284     }
2285     return rv ? (int)rv : -1;
2286 }
2287
2288 #define WRAP_FLAGS      (EVP_CIPH_WRAP_MODE \
2289                 | EVP_CIPH_CUSTOM_IV | EVP_CIPH_FLAG_CUSTOM_CIPHER \
2290                 | EVP_CIPH_ALWAYS_CALL_INIT | EVP_CIPH_FLAG_DEFAULT_ASN1)
2291
2292 static const EVP_CIPHER aes_128_wrap = {
2293     NID_id_aes128_wrap,
2294     8, 16, 8, WRAP_FLAGS,
2295     aes_wrap_init_key, aes_wrap_cipher,
2296     NULL,
2297     sizeof(EVP_AES_WRAP_CTX),
2298     NULL, NULL, NULL, NULL
2299 };
2300
2301 const EVP_CIPHER *EVP_aes_128_wrap(void)
2302 {
2303     return &aes_128_wrap;
2304 }
2305
2306 static const EVP_CIPHER aes_192_wrap = {
2307     NID_id_aes192_wrap,
2308     8, 24, 8, WRAP_FLAGS,
2309     aes_wrap_init_key, aes_wrap_cipher,
2310     NULL,
2311     sizeof(EVP_AES_WRAP_CTX),
2312     NULL, NULL, NULL, NULL
2313 };
2314
2315 const EVP_CIPHER *EVP_aes_192_wrap(void)
2316 {
2317     return &aes_192_wrap;
2318 }
2319
2320 static const EVP_CIPHER aes_256_wrap = {
2321     NID_id_aes256_wrap,
2322     8, 32, 8, WRAP_FLAGS,
2323     aes_wrap_init_key, aes_wrap_cipher,
2324     NULL,
2325     sizeof(EVP_AES_WRAP_CTX),
2326     NULL, NULL, NULL, NULL
2327 };
2328
2329 const EVP_CIPHER *EVP_aes_256_wrap(void)
2330 {
2331     return &aes_256_wrap;
2332 }
2333
2334 static const EVP_CIPHER aes_128_wrap_pad = {
2335     NID_id_aes128_wrap_pad,
2336     8, 16, 4, WRAP_FLAGS,
2337     aes_wrap_init_key, aes_wrap_cipher,
2338     NULL,
2339     sizeof(EVP_AES_WRAP_CTX),
2340     NULL, NULL, NULL, NULL
2341 };
2342
2343 const EVP_CIPHER *EVP_aes_128_wrap_pad(void)
2344 {
2345     return &aes_128_wrap_pad;
2346 }
2347
2348 static const EVP_CIPHER aes_192_wrap_pad = {
2349     NID_id_aes192_wrap_pad,
2350     8, 24, 4, WRAP_FLAGS,
2351     aes_wrap_init_key, aes_wrap_cipher,
2352     NULL,
2353     sizeof(EVP_AES_WRAP_CTX),
2354     NULL, NULL, NULL, NULL
2355 };
2356
2357 const EVP_CIPHER *EVP_aes_192_wrap_pad(void)
2358 {
2359     return &aes_192_wrap_pad;
2360 }
2361
2362 static const EVP_CIPHER aes_256_wrap_pad = {
2363     NID_id_aes256_wrap_pad,
2364     8, 32, 4, WRAP_FLAGS,
2365     aes_wrap_init_key, aes_wrap_cipher,
2366     NULL,
2367     sizeof(EVP_AES_WRAP_CTX),
2368     NULL, NULL, NULL, NULL
2369 };
2370
2371 const EVP_CIPHER *EVP_aes_256_wrap_pad(void)
2372 {
2373     return &aes_256_wrap_pad;
2374 }
2375
2376 #ifndef OPENSSL_NO_OCB
2377 static int aes_ocb_ctrl(EVP_CIPHER_CTX *c, int type, int arg, void *ptr)
2378 {
2379     EVP_AES_OCB_CTX *octx = EVP_C_DATA(EVP_AES_OCB_CTX,c);
2380     EVP_CIPHER_CTX *newc;
2381     EVP_AES_OCB_CTX *new_octx;
2382
2383     switch (type) {
2384     case EVP_CTRL_INIT:
2385         octx->key_set = 0;
2386         octx->iv_set = 0;
2387         octx->ivlen = EVP_CIPHER_CTX_iv_length(c);
2388         octx->iv = EVP_CIPHER_CTX_iv_noconst(c);
2389         octx->taglen = 16;
2390         octx->data_buf_len = 0;
2391         octx->aad_buf_len = 0;
2392         return 1;
2393
2394     case EVP_CTRL_AEAD_SET_IVLEN:
2395         /* IV len must be 1 to 15 */
2396         if (arg <= 0 || arg > 15)
2397             return 0;
2398
2399         octx->ivlen = arg;
2400         return 1;
2401
2402     case EVP_CTRL_AEAD_SET_TAG:
2403         if (!ptr) {
2404             /* Tag len must be 0 to 16 */
2405             if (arg < 0 || arg > 16)
2406                 return 0;
2407
2408             octx->taglen = arg;
2409             return 1;
2410         }
2411         if (arg != octx->taglen || EVP_CIPHER_CTX_encrypting(c))
2412             return 0;
2413         memcpy(octx->tag, ptr, arg);
2414         return 1;
2415
2416     case EVP_CTRL_AEAD_GET_TAG:
2417         if (arg != octx->taglen || !EVP_CIPHER_CTX_encrypting(c))
2418             return 0;
2419
2420         memcpy(ptr, octx->tag, arg);
2421         return 1;
2422
2423     case EVP_CTRL_COPY:
2424         newc = (EVP_CIPHER_CTX *)ptr;
2425         new_octx = EVP_C_DATA(EVP_AES_OCB_CTX,newc);
2426         return CRYPTO_ocb128_copy_ctx(&new_octx->ocb, &octx->ocb,
2427                                       &new_octx->ksenc.ks,
2428                                       &new_octx->ksdec.ks);
2429
2430     default:
2431         return -1;
2432
2433     }
2434 }
2435
2436 # ifdef HWAES_CAPABLE
2437 #  ifdef HWAES_ocb_encrypt
2438 void HWAES_ocb_encrypt(const unsigned char *in, unsigned char *out,
2439                        size_t blocks, const void *key,
2440                        size_t start_block_num,
2441                        unsigned char offset_i[16],
2442                        const unsigned char L_[][16],
2443                        unsigned char checksum[16]);
2444 #  else
2445 #    define HWAES_ocb_encrypt NULL
2446 #  endif
2447 #  ifdef HWAES_ocb_decrypt
2448 void HWAES_ocb_decrypt(const unsigned char *in, unsigned char *out,
2449                        size_t blocks, const void *key,
2450                        size_t start_block_num,
2451                        unsigned char offset_i[16],
2452                        const unsigned char L_[][16],
2453                        unsigned char checksum[16]);
2454 #  else
2455 #    define HWAES_ocb_decrypt NULL
2456 #  endif
2457 # endif
2458
2459 static int aes_ocb_init_key(EVP_CIPHER_CTX *ctx, const unsigned char *key,
2460                             const unsigned char *iv, int enc)
2461 {
2462     EVP_AES_OCB_CTX *octx = EVP_C_DATA(EVP_AES_OCB_CTX,ctx);
2463     if (!iv && !key)
2464         return 1;
2465     if (key) {
2466         do {
2467             /*
2468              * We set both the encrypt and decrypt key here because decrypt
2469              * needs both. We could possibly optimise to remove setting the
2470              * decrypt for an encryption operation.
2471              */
2472 # ifdef HWAES_CAPABLE
2473             if (HWAES_CAPABLE) {
2474                 HWAES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2475                                       &octx->ksenc.ks);
2476                 HWAES_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2477                                       &octx->ksdec.ks);
2478                 if (!CRYPTO_ocb128_init(&octx->ocb,
2479                                         &octx->ksenc.ks, &octx->ksdec.ks,
2480                                         (block128_f) HWAES_encrypt,
2481                                         (block128_f) HWAES_decrypt,
2482                                         enc ? HWAES_ocb_encrypt
2483                                             : HWAES_ocb_decrypt))
2484                     return 0;
2485                 break;
2486             }
2487 # endif
2488 # ifdef VPAES_CAPABLE
2489             if (VPAES_CAPABLE) {
2490                 vpaes_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2491                                       &octx->ksenc.ks);
2492                 vpaes_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2493                                       &octx->ksdec.ks);
2494                 if (!CRYPTO_ocb128_init(&octx->ocb,
2495                                         &octx->ksenc.ks, &octx->ksdec.ks,
2496                                         (block128_f) vpaes_encrypt,
2497                                         (block128_f) vpaes_decrypt,
2498                                         NULL))
2499                     return 0;
2500                 break;
2501             }
2502 # endif
2503             AES_set_encrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2504                                 &octx->ksenc.ks);
2505             AES_set_decrypt_key(key, EVP_CIPHER_CTX_key_length(ctx) * 8,
2506                                 &octx->ksdec.ks);
2507             if (!CRYPTO_ocb128_init(&octx->ocb,
2508                                     &octx->ksenc.ks, &octx->ksdec.ks,
2509                                     (block128_f) AES_encrypt,
2510                                     (block128_f) AES_decrypt,
2511                                     NULL))
2512                 return 0;
2513         }
2514         while (0);
2515
2516         /*
2517          * If we have an iv we can set it directly, otherwise use saved IV.
2518          */
2519         if (iv == NULL && octx->iv_set)
2520             iv = octx->iv;
2521         if (iv) {
2522             if (CRYPTO_ocb128_setiv(&octx->ocb, iv, octx->ivlen, octx->taglen)
2523                 != 1)
2524                 return 0;
2525             octx->iv_set = 1;
2526         }
2527         octx->key_set = 1;
2528     } else {
2529         /* If key set use IV, otherwise copy */
2530         if (octx->key_set)
2531             CRYPTO_ocb128_setiv(&octx->ocb, iv, octx->ivlen, octx->taglen);
2532         else
2533             memcpy(octx->iv, iv, octx->ivlen);
2534         octx->iv_set = 1;
2535     }
2536     return 1;
2537 }
2538
2539 static int aes_ocb_cipher(EVP_CIPHER_CTX *ctx, unsigned char *out,
2540                           const unsigned char *in, size_t len)
2541 {
2542     unsigned char *buf;
2543     int *buf_len;
2544     int written_len = 0;
2545     size_t trailing_len;
2546     EVP_AES_OCB_CTX *octx = EVP_C_DATA(EVP_AES_OCB_CTX,ctx);
2547
2548     /* If IV or Key not set then return error */
2549     if (!octx->iv_set)
2550         return -1;
2551
2552     if (!octx->key_set)
2553         return -1;
2554
2555     if (in) {
2556         /*
2557          * Need to ensure we are only passing full blocks to low level OCB
2558          * routines. We do it here rather than in EVP_EncryptUpdate/
2559          * EVP_DecryptUpdate because we need to pass full blocks of AAD too
2560          * and those routines don't support that
2561          */
2562
2563         /* Are we dealing with AAD or normal data here? */
2564         if (out == NULL) {
2565             buf = octx->aad_buf;
2566             buf_len = &(octx->aad_buf_len);
2567         } else {
2568             buf = octx->data_buf;
2569             buf_len = &(octx->data_buf_len);
2570         }
2571
2572         /*
2573          * If we've got a partially filled buffer from a previous call then
2574          * use that data first
2575          */
2576         if (*buf_len) {
2577             unsigned int remaining;
2578
2579             remaining = 16 - (*buf_len);
2580             if (remaining > len) {
2581                 memcpy(buf + (*buf_len), in, len);
2582                 *(buf_len) += len;
2583                 return 0;
2584             }
2585             memcpy(buf + (*buf_len), in, remaining);
2586
2587             /*
2588              * If we get here we've filled the buffer, so process it
2589              */
2590             len -= remaining;
2591             in += remaining;
2592             if (out == NULL) {
2593                 if (!CRYPTO_ocb128_aad(&octx->ocb, buf, 16))
2594                     return -1;
2595             } else if (EVP_CIPHER_CTX_encrypting(ctx)) {
2596                 if (!CRYPTO_ocb128_encrypt(&octx->ocb, buf, out, 16))
2597                     return -1;
2598             } else {
2599                 if (!CRYPTO_ocb128_decrypt(&octx->ocb, buf, out, 16))
2600                     return -1;
2601             }
2602             written_len = 16;
2603             *buf_len = 0;
2604         }
2605
2606         /* Do we have a partial block to handle at the end? */
2607         trailing_len = len % 16;
2608
2609         /*
2610          * If we've got some full blocks to handle, then process these first
2611          */
2612         if (len != trailing_len) {
2613             if (out == NULL) {
2614                 if (!CRYPTO_ocb128_aad(&octx->ocb, in, len - trailing_len))
2615                     return -1;
2616             } else if (EVP_CIPHER_CTX_encrypting(ctx)) {
2617                 if (!CRYPTO_ocb128_encrypt
2618                     (&octx->ocb, in, out, len - trailing_len))
2619                     return -1;
2620             } else {
2621                 if (!CRYPTO_ocb128_decrypt
2622                     (&octx->ocb, in, out, len - trailing_len))
2623                     return -1;
2624             }
2625             written_len += len - trailing_len;
2626             in += len - trailing_len;
2627         }
2628
2629         /* Handle any trailing partial block */
2630         if (trailing_len) {
2631             memcpy(buf, in, trailing_len);
2632             *buf_len = trailing_len;
2633         }
2634
2635         return written_len;
2636     } else {
2637         /*
2638          * First of all empty the buffer of any partial block that we might
2639          * have been provided - both for data and AAD
2640          */
2641         if (octx->data_buf_len) {
2642             if (EVP_CIPHER_CTX_encrypting(ctx)) {
2643                 if (!CRYPTO_ocb128_encrypt(&octx->ocb, octx->data_buf, out,
2644                                            octx->data_buf_len))
2645                     return -1;
2646             } else {
2647                 if (!CRYPTO_ocb128_decrypt(&octx->ocb, octx->data_buf, out,
2648                                            octx->data_buf_len))
2649                     return -1;
2650             }
2651             written_len = octx->data_buf_len;
2652             octx->data_buf_len = 0;
2653         }
2654         if (octx->aad_buf_len) {
2655             if (!CRYPTO_ocb128_aad
2656                 (&octx->ocb, octx->aad_buf, octx->aad_buf_len))
2657                 return -1;
2658             octx->aad_buf_len = 0;
2659         }
2660         /* If decrypting then verify */
2661         if (!EVP_CIPHER_CTX_encrypting(ctx)) {
2662             if (octx->taglen < 0)
2663                 return -1;
2664             if (CRYPTO_ocb128_finish(&octx->ocb,
2665                                      octx->tag, octx->taglen) != 0)
2666                 return -1;
2667             octx->iv_set = 0;
2668             return written_len;
2669         }
2670         /* If encrypting then just get the tag */
2671         if (CRYPTO_ocb128_tag(&octx->ocb, octx->tag, 16) != 1)
2672             return -1;
2673         /* Don't reuse the IV */
2674         octx->iv_set = 0;
2675         return written_len;
2676     }
2677 }
2678
2679 static int aes_ocb_cleanup(EVP_CIPHER_CTX *c)
2680 {
2681     EVP_AES_OCB_CTX *octx = EVP_C_DATA(EVP_AES_OCB_CTX,c);
2682     CRYPTO_ocb128_cleanup(&octx->ocb);
2683     return 1;
2684 }
2685
2686 BLOCK_CIPHER_custom(NID_aes, 128, 16, 12, ocb, OCB,
2687                     EVP_CIPH_FLAG_AEAD_CIPHER | CUSTOM_FLAGS)
2688 BLOCK_CIPHER_custom(NID_aes, 192, 16, 12, ocb, OCB,
2689                     EVP_CIPH_FLAG_AEAD_CIPHER | CUSTOM_FLAGS)
2690 BLOCK_CIPHER_custom(NID_aes, 256, 16, 12, ocb, OCB,
2691                     EVP_CIPH_FLAG_AEAD_CIPHER | CUSTOM_FLAGS)
2692 #endif                         /* OPENSSL_NO_OCB */