Add a method to generate a prime that is guaranteed not to be divisible by 3 or 5.
[openssl.git] / crypto / bn / bn_lcl.h
1 /* crypto/bn/bn_lcl.h */
2 /* Copyright (C) 1995-1998 Eric Young (eay@cryptsoft.com)
3  * All rights reserved.
4  *
5  * This package is an SSL implementation written
6  * by Eric Young (eay@cryptsoft.com).
7  * The implementation was written so as to conform with Netscapes SSL.
8  * 
9  * This library is free for commercial and non-commercial use as long as
10  * the following conditions are aheared to.  The following conditions
11  * apply to all code found in this distribution, be it the RC4, RSA,
12  * lhash, DES, etc., code; not just the SSL code.  The SSL documentation
13  * included with this distribution is covered by the same copyright terms
14  * except that the holder is Tim Hudson (tjh@cryptsoft.com).
15  * 
16  * Copyright remains Eric Young's, and as such any Copyright notices in
17  * the code are not to be removed.
18  * If this package is used in a product, Eric Young should be given attribution
19  * as the author of the parts of the library used.
20  * This can be in the form of a textual message at program startup or
21  * in documentation (online or textual) provided with the package.
22  * 
23  * Redistribution and use in source and binary forms, with or without
24  * modification, are permitted provided that the following conditions
25  * are met:
26  * 1. Redistributions of source code must retain the copyright
27  *    notice, this list of conditions and the following disclaimer.
28  * 2. Redistributions in binary form must reproduce the above copyright
29  *    notice, this list of conditions and the following disclaimer in the
30  *    documentation and/or other materials provided with the distribution.
31  * 3. All advertising materials mentioning features or use of this software
32  *    must display the following acknowledgement:
33  *    "This product includes cryptographic software written by
34  *     Eric Young (eay@cryptsoft.com)"
35  *    The word 'cryptographic' can be left out if the rouines from the library
36  *    being used are not cryptographic related :-).
37  * 4. If you include any Windows specific code (or a derivative thereof) from 
38  *    the apps directory (application code) you must include an acknowledgement:
39  *    "This product includes software written by Tim Hudson (tjh@cryptsoft.com)"
40  * 
41  * THIS SOFTWARE IS PROVIDED BY ERIC YOUNG ``AS IS'' AND
42  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
43  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
44  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
45  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
46  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
47  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
48  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
49  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
50  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
51  * SUCH DAMAGE.
52  * 
53  * The licence and distribution terms for any publically available version or
54  * derivative of this code cannot be changed.  i.e. this code cannot simply be
55  * copied and put under another distribution licence
56  * [including the GNU Public Licence.]
57  */
58 /* ====================================================================
59  * Copyright (c) 1998-2000 The OpenSSL Project.  All rights reserved.
60  *
61  * Redistribution and use in source and binary forms, with or without
62  * modification, are permitted provided that the following conditions
63  * are met:
64  *
65  * 1. Redistributions of source code must retain the above copyright
66  *    notice, this list of conditions and the following disclaimer. 
67  *
68  * 2. Redistributions in binary form must reproduce the above copyright
69  *    notice, this list of conditions and the following disclaimer in
70  *    the documentation and/or other materials provided with the
71  *    distribution.
72  *
73  * 3. All advertising materials mentioning features or use of this
74  *    software must display the following acknowledgment:
75  *    "This product includes software developed by the OpenSSL Project
76  *    for use in the OpenSSL Toolkit. (http://www.openssl.org/)"
77  *
78  * 4. The names "OpenSSL Toolkit" and "OpenSSL Project" must not be used to
79  *    endorse or promote products derived from this software without
80  *    prior written permission. For written permission, please contact
81  *    openssl-core@openssl.org.
82  *
83  * 5. Products derived from this software may not be called "OpenSSL"
84  *    nor may "OpenSSL" appear in their names without prior written
85  *    permission of the OpenSSL Project.
86  *
87  * 6. Redistributions of any form whatsoever must retain the following
88  *    acknowledgment:
89  *    "This product includes software developed by the OpenSSL Project
90  *    for use in the OpenSSL Toolkit (http://www.openssl.org/)"
91  *
92  * THIS SOFTWARE IS PROVIDED BY THE OpenSSL PROJECT ``AS IS'' AND ANY
93  * EXPRESSED OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
94  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
95  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE OpenSSL PROJECT OR
96  * ITS CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
97  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
98  * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
99  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
100  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT,
101  * STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
102  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED
103  * OF THE POSSIBILITY OF SUCH DAMAGE.
104  * ====================================================================
105  *
106  * This product includes cryptographic software written by Eric Young
107  * (eay@cryptsoft.com).  This product includes software written by Tim
108  * Hudson (tjh@cryptsoft.com).
109  *
110  */
111
112 #ifndef HEADER_BN_LCL_H
113 #define HEADER_BN_LCL_H
114
115 #include <openssl/bn.h>
116
117 #ifdef  __cplusplus
118 extern "C" {
119 #endif
120
121
122 /*
123  * BN_window_bits_for_exponent_size -- macro for sliding window mod_exp functions
124  *
125  *
126  * For window size 'w' (w >= 2) and a random 'b' bits exponent,
127  * the number of multiplications is a constant plus on average
128  *
129  *    2^(w-1) + (b-w)/(w+1);
130  *
131  * here  2^(w-1)  is for precomputing the table (we actually need
132  * entries only for windows that have the lowest bit set), and
133  * (b-w)/(w+1)  is an approximation for the expected number of
134  * w-bit windows, not counting the first one.
135  *
136  * Thus we should use
137  *
138  *    w >= 6  if        b > 671
139  *     w = 5  if  671 > b > 239
140  *     w = 4  if  239 > b >  79
141  *     w = 3  if   79 > b >  23
142  *    w <= 2  if   23 > b
143  *
144  * (with draws in between).  Very small exponents are often selected
145  * with low Hamming weight, so we use  w = 1  for b <= 23.
146  */
147 #if 1
148 #define BN_window_bits_for_exponent_size(b) \
149                 ((b) > 671 ? 6 : \
150                  (b) > 239 ? 5 : \
151                  (b) >  79 ? 4 : \
152                  (b) >  23 ? 3 : 1)
153 #else
154 /* Old SSLeay/OpenSSL table.
155  * Maximum window size was 5, so this table differs for b==1024;
156  * but it coincides for other interesting values (b==160, b==512).
157  */
158 #define BN_window_bits_for_exponent_size(b) \
159                 ((b) > 255 ? 5 : \
160                  (b) > 127 ? 4 : \
161                  (b) >  17 ? 3 : 1)
162 #endif   
163
164
165
166 /* BN_mod_exp_mont_conttime is based on the assumption that the
167  * L1 data cache line width of the target processor is at least
168  * the following value.
169  */
170 #define MOD_EXP_CTIME_MIN_CACHE_LINE_WIDTH      ( 64 )
171 #define MOD_EXP_CTIME_MIN_CACHE_LINE_MASK       (MOD_EXP_CTIME_MIN_CACHE_LINE_WIDTH - 1)
172
173 /* Window sizes optimized for fixed window size modular exponentiation
174  * algorithm (BN_mod_exp_mont_consttime).
175  *
176  * To achieve the security goals of BN_mode_exp_mont_consttime, the
177  * maximum size of the window must not exceed
178  * log_2(MOD_EXP_CTIME_MIN_CACHE_LINE_WIDTH). 
179  *
180  * Window size thresholds are defined for cache line sizes of 32 and 64,
181  * cache line sizes where log_2(32)=5 and log_2(64)=6 respectively. A
182  * window size of 7 should only be used on processors that have a 128
183  * byte or greater cache line size.
184  */
185 #if MOD_EXP_CTIME_MIN_CACHE_LINE_WIDTH == 64
186
187 #  define BN_window_bits_for_ctime_exponent_size(b) \
188                 ((b) > 937 ? 6 : \
189                  (b) > 306 ? 5 : \
190                  (b) >  89 ? 4 : \
191                  (b) >  22 ? 3 : 1)
192 #  define BN_MAX_WINDOW_BITS_FOR_CTIME_EXPONENT_SIZE    (6)
193
194 #elif MOD_EXP_CTIME_MIN_CACHE_LINE_WIDTH == 32
195
196 #  define BN_window_bits_for_ctime_exponent_size(b) \
197                 ((b) > 306 ? 5 : \
198                  (b) >  89 ? 4 : \
199                  (b) >  22 ? 3 : 1)
200 #  define BN_MAX_WINDOW_BITS_FOR_CTIME_EXPONENT_SIZE    (5)
201
202 #endif
203
204
205 /* Pentium pro 16,16,16,32,64 */
206 /* Alpha       16,16,16,16.64 */
207 #define BN_MULL_SIZE_NORMAL                     (16) /* 32 */
208 #define BN_MUL_RECURSIVE_SIZE_NORMAL            (16) /* 32 less than */
209 #define BN_SQR_RECURSIVE_SIZE_NORMAL            (16) /* 32 */
210 #define BN_MUL_LOW_RECURSIVE_SIZE_NORMAL        (32) /* 32 */
211 #define BN_MONT_CTX_SET_SIZE_WORD               (64) /* 32 */
212
213 /* 2011-02-22 SMS.
214  * In various places, a size_t variable or a type cast to size_t was
215  * used to perform integer-only operations on pointers.  This failed on
216  * VMS with 64-bit pointers (CC /POINTER_SIZE = 64) because size_t is
217  * still only 32 bits.  What's needed in these cases is an integer type
218  * with the same size as a pointer, which size_t is not certain to be.
219  * The only fix here is VMS-specific.
220  */
221 #if defined(OPENSSL_SYS_VMS)
222 # if __INITIAL_POINTER_SIZE == 64
223 #  define PTR_SIZE_INT long long
224 # else /* __INITIAL_POINTER_SIZE == 64 */
225 #  define PTR_SIZE_INT int
226 # endif /* __INITIAL_POINTER_SIZE == 64 [else] */
227 #elif !defined(PTR_SIZE_INT) /* defined(OPENSSL_SYS_VMS) */
228 # define PTR_SIZE_INT size_t
229 #endif /* defined(OPENSSL_SYS_VMS) [else] */
230
231 #if !defined(OPENSSL_NO_ASM) && !defined(OPENSSL_NO_INLINE_ASM) && !defined(PEDANTIC)
232 /*
233  * BN_UMULT_HIGH section.
234  *
235  * No, I'm not trying to overwhelm you when stating that the
236  * product of N-bit numbers is 2*N bits wide:-) No, I don't expect
237  * you to be impressed when I say that if the compiler doesn't
238  * support 2*N integer type, then you have to replace every N*N
239  * multiplication with 4 (N/2)*(N/2) accompanied by some shifts
240  * and additions which unavoidably results in severe performance
241  * penalties. Of course provided that the hardware is capable of
242  * producing 2*N result... That's when you normally start
243  * considering assembler implementation. However! It should be
244  * pointed out that some CPUs (most notably Alpha, PowerPC and
245  * upcoming IA-64 family:-) provide *separate* instruction
246  * calculating the upper half of the product placing the result
247  * into a general purpose register. Now *if* the compiler supports
248  * inline assembler, then it's not impossible to implement the
249  * "bignum" routines (and have the compiler optimize 'em)
250  * exhibiting "native" performance in C. That's what BN_UMULT_HIGH
251  * macro is about:-)
252  *
253  *                                      <appro@fy.chalmers.se>
254  */
255 # if defined(__alpha) && (defined(SIXTY_FOUR_BIT_LONG) || defined(SIXTY_FOUR_BIT))
256 #  if defined(__DECC)
257 #   include <c_asm.h>
258 #   define BN_UMULT_HIGH(a,b)   (BN_ULONG)asm("umulh %a0,%a1,%v0",(a),(b))
259 #  elif defined(__GNUC__) && __GNUC__>=2
260 #   define BN_UMULT_HIGH(a,b)   ({      \
261         register BN_ULONG ret;          \
262         asm ("umulh     %1,%2,%0"       \
263              : "=r"(ret)                \
264              : "r"(a), "r"(b));         \
265         ret;                    })
266 #  endif        /* compiler */
267 # elif defined(_ARCH_PPC) && defined(__64BIT__) && defined(SIXTY_FOUR_BIT_LONG)
268 #  if defined(__GNUC__) && __GNUC__>=2
269 #   define BN_UMULT_HIGH(a,b)   ({      \
270         register BN_ULONG ret;          \
271         asm ("mulhdu    %0,%1,%2"       \
272              : "=r"(ret)                \
273              : "r"(a), "r"(b));         \
274         ret;                    })
275 #  endif        /* compiler */
276 # elif (defined(__x86_64) || defined(__x86_64__)) && \
277        (defined(SIXTY_FOUR_BIT_LONG) || defined(SIXTY_FOUR_BIT))
278 #  if defined(__GNUC__) && __GNUC__>=2
279 #   define BN_UMULT_HIGH(a,b)   ({      \
280         register BN_ULONG ret,discard;  \
281         asm ("mulq      %3"             \
282              : "=a"(discard),"=d"(ret)  \
283              : "a"(a), "g"(b)           \
284              : "cc");                   \
285         ret;                    })
286 #   define BN_UMULT_LOHI(low,high,a,b)  \
287         asm ("mulq      %3"             \
288                 : "=a"(low),"=d"(high)  \
289                 : "a"(a),"g"(b)         \
290                 : "cc");
291 #  endif
292 # elif (defined(_M_AMD64) || defined(_M_X64)) && defined(SIXTY_FOUR_BIT)
293 #  if defined(_MSC_VER) && _MSC_VER>=1400
294     unsigned __int64 __umulh    (unsigned __int64 a,unsigned __int64 b);
295     unsigned __int64 _umul128   (unsigned __int64 a,unsigned __int64 b,
296                                  unsigned __int64 *h);
297 #   pragma intrinsic(__umulh,_umul128)
298 #   define BN_UMULT_HIGH(a,b)           __umulh((a),(b))
299 #   define BN_UMULT_LOHI(low,high,a,b)  ((low)=_umul128((a),(b),&(high)))
300 #  endif
301 # elif defined(__mips) && (defined(SIXTY_FOUR_BIT) || defined(SIXTY_FOUR_BIT_LONG))
302 #  if defined(__GNUC__) && __GNUC__>=2
303 #   if __GNUC__>=4 && __GNUC_MINOR__>=4 /* "h" constraint is no more since 4.4 */
304 #     define BN_UMULT_HIGH(a,b)          (((__uint128_t)(a)*(b))>>64)
305 #     define BN_UMULT_LOHI(low,high,a,b) ({     \
306         __uint128_t ret=(__uint128_t)(a)*(b);   \
307         (high)=ret>>64; (low)=ret;       })
308 #   else
309 #     define BN_UMULT_HIGH(a,b) ({      \
310         register BN_ULONG ret;          \
311         asm ("dmultu    %1,%2"          \
312              : "=h"(ret)                \
313              : "r"(a), "r"(b) : "l");   \
314         ret;                    })
315 #     define BN_UMULT_LOHI(low,high,a,b)\
316         asm ("dmultu    %2,%3"          \
317              : "=l"(low),"=h"(high)     \
318              : "r"(a), "r"(b));
319 #    endif
320 #  endif
321 # elif defined(__aarch64__) && defined(SIXTY_FOUR_BIT_LONG)
322 #  if defined(__GNUC__) && __GNUC__>=2
323 #   define BN_UMULT_HIGH(a,b)   ({      \
324         register BN_ULONG ret;          \
325         asm ("umulh     %0,%1,%2"       \
326              : "=r"(ret)                \
327              : "r"(a), "r"(b));         \
328         ret;                    })
329 #  endif
330 # endif         /* cpu */
331 #endif          /* OPENSSL_NO_ASM */
332
333 /*************************************************************
334  * Using the long long type
335  */
336 #define Lw(t)    (((BN_ULONG)(t))&BN_MASK2)
337 #define Hw(t)    (((BN_ULONG)((t)>>BN_BITS2))&BN_MASK2)
338
339 #ifdef BN_DEBUG_RAND
340 #define bn_clear_top2max(a) \
341         { \
342         int      ind = (a)->dmax - (a)->top; \
343         BN_ULONG *ftl = &(a)->d[(a)->top-1]; \
344         for (; ind != 0; ind--) \
345                 *(++ftl) = 0x0; \
346         }
347 #else
348 #define bn_clear_top2max(a)
349 #endif
350
351 #ifdef BN_LLONG
352 #define mul_add(r,a,w,c) { \
353         BN_ULLONG t; \
354         t=(BN_ULLONG)w * (a) + (r) + (c); \
355         (r)= Lw(t); \
356         (c)= Hw(t); \
357         }
358
359 #define mul(r,a,w,c) { \
360         BN_ULLONG t; \
361         t=(BN_ULLONG)w * (a) + (c); \
362         (r)= Lw(t); \
363         (c)= Hw(t); \
364         }
365
366 #define sqr(r0,r1,a) { \
367         BN_ULLONG t; \
368         t=(BN_ULLONG)(a)*(a); \
369         (r0)=Lw(t); \
370         (r1)=Hw(t); \
371         }
372
373 #elif defined(BN_UMULT_LOHI)
374 #define mul_add(r,a,w,c) {              \
375         BN_ULONG high,low,ret,tmp=(a);  \
376         ret =  (r);                     \
377         BN_UMULT_LOHI(low,high,w,tmp);  \
378         ret += (c);                     \
379         (c) =  (ret<(c))?1:0;           \
380         (c) += high;                    \
381         ret += low;                     \
382         (c) += (ret<low)?1:0;           \
383         (r) =  ret;                     \
384         }
385
386 #define mul(r,a,w,c)    {               \
387         BN_ULONG high,low,ret,ta=(a);   \
388         BN_UMULT_LOHI(low,high,w,ta);   \
389         ret =  low + (c);               \
390         (c) =  high;                    \
391         (c) += (ret<low)?1:0;           \
392         (r) =  ret;                     \
393         }
394
395 #define sqr(r0,r1,a)    {               \
396         BN_ULONG tmp=(a);               \
397         BN_UMULT_LOHI(r0,r1,tmp,tmp);   \
398         }
399
400 #elif defined(BN_UMULT_HIGH)
401 #define mul_add(r,a,w,c) {              \
402         BN_ULONG high,low,ret,tmp=(a);  \
403         ret =  (r);                     \
404         high=  BN_UMULT_HIGH(w,tmp);    \
405         ret += (c);                     \
406         low =  (w) * tmp;               \
407         (c) =  (ret<(c))?1:0;           \
408         (c) += high;                    \
409         ret += low;                     \
410         (c) += (ret<low)?1:0;           \
411         (r) =  ret;                     \
412         }
413
414 #define mul(r,a,w,c)    {               \
415         BN_ULONG high,low,ret,ta=(a);   \
416         low =  (w) * ta;                \
417         high=  BN_UMULT_HIGH(w,ta);     \
418         ret =  low + (c);               \
419         (c) =  high;                    \
420         (c) += (ret<low)?1:0;           \
421         (r) =  ret;                     \
422         }
423
424 #define sqr(r0,r1,a)    {               \
425         BN_ULONG tmp=(a);               \
426         (r0) = tmp * tmp;               \
427         (r1) = BN_UMULT_HIGH(tmp,tmp);  \
428         }
429
430 #else
431 /*************************************************************
432  * No long long type
433  */
434
435 #define LBITS(a)        ((a)&BN_MASK2l)
436 #define HBITS(a)        (((a)>>BN_BITS4)&BN_MASK2l)
437 #define L2HBITS(a)      (((a)<<BN_BITS4)&BN_MASK2)
438
439 #define LLBITS(a)       ((a)&BN_MASKl)
440 #define LHBITS(a)       (((a)>>BN_BITS2)&BN_MASKl)
441 #define LL2HBITS(a)     ((BN_ULLONG)((a)&BN_MASKl)<<BN_BITS2)
442
443 #define mul64(l,h,bl,bh) \
444         { \
445         BN_ULONG m,m1,lt,ht; \
446  \
447         lt=l; \
448         ht=h; \
449         m =(bh)*(lt); \
450         lt=(bl)*(lt); \
451         m1=(bl)*(ht); \
452         ht =(bh)*(ht); \
453         m=(m+m1)&BN_MASK2; if (m < m1) ht+=L2HBITS((BN_ULONG)1); \
454         ht+=HBITS(m); \
455         m1=L2HBITS(m); \
456         lt=(lt+m1)&BN_MASK2; if (lt < m1) ht++; \
457         (l)=lt; \
458         (h)=ht; \
459         }
460
461 #define sqr64(lo,ho,in) \
462         { \
463         BN_ULONG l,h,m; \
464  \
465         h=(in); \
466         l=LBITS(h); \
467         h=HBITS(h); \
468         m =(l)*(h); \
469         l*=l; \
470         h*=h; \
471         h+=(m&BN_MASK2h1)>>(BN_BITS4-1); \
472         m =(m&BN_MASK2l)<<(BN_BITS4+1); \
473         l=(l+m)&BN_MASK2; if (l < m) h++; \
474         (lo)=l; \
475         (ho)=h; \
476         }
477
478 #define mul_add(r,a,bl,bh,c) { \
479         BN_ULONG l,h; \
480  \
481         h= (a); \
482         l=LBITS(h); \
483         h=HBITS(h); \
484         mul64(l,h,(bl),(bh)); \
485  \
486         /* non-multiply part */ \
487         l=(l+(c))&BN_MASK2; if (l < (c)) h++; \
488         (c)=(r); \
489         l=(l+(c))&BN_MASK2; if (l < (c)) h++; \
490         (c)=h&BN_MASK2; \
491         (r)=l; \
492         }
493
494 #define mul(r,a,bl,bh,c) { \
495         BN_ULONG l,h; \
496  \
497         h= (a); \
498         l=LBITS(h); \
499         h=HBITS(h); \
500         mul64(l,h,(bl),(bh)); \
501  \
502         /* non-multiply part */ \
503         l+=(c); if ((l&BN_MASK2) < (c)) h++; \
504         (c)=h&BN_MASK2; \
505         (r)=l&BN_MASK2; \
506         }
507 #endif /* !BN_LLONG */
508
509 void bn_mul_normal(BN_ULONG *r,BN_ULONG *a,int na,BN_ULONG *b,int nb);
510 void bn_mul_comba8(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b);
511 void bn_mul_comba4(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b);
512 void bn_sqr_normal(BN_ULONG *r, const BN_ULONG *a, int n, BN_ULONG *tmp);
513 void bn_sqr_comba8(BN_ULONG *r,const BN_ULONG *a);
514 void bn_sqr_comba4(BN_ULONG *r,const BN_ULONG *a);
515 int bn_cmp_words(const BN_ULONG *a,const BN_ULONG *b,int n);
516 int bn_cmp_part_words(const BN_ULONG *a, const BN_ULONG *b,
517         int cl, int dl);
518 void bn_mul_recursive(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,int n2,
519         int dna,int dnb,BN_ULONG *t);
520 void bn_mul_part_recursive(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,
521         int n,int tna,int tnb,BN_ULONG *t);
522 void bn_sqr_recursive(BN_ULONG *r,const BN_ULONG *a, int n2, BN_ULONG *t);
523 void bn_mul_low_normal(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b, int n);
524 void bn_mul_low_recursive(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,int n2,
525         BN_ULONG *t);
526 void bn_mul_high(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,BN_ULONG *l,int n2,
527         BN_ULONG *t);
528 BN_ULONG bn_add_part_words(BN_ULONG *r, const BN_ULONG *a, const BN_ULONG *b,
529         int cl, int dl);
530 BN_ULONG bn_sub_part_words(BN_ULONG *r, const BN_ULONG *a, const BN_ULONG *b,
531         int cl, int dl);
532 int bn_mul_mont(BN_ULONG *rp, const BN_ULONG *ap, const BN_ULONG *bp, const BN_ULONG *np,const BN_ULONG *n0, int num);
533
534 BIGNUM *int_bn_mod_inverse(BIGNUM *in,
535         const BIGNUM *a, const BIGNUM *n, BN_CTX *ctx, int *noinv);
536
537 int bn_probable_prime_dh(BIGNUM *rnd, int bits,
538         const BIGNUM *add, const BIGNUM *rem, BN_CTX *ctx);
539 int bn_probable_prime_dh_coprime(BIGNUM *rnd, int bits,
540         const BIGNUM *add, const BIGNUM *rem, BN_CTX *ctx);
541
542 #ifdef  __cplusplus
543 }
544 #endif
545
546 #endif