Don't load GOST ENGINE if it is already loaded.
[openssl.git] / crypto / bn / bn_lcl.h
1 /* crypto/bn/bn_lcl.h */
2 /* Copyright (C) 1995-1998 Eric Young (eay@cryptsoft.com)
3  * All rights reserved.
4  *
5  * This package is an SSL implementation written
6  * by Eric Young (eay@cryptsoft.com).
7  * The implementation was written so as to conform with Netscapes SSL.
8  * 
9  * This library is free for commercial and non-commercial use as long as
10  * the following conditions are aheared to.  The following conditions
11  * apply to all code found in this distribution, be it the RC4, RSA,
12  * lhash, DES, etc., code; not just the SSL code.  The SSL documentation
13  * included with this distribution is covered by the same copyright terms
14  * except that the holder is Tim Hudson (tjh@cryptsoft.com).
15  * 
16  * Copyright remains Eric Young's, and as such any Copyright notices in
17  * the code are not to be removed.
18  * If this package is used in a product, Eric Young should be given attribution
19  * as the author of the parts of the library used.
20  * This can be in the form of a textual message at program startup or
21  * in documentation (online or textual) provided with the package.
22  * 
23  * Redistribution and use in source and binary forms, with or without
24  * modification, are permitted provided that the following conditions
25  * are met:
26  * 1. Redistributions of source code must retain the copyright
27  *    notice, this list of conditions and the following disclaimer.
28  * 2. Redistributions in binary form must reproduce the above copyright
29  *    notice, this list of conditions and the following disclaimer in the
30  *    documentation and/or other materials provided with the distribution.
31  * 3. All advertising materials mentioning features or use of this software
32  *    must display the following acknowledgement:
33  *    "This product includes cryptographic software written by
34  *     Eric Young (eay@cryptsoft.com)"
35  *    The word 'cryptographic' can be left out if the rouines from the library
36  *    being used are not cryptographic related :-).
37  * 4. If you include any Windows specific code (or a derivative thereof) from 
38  *    the apps directory (application code) you must include an acknowledgement:
39  *    "This product includes software written by Tim Hudson (tjh@cryptsoft.com)"
40  * 
41  * THIS SOFTWARE IS PROVIDED BY ERIC YOUNG ``AS IS'' AND
42  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
43  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
44  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
45  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
46  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
47  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
48  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
49  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
50  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
51  * SUCH DAMAGE.
52  * 
53  * The licence and distribution terms for any publically available version or
54  * derivative of this code cannot be changed.  i.e. this code cannot simply be
55  * copied and put under another distribution licence
56  * [including the GNU Public Licence.]
57  */
58 /* ====================================================================
59  * Copyright (c) 1998-2000 The OpenSSL Project.  All rights reserved.
60  *
61  * Redistribution and use in source and binary forms, with or without
62  * modification, are permitted provided that the following conditions
63  * are met:
64  *
65  * 1. Redistributions of source code must retain the above copyright
66  *    notice, this list of conditions and the following disclaimer. 
67  *
68  * 2. Redistributions in binary form must reproduce the above copyright
69  *    notice, this list of conditions and the following disclaimer in
70  *    the documentation and/or other materials provided with the
71  *    distribution.
72  *
73  * 3. All advertising materials mentioning features or use of this
74  *    software must display the following acknowledgment:
75  *    "This product includes software developed by the OpenSSL Project
76  *    for use in the OpenSSL Toolkit. (http://www.openssl.org/)"
77  *
78  * 4. The names "OpenSSL Toolkit" and "OpenSSL Project" must not be used to
79  *    endorse or promote products derived from this software without
80  *    prior written permission. For written permission, please contact
81  *    openssl-core@openssl.org.
82  *
83  * 5. Products derived from this software may not be called "OpenSSL"
84  *    nor may "OpenSSL" appear in their names without prior written
85  *    permission of the OpenSSL Project.
86  *
87  * 6. Redistributions of any form whatsoever must retain the following
88  *    acknowledgment:
89  *    "This product includes software developed by the OpenSSL Project
90  *    for use in the OpenSSL Toolkit (http://www.openssl.org/)"
91  *
92  * THIS SOFTWARE IS PROVIDED BY THE OpenSSL PROJECT ``AS IS'' AND ANY
93  * EXPRESSED OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
94  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
95  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE OpenSSL PROJECT OR
96  * ITS CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
97  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
98  * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
99  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
100  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT,
101  * STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
102  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED
103  * OF THE POSSIBILITY OF SUCH DAMAGE.
104  * ====================================================================
105  *
106  * This product includes cryptographic software written by Eric Young
107  * (eay@cryptsoft.com).  This product includes software written by Tim
108  * Hudson (tjh@cryptsoft.com).
109  *
110  */
111
112 #ifndef HEADER_BN_LCL_H
113 #define HEADER_BN_LCL_H
114
115 #include <openssl/bn.h>
116
117 #ifdef  __cplusplus
118 extern "C" {
119 #endif
120
121
122 /*
123  * BN_window_bits_for_exponent_size -- macro for sliding window mod_exp functions
124  *
125  *
126  * For window size 'w' (w >= 2) and a random 'b' bits exponent,
127  * the number of multiplications is a constant plus on average
128  *
129  *    2^(w-1) + (b-w)/(w+1);
130  *
131  * here  2^(w-1)  is for precomputing the table (we actually need
132  * entries only for windows that have the lowest bit set), and
133  * (b-w)/(w+1)  is an approximation for the expected number of
134  * w-bit windows, not counting the first one.
135  *
136  * Thus we should use
137  *
138  *    w >= 6  if        b > 671
139  *     w = 5  if  671 > b > 239
140  *     w = 4  if  239 > b >  79
141  *     w = 3  if   79 > b >  23
142  *    w <= 2  if   23 > b
143  *
144  * (with draws in between).  Very small exponents are often selected
145  * with low Hamming weight, so we use  w = 1  for b <= 23.
146  */
147 #if 1
148 #define BN_window_bits_for_exponent_size(b) \
149                 ((b) > 671 ? 6 : \
150                  (b) > 239 ? 5 : \
151                  (b) >  79 ? 4 : \
152                  (b) >  23 ? 3 : 1)
153 #else
154 /* Old SSLeay/OpenSSL table.
155  * Maximum window size was 5, so this table differs for b==1024;
156  * but it coincides for other interesting values (b==160, b==512).
157  */
158 #define BN_window_bits_for_exponent_size(b) \
159                 ((b) > 255 ? 5 : \
160                  (b) > 127 ? 4 : \
161                  (b) >  17 ? 3 : 1)
162 #endif   
163
164
165
166 /* BN_mod_exp_mont_conttime is based on the assumption that the
167  * L1 data cache line width of the target processor is at least
168  * the following value.
169  */
170 #define MOD_EXP_CTIME_MIN_CACHE_LINE_WIDTH      ( 64 )
171 #define MOD_EXP_CTIME_MIN_CACHE_LINE_MASK       (MOD_EXP_CTIME_MIN_CACHE_LINE_WIDTH - 1)
172
173 /* Window sizes optimized for fixed window size modular exponentiation
174  * algorithm (BN_mod_exp_mont_consttime).
175  *
176  * To achieve the security goals of BN_mode_exp_mont_consttime, the
177  * maximum size of the window must not exceed
178  * log_2(MOD_EXP_CTIME_MIN_CACHE_LINE_WIDTH). 
179  *
180  * Window size thresholds are defined for cache line sizes of 32 and 64,
181  * cache line sizes where log_2(32)=5 and log_2(64)=6 respectively. A
182  * window size of 7 should only be used on processors that have a 128
183  * byte or greater cache line size.
184  */
185 #if MOD_EXP_CTIME_MIN_CACHE_LINE_WIDTH == 64
186
187 #  define BN_window_bits_for_ctime_exponent_size(b) \
188                 ((b) > 937 ? 6 : \
189                  (b) > 306 ? 5 : \
190                  (b) >  89 ? 4 : \
191                  (b) >  22 ? 3 : 1)
192 #  define BN_MAX_WINDOW_BITS_FOR_CTIME_EXPONENT_SIZE    (6)
193
194 #elif MOD_EXP_CTIME_MIN_CACHE_LINE_WIDTH == 32
195
196 #  define BN_window_bits_for_ctime_exponent_size(b) \
197                 ((b) > 306 ? 5 : \
198                  (b) >  89 ? 4 : \
199                  (b) >  22 ? 3 : 1)
200 #  define BN_MAX_WINDOW_BITS_FOR_CTIME_EXPONENT_SIZE    (5)
201
202 #endif
203
204
205 /* Pentium pro 16,16,16,32,64 */
206 /* Alpha       16,16,16,16.64 */
207 #define BN_MULL_SIZE_NORMAL                     (16) /* 32 */
208 #define BN_MUL_RECURSIVE_SIZE_NORMAL            (16) /* 32 less than */
209 #define BN_SQR_RECURSIVE_SIZE_NORMAL            (16) /* 32 */
210 #define BN_MUL_LOW_RECURSIVE_SIZE_NORMAL        (32) /* 32 */
211 #define BN_MONT_CTX_SET_SIZE_WORD               (64) /* 32 */
212
213 /* 2011-02-22 SMS.
214  * In various places, a size_t variable or a type cast to size_t was
215  * used to perform integer-only operations on pointers.  This failed on
216  * VMS with 64-bit pointers (CC /POINTER_SIZE = 64) because size_t is
217  * still only 32 bits.  What's needed in these cases is an integer type
218  * with the same size as a pointer, which size_t is not certain to be.
219  * The only fix here is VMS-specific.
220  */
221 #if defined(OPENSSL_SYS_VMS)
222 # if __INITIAL_POINTER_SIZE == 64
223 #  define PTR_SIZE_INT long long
224 # else /* __INITIAL_POINTER_SIZE == 64 */
225 #  define PTR_SIZE_INT int
226 # endif /* __INITIAL_POINTER_SIZE == 64 [else] */
227 #elif !defined(PTR_SIZE_INT) /* defined(OPENSSL_SYS_VMS) */
228 # define PTR_SIZE_INT size_t
229 #endif /* defined(OPENSSL_SYS_VMS) [else] */
230
231 #if !defined(OPENSSL_NO_ASM) && !defined(OPENSSL_NO_INLINE_ASM) && !defined(PEDANTIC)
232 /*
233  * BN_UMULT_HIGH section.
234  *
235  * No, I'm not trying to overwhelm you when stating that the
236  * product of N-bit numbers is 2*N bits wide:-) No, I don't expect
237  * you to be impressed when I say that if the compiler doesn't
238  * support 2*N integer type, then you have to replace every N*N
239  * multiplication with 4 (N/2)*(N/2) accompanied by some shifts
240  * and additions which unavoidably results in severe performance
241  * penalties. Of course provided that the hardware is capable of
242  * producing 2*N result... That's when you normally start
243  * considering assembler implementation. However! It should be
244  * pointed out that some CPUs (most notably Alpha, PowerPC and
245  * upcoming IA-64 family:-) provide *separate* instruction
246  * calculating the upper half of the product placing the result
247  * into a general purpose register. Now *if* the compiler supports
248  * inline assembler, then it's not impossible to implement the
249  * "bignum" routines (and have the compiler optimize 'em)
250  * exhibiting "native" performance in C. That's what BN_UMULT_HIGH
251  * macro is about:-)
252  *
253  *                                      <appro@fy.chalmers.se>
254  */
255 # if defined(__alpha) && (defined(SIXTY_FOUR_BIT_LONG) || defined(SIXTY_FOUR_BIT))
256 #  if defined(__DECC)
257 #   include <c_asm.h>
258 #   define BN_UMULT_HIGH(a,b)   (BN_ULONG)asm("umulh %a0,%a1,%v0",(a),(b))
259 #  elif defined(__GNUC__) && __GNUC__>=2
260 #   define BN_UMULT_HIGH(a,b)   ({      \
261         register BN_ULONG ret;          \
262         asm ("umulh     %1,%2,%0"       \
263              : "=r"(ret)                \
264              : "r"(a), "r"(b));         \
265         ret;                    })
266 #  endif        /* compiler */
267 # elif defined(_ARCH_PPC) && defined(__64BIT__) && defined(SIXTY_FOUR_BIT_LONG)
268 #  if defined(__GNUC__) && __GNUC__>=2
269 #   define BN_UMULT_HIGH(a,b)   ({      \
270         register BN_ULONG ret;          \
271         asm ("mulhdu    %0,%1,%2"       \
272              : "=r"(ret)                \
273              : "r"(a), "r"(b));         \
274         ret;                    })
275 #  endif        /* compiler */
276 # elif (defined(__x86_64) || defined(__x86_64__)) && \
277        (defined(SIXTY_FOUR_BIT_LONG) || defined(SIXTY_FOUR_BIT))
278 #  if defined(__GNUC__) && __GNUC__>=2
279 #   define BN_UMULT_HIGH(a,b)   ({      \
280         register BN_ULONG ret,discard;  \
281         asm ("mulq      %3"             \
282              : "=a"(discard),"=d"(ret)  \
283              : "a"(a), "g"(b)           \
284              : "cc");                   \
285         ret;                    })
286 #   define BN_UMULT_LOHI(low,high,a,b)  \
287         asm ("mulq      %3"             \
288                 : "=a"(low),"=d"(high)  \
289                 : "a"(a),"g"(b)         \
290                 : "cc");
291 #  endif
292 # elif (defined(_M_AMD64) || defined(_M_X64)) && defined(SIXTY_FOUR_BIT)
293 #  if defined(_MSC_VER) && _MSC_VER>=1400
294     unsigned __int64 __umulh    (unsigned __int64 a,unsigned __int64 b);
295     unsigned __int64 _umul128   (unsigned __int64 a,unsigned __int64 b,
296                                  unsigned __int64 *h);
297 #   pragma intrinsic(__umulh,_umul128)
298 #   define BN_UMULT_HIGH(a,b)           __umulh((a),(b))
299 #   define BN_UMULT_LOHI(low,high,a,b)  ((low)=_umul128((a),(b),&(high)))
300 #  endif
301 # elif defined(__mips) && (defined(SIXTY_FOUR_BIT) || defined(SIXTY_FOUR_BIT_LONG))
302 #  if defined(__GNUC__) && __GNUC__>=2
303 #   define BN_UMULT_HIGH(a,b)   ({      \
304         register BN_ULONG ret;          \
305         asm ("dmultu    %1,%2"          \
306              : "=h"(ret)                \
307              : "r"(a), "r"(b) : "l");   \
308         ret;                    })
309 #   define BN_UMULT_LOHI(low,high,a,b)  \
310         asm ("dmultu    %2,%3"          \
311              : "=l"(low),"=h"(high)     \
312              : "r"(a), "r"(b));
313 #  endif
314 # endif         /* cpu */
315 #endif          /* OPENSSL_NO_ASM */
316
317 /*************************************************************
318  * Using the long long type
319  */
320 #define Lw(t)    (((BN_ULONG)(t))&BN_MASK2)
321 #define Hw(t)    (((BN_ULONG)((t)>>BN_BITS2))&BN_MASK2)
322
323 #ifdef BN_DEBUG_RAND
324 #define bn_clear_top2max(a) \
325         { \
326         int      ind = (a)->dmax - (a)->top; \
327         BN_ULONG *ftl = &(a)->d[(a)->top-1]; \
328         for (; ind != 0; ind--) \
329                 *(++ftl) = 0x0; \
330         }
331 #else
332 #define bn_clear_top2max(a)
333 #endif
334
335 #ifdef BN_LLONG
336 #define mul_add(r,a,w,c) { \
337         BN_ULLONG t; \
338         t=(BN_ULLONG)w * (a) + (r) + (c); \
339         (r)= Lw(t); \
340         (c)= Hw(t); \
341         }
342
343 #define mul(r,a,w,c) { \
344         BN_ULLONG t; \
345         t=(BN_ULLONG)w * (a) + (c); \
346         (r)= Lw(t); \
347         (c)= Hw(t); \
348         }
349
350 #define sqr(r0,r1,a) { \
351         BN_ULLONG t; \
352         t=(BN_ULLONG)(a)*(a); \
353         (r0)=Lw(t); \
354         (r1)=Hw(t); \
355         }
356
357 #elif defined(BN_UMULT_LOHI)
358 #define mul_add(r,a,w,c) {              \
359         BN_ULONG high,low,ret,tmp=(a);  \
360         ret =  (r);                     \
361         BN_UMULT_LOHI(low,high,w,tmp);  \
362         ret += (c);                     \
363         (c) =  (ret<(c))?1:0;           \
364         (c) += high;                    \
365         ret += low;                     \
366         (c) += (ret<low)?1:0;           \
367         (r) =  ret;                     \
368         }
369
370 #define mul(r,a,w,c)    {               \
371         BN_ULONG high,low,ret,ta=(a);   \
372         BN_UMULT_LOHI(low,high,w,ta);   \
373         ret =  low + (c);               \
374         (c) =  high;                    \
375         (c) += (ret<low)?1:0;           \
376         (r) =  ret;                     \
377         }
378
379 #define sqr(r0,r1,a)    {               \
380         BN_ULONG tmp=(a);               \
381         BN_UMULT_LOHI(r0,r1,tmp,tmp);   \
382         }
383
384 #elif defined(BN_UMULT_HIGH)
385 #define mul_add(r,a,w,c) {              \
386         BN_ULONG high,low,ret,tmp=(a);  \
387         ret =  (r);                     \
388         high=  BN_UMULT_HIGH(w,tmp);    \
389         ret += (c);                     \
390         low =  (w) * tmp;               \
391         (c) =  (ret<(c))?1:0;           \
392         (c) += high;                    \
393         ret += low;                     \
394         (c) += (ret<low)?1:0;           \
395         (r) =  ret;                     \
396         }
397
398 #define mul(r,a,w,c)    {               \
399         BN_ULONG high,low,ret,ta=(a);   \
400         low =  (w) * ta;                \
401         high=  BN_UMULT_HIGH(w,ta);     \
402         ret =  low + (c);               \
403         (c) =  high;                    \
404         (c) += (ret<low)?1:0;           \
405         (r) =  ret;                     \
406         }
407
408 #define sqr(r0,r1,a)    {               \
409         BN_ULONG tmp=(a);               \
410         (r0) = tmp * tmp;               \
411         (r1) = BN_UMULT_HIGH(tmp,tmp);  \
412         }
413
414 #else
415 /*************************************************************
416  * No long long type
417  */
418
419 #define LBITS(a)        ((a)&BN_MASK2l)
420 #define HBITS(a)        (((a)>>BN_BITS4)&BN_MASK2l)
421 #define L2HBITS(a)      (((a)<<BN_BITS4)&BN_MASK2)
422
423 #define LLBITS(a)       ((a)&BN_MASKl)
424 #define LHBITS(a)       (((a)>>BN_BITS2)&BN_MASKl)
425 #define LL2HBITS(a)     ((BN_ULLONG)((a)&BN_MASKl)<<BN_BITS2)
426
427 #define mul64(l,h,bl,bh) \
428         { \
429         BN_ULONG m,m1,lt,ht; \
430  \
431         lt=l; \
432         ht=h; \
433         m =(bh)*(lt); \
434         lt=(bl)*(lt); \
435         m1=(bl)*(ht); \
436         ht =(bh)*(ht); \
437         m=(m+m1)&BN_MASK2; if (m < m1) ht+=L2HBITS((BN_ULONG)1); \
438         ht+=HBITS(m); \
439         m1=L2HBITS(m); \
440         lt=(lt+m1)&BN_MASK2; if (lt < m1) ht++; \
441         (l)=lt; \
442         (h)=ht; \
443         }
444
445 #define sqr64(lo,ho,in) \
446         { \
447         BN_ULONG l,h,m; \
448  \
449         h=(in); \
450         l=LBITS(h); \
451         h=HBITS(h); \
452         m =(l)*(h); \
453         l*=l; \
454         h*=h; \
455         h+=(m&BN_MASK2h1)>>(BN_BITS4-1); \
456         m =(m&BN_MASK2l)<<(BN_BITS4+1); \
457         l=(l+m)&BN_MASK2; if (l < m) h++; \
458         (lo)=l; \
459         (ho)=h; \
460         }
461
462 #define mul_add(r,a,bl,bh,c) { \
463         BN_ULONG l,h; \
464  \
465         h= (a); \
466         l=LBITS(h); \
467         h=HBITS(h); \
468         mul64(l,h,(bl),(bh)); \
469  \
470         /* non-multiply part */ \
471         l=(l+(c))&BN_MASK2; if (l < (c)) h++; \
472         (c)=(r); \
473         l=(l+(c))&BN_MASK2; if (l < (c)) h++; \
474         (c)=h&BN_MASK2; \
475         (r)=l; \
476         }
477
478 #define mul(r,a,bl,bh,c) { \
479         BN_ULONG l,h; \
480  \
481         h= (a); \
482         l=LBITS(h); \
483         h=HBITS(h); \
484         mul64(l,h,(bl),(bh)); \
485  \
486         /* non-multiply part */ \
487         l+=(c); if ((l&BN_MASK2) < (c)) h++; \
488         (c)=h&BN_MASK2; \
489         (r)=l&BN_MASK2; \
490         }
491 #endif /* !BN_LLONG */
492
493 void bn_mul_normal(BN_ULONG *r,BN_ULONG *a,int na,BN_ULONG *b,int nb);
494 void bn_mul_comba8(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b);
495 void bn_mul_comba4(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b);
496 void bn_sqr_normal(BN_ULONG *r, const BN_ULONG *a, int n, BN_ULONG *tmp);
497 void bn_sqr_comba8(BN_ULONG *r,const BN_ULONG *a);
498 void bn_sqr_comba4(BN_ULONG *r,const BN_ULONG *a);
499 int bn_cmp_words(const BN_ULONG *a,const BN_ULONG *b,int n);
500 int bn_cmp_part_words(const BN_ULONG *a, const BN_ULONG *b,
501         int cl, int dl);
502 void bn_mul_recursive(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,int n2,
503         int dna,int dnb,BN_ULONG *t);
504 void bn_mul_part_recursive(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,
505         int n,int tna,int tnb,BN_ULONG *t);
506 void bn_sqr_recursive(BN_ULONG *r,const BN_ULONG *a, int n2, BN_ULONG *t);
507 void bn_mul_low_normal(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b, int n);
508 void bn_mul_low_recursive(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,int n2,
509         BN_ULONG *t);
510 void bn_mul_high(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,BN_ULONG *l,int n2,
511         BN_ULONG *t);
512 BN_ULONG bn_add_part_words(BN_ULONG *r, const BN_ULONG *a, const BN_ULONG *b,
513         int cl, int dl);
514 BN_ULONG bn_sub_part_words(BN_ULONG *r, const BN_ULONG *a, const BN_ULONG *b,
515         int cl, int dl);
516 int bn_mul_mont(BN_ULONG *rp, const BN_ULONG *ap, const BN_ULONG *bp, const BN_ULONG *np,const BN_ULONG *n0, int num);
517
518 BIGNUM *int_bn_mod_inverse(BIGNUM *in,
519         const BIGNUM *a, const BIGNUM *n, BN_CTX *ctx, int *noinv);
520
521 #ifdef  __cplusplus
522 }
523 #endif
524
525 #endif