e36ccbc4c2d924889fc7f08586a35bbbc3877b7c
[openssl.git] / crypto / bn / bn_lcl.h
1 /* crypto/bn/bn_lcl.h */
2 /* Copyright (C) 1995-1998 Eric Young (eay@cryptsoft.com)
3  * All rights reserved.
4  *
5  * This package is an SSL implementation written
6  * by Eric Young (eay@cryptsoft.com).
7  * The implementation was written so as to conform with Netscapes SSL.
8  * 
9  * This library is free for commercial and non-commercial use as long as
10  * the following conditions are aheared to.  The following conditions
11  * apply to all code found in this distribution, be it the RC4, RSA,
12  * lhash, DES, etc., code; not just the SSL code.  The SSL documentation
13  * included with this distribution is covered by the same copyright terms
14  * except that the holder is Tim Hudson (tjh@cryptsoft.com).
15  * 
16  * Copyright remains Eric Young's, and as such any Copyright notices in
17  * the code are not to be removed.
18  * If this package is used in a product, Eric Young should be given attribution
19  * as the author of the parts of the library used.
20  * This can be in the form of a textual message at program startup or
21  * in documentation (online or textual) provided with the package.
22  * 
23  * Redistribution and use in source and binary forms, with or without
24  * modification, are permitted provided that the following conditions
25  * are met:
26  * 1. Redistributions of source code must retain the copyright
27  *    notice, this list of conditions and the following disclaimer.
28  * 2. Redistributions in binary form must reproduce the above copyright
29  *    notice, this list of conditions and the following disclaimer in the
30  *    documentation and/or other materials provided with the distribution.
31  * 3. All advertising materials mentioning features or use of this software
32  *    must display the following acknowledgement:
33  *    "This product includes cryptographic software written by
34  *     Eric Young (eay@cryptsoft.com)"
35  *    The word 'cryptographic' can be left out if the rouines from the library
36  *    being used are not cryptographic related :-).
37  * 4. If you include any Windows specific code (or a derivative thereof) from 
38  *    the apps directory (application code) you must include an acknowledgement:
39  *    "This product includes software written by Tim Hudson (tjh@cryptsoft.com)"
40  * 
41  * THIS SOFTWARE IS PROVIDED BY ERIC YOUNG ``AS IS'' AND
42  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
43  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
44  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
45  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
46  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
47  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
48  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
49  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
50  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
51  * SUCH DAMAGE.
52  * 
53  * The licence and distribution terms for any publically available version or
54  * derivative of this code cannot be changed.  i.e. this code cannot simply be
55  * copied and put under another distribution licence
56  * [including the GNU Public Licence.]
57  */
58
59 #ifndef HEADER_BN_LCL_H
60 #define HEADER_BN_LCL_H
61
62 #include <openssl/bn.h>
63
64 #ifdef  __cplusplus
65 extern "C" {
66 #endif
67
68 /* Pentium pro 16,16,16,32,64 */
69 /* Alpha       16,16,16,16.64 */
70 #define BN_MULL_SIZE_NORMAL                     (16) /* 32 */
71 #define BN_MUL_RECURSIVE_SIZE_NORMAL            (16) /* 32 less than */
72 #define BN_SQR_RECURSIVE_SIZE_NORMAL            (16) /* 32 */
73 #define BN_MUL_LOW_RECURSIVE_SIZE_NORMAL        (32) /* 32 */
74 #define BN_MONT_CTX_SET_SIZE_WORD               (64) /* 32 */
75
76 #if !defined(NO_ASM) && !defined(NO_INLINE_ASM) && !defined(PEDANTIC)
77 /*
78  * BN_UMULT_HIGH section.
79  *
80  * No, I'm not trying to overwhelm you when stating that the
81  * product of N-bit numbers is 2*N bits wide:-) No, I don't expect
82  * you to be impressed when I say that if the compiler doesn't
83  * support 2*N integer type, then you have to replace every N*N
84  * multiplication with 4 (N/2)*(N/2) accompanied by some shifts
85  * and additions which unavoidably results in severe performance
86  * penalties. Of course provided that the hardware is capable of
87  * producing 2*N result... That's when you normally start
88  * considering assembler implementation. However! It should be
89  * pointed out that some CPUs (most notably Alpha, PowerPC and
90  * upcoming IA-64 family:-) provide *separate* instruction
91  * calculating the upper half of the product placing the result
92  * into a general purpose register. Now *if* the compiler supports
93  * inline assembler, then it's not impossible to implement the
94  * "bignum" routines (and have the compiler optimize 'em)
95  * exhibiting "native" performance in C. That's what BN_UMULT_HIGH
96  * macro is about:-)
97  *
98  *                                      <appro@fy.chalmers.se>
99  */
100 # if defined(__alpha) && (defined(SIXTY_FOUR_BIT_LONG) || defined(SIXTY_FOUR_BIT))
101 #  if defined(__DECC)
102 #   include <c_asm.h>
103 #   define BN_UMULT_HIGH(a,b)   (BN_ULONG)asm("umulh %a0,%a1,%v0",(a),(b))
104 #  elif defined(__GNUC__)
105 #   define BN_UMULT_HIGH(a,b)   ({      \
106         register BN_ULONG ret;          \
107         asm ("umulh     %1,%2,%0"       \
108              : "=r"(ret)                \
109              : "r"(a), "r"(b));         \
110         ret;                    })
111 #  endif        /* compiler */
112 # elif defined(_ARCH_PPC) && defined(__64BIT__) && defined(SIXTY_FOUR_BIT_LONG)
113 #  if defined(__GNUC__)
114 #   define BN_UMULT_HIGH(a,b)   ({      \
115         register BN_ULONG ret;          \
116         asm ("mulhdu    %0,%1,%2"       \
117              : "=r"(ret)                \
118              : "r"(a), "r"(b));         \
119         ret;                    })
120 #  endif        /* compiler */
121 # endif         /* cpu */
122 #endif          /* NO_ASM */
123
124 /*************************************************************
125  * Using the long long type
126  */
127 #define Lw(t)    (((BN_ULONG)(t))&BN_MASK2)
128 #define Hw(t)    (((BN_ULONG)((t)>>BN_BITS2))&BN_MASK2)
129
130 /* This is used for internal error checking and is not normally used */
131 #ifdef BN_DEBUG
132 # include <assert.h>
133 # define bn_check_top(a) assert ((a)->top >= 0 && (a)->top <= (a)->max);
134 #else
135 # define bn_check_top(a)
136 #endif
137
138 /* This macro is to add extra stuff for development checking */
139 #ifdef BN_DEBUG
140 #define bn_set_max(r) ((r)->max=(r)->top,BN_set_flags((r),BN_FLG_STATIC_DATA))
141 #else
142 #define bn_set_max(r)
143 #endif
144
145 /* These macros are used to 'take' a section of a bignum for read only use */
146 #define bn_set_low(r,a,n) \
147         { \
148         (r)->top=((a)->top > (n))?(n):(a)->top; \
149         (r)->d=(a)->d; \
150         (r)->neg=(a)->neg; \
151         (r)->flags|=BN_FLG_STATIC_DATA; \
152         bn_set_max(r); \
153         }
154
155 #define bn_set_high(r,a,n) \
156         { \
157         if ((a)->top > (n)) \
158                 { \
159                 (r)->top=(a)->top-n; \
160                 (r)->d= &((a)->d[n]); \
161                 } \
162         else \
163                 (r)->top=0; \
164         (r)->neg=(a)->neg; \
165         (r)->flags|=BN_FLG_STATIC_DATA; \
166         bn_set_max(r); \
167         }
168
169 #ifdef BN_LLONG
170 #define mul_add(r,a,w,c) { \
171         BN_ULLONG t; \
172         t=(BN_ULLONG)w * (a) + (r) + (c); \
173         (r)= Lw(t); \
174         (c)= Hw(t); \
175         }
176
177 #define mul(r,a,w,c) { \
178         BN_ULLONG t; \
179         t=(BN_ULLONG)w * (a) + (c); \
180         (r)= Lw(t); \
181         (c)= Hw(t); \
182         }
183
184 #define sqr(r0,r1,a) { \
185         BN_ULLONG t; \
186         t=(BN_ULLONG)(a)*(a); \
187         (r0)=Lw(t); \
188         (r1)=Hw(t); \
189         }
190
191 #elif defined(BN_UMULT_HIGH)
192 #define mul_add(r,a,w,c) {              \
193         BN_ULONG high,low,ret,tmp=(a);  \
194         ret =  (r);                     \
195         high=  BN_UMULT_HIGH(w,tmp);    \
196         ret += (c);                     \
197         low =  (w) * tmp;               \
198         (c) =  (ret<(c))?1:0;           \
199         (c) += high;                    \
200         ret += low;                     \
201         (c) += (ret<low)?1:0;           \
202         (r) =  ret;                     \
203         }
204
205 #define mul(r,a,w,c)    {               \
206         BN_ULONG high,low,ret,ta=(a);   \
207         low =  (w) * ta;                \
208         high=  BN_UMULT_HIGH(w,ta);     \
209         ret =  low + (c);               \
210         (c) =  high;                    \
211         (c) += (ret<low)?1:0;           \
212         (r) =  ret;                     \
213         }
214
215 #define sqr(r0,r1,a)    {               \
216         BN_ULONG tmp=(a);               \
217         (r0) = tmp * tmp;               \
218         (r1) = BN_UMULT_HIGH(tmp,tmp);  \
219         }
220
221 #else
222 /*************************************************************
223  * No long long type
224  */
225
226 #define LBITS(a)        ((a)&BN_MASK2l)
227 #define HBITS(a)        (((a)>>BN_BITS4)&BN_MASK2l)
228 #define L2HBITS(a)      ((BN_ULONG)((a)&BN_MASK2l)<<BN_BITS4)
229
230 #define LLBITS(a)       ((a)&BN_MASKl)
231 #define LHBITS(a)       (((a)>>BN_BITS2)&BN_MASKl)
232 #define LL2HBITS(a)     ((BN_ULLONG)((a)&BN_MASKl)<<BN_BITS2)
233
234 #define mul64(l,h,bl,bh) \
235         { \
236         BN_ULONG m,m1,lt,ht; \
237  \
238         lt=l; \
239         ht=h; \
240         m =(bh)*(lt); \
241         lt=(bl)*(lt); \
242         m1=(bl)*(ht); \
243         ht =(bh)*(ht); \
244         m=(m+m1)&BN_MASK2; if (m < m1) ht+=L2HBITS(1L); \
245         ht+=HBITS(m); \
246         m1=L2HBITS(m); \
247         lt=(lt+m1)&BN_MASK2; if (lt < m1) ht++; \
248         (l)=lt; \
249         (h)=ht; \
250         }
251
252 #define sqr64(lo,ho,in) \
253         { \
254         BN_ULONG l,h,m; \
255  \
256         h=(in); \
257         l=LBITS(h); \
258         h=HBITS(h); \
259         m =(l)*(h); \
260         l*=l; \
261         h*=h; \
262         h+=(m&BN_MASK2h1)>>(BN_BITS4-1); \
263         m =(m&BN_MASK2l)<<(BN_BITS4+1); \
264         l=(l+m)&BN_MASK2; if (l < m) h++; \
265         (lo)=l; \
266         (ho)=h; \
267         }
268
269 #define mul_add(r,a,bl,bh,c) { \
270         BN_ULONG l,h; \
271  \
272         h= (a); \
273         l=LBITS(h); \
274         h=HBITS(h); \
275         mul64(l,h,(bl),(bh)); \
276  \
277         /* non-multiply part */ \
278         l=(l+(c))&BN_MASK2; if (l < (c)) h++; \
279         (c)=(r); \
280         l=(l+(c))&BN_MASK2; if (l < (c)) h++; \
281         (c)=h&BN_MASK2; \
282         (r)=l; \
283         }
284
285 #define mul(r,a,bl,bh,c) { \
286         BN_ULONG l,h; \
287  \
288         h= (a); \
289         l=LBITS(h); \
290         h=HBITS(h); \
291         mul64(l,h,(bl),(bh)); \
292  \
293         /* non-multiply part */ \
294         l+=(c); if ((l&BN_MASK2) < (c)) h++; \
295         (c)=h&BN_MASK2; \
296         (r)=l&BN_MASK2; \
297         }
298 #endif /* !BN_LLONG */
299
300 void bn_mul_normal(BN_ULONG *r,BN_ULONG *a,int na,BN_ULONG *b,int nb);
301 void bn_mul_comba8(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b);
302 void bn_mul_comba4(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b);
303 void bn_sqr_normal(BN_ULONG *r, BN_ULONG *a, int n, BN_ULONG *tmp);
304 void bn_sqr_comba8(BN_ULONG *r,BN_ULONG *a);
305 void bn_sqr_comba4(BN_ULONG *r,BN_ULONG *a);
306 int bn_cmp_words(BN_ULONG *a,BN_ULONG *b,int n);
307 void bn_mul_recursive(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,int n2,BN_ULONG *t);
308 void bn_mul_part_recursive(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,
309         int tn, int n,BN_ULONG *t);
310 void bn_sqr_recursive(BN_ULONG *r,BN_ULONG *a, int n2, BN_ULONG *t);
311 void bn_mul_low_normal(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b, int n);
312 void bn_mul_low_recursive(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,int n2,
313         BN_ULONG *t);
314 void bn_mul_high(BN_ULONG *r,BN_ULONG *a,BN_ULONG *b,BN_ULONG *l,int n2,
315         BN_ULONG *t);
316
317 #ifdef  __cplusplus
318 }
319 #endif
320
321 #endif