Unify sparcv9 assembler naming and build rules among 32- and 64-bit builds.
[openssl.git] / crypto / md5 / md5_locl.h
1 /* crypto/md5/md5_locl.h */
2 /* Copyright (C) 1995-1998 Eric Young (eay@cryptsoft.com)
3  * All rights reserved.
4  *
5  * This package is an SSL implementation written
6  * by Eric Young (eay@cryptsoft.com).
7  * The implementation was written so as to conform with Netscapes SSL.
8  * 
9  * This library is free for commercial and non-commercial use as long as
10  * the following conditions are aheared to.  The following conditions
11  * apply to all code found in this distribution, be it the RC4, RSA,
12  * lhash, DES, etc., code; not just the SSL code.  The SSL documentation
13  * included with this distribution is covered by the same copyright terms
14  * except that the holder is Tim Hudson (tjh@cryptsoft.com).
15  * 
16  * Copyright remains Eric Young's, and as such any Copyright notices in
17  * the code are not to be removed.
18  * If this package is used in a product, Eric Young should be given attribution
19  * as the author of the parts of the library used.
20  * This can be in the form of a textual message at program startup or
21  * in documentation (online or textual) provided with the package.
22  * 
23  * Redistribution and use in source and binary forms, with or without
24  * modification, are permitted provided that the following conditions
25  * are met:
26  * 1. Redistributions of source code must retain the copyright
27  *    notice, this list of conditions and the following disclaimer.
28  * 2. Redistributions in binary form must reproduce the above copyright
29  *    notice, this list of conditions and the following disclaimer in the
30  *    documentation and/or other materials provided with the distribution.
31  * 3. All advertising materials mentioning features or use of this software
32  *    must display the following acknowledgement:
33  *    "This product includes cryptographic software written by
34  *     Eric Young (eay@cryptsoft.com)"
35  *    The word 'cryptographic' can be left out if the rouines from the library
36  *    being used are not cryptographic related :-).
37  * 4. If you include any Windows specific code (or a derivative thereof) from 
38  *    the apps directory (application code) you must include an acknowledgement:
39  *    "This product includes software written by Tim Hudson (tjh@cryptsoft.com)"
40  * 
41  * THIS SOFTWARE IS PROVIDED BY ERIC YOUNG ``AS IS'' AND
42  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
43  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
44  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
45  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
46  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
47  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
48  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
49  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
50  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
51  * SUCH DAMAGE.
52  * 
53  * The licence and distribution terms for any publically available version or
54  * derivative of this code cannot be changed.  i.e. this code cannot simply be
55  * copied and put under another distribution licence
56  * [including the GNU Public Licence.]
57  */
58
59 #include <stdlib.h>
60 #include <string.h>
61 #include <openssl/e_os2.h>
62 #include <openssl/md5.h>
63
64 #ifndef MD5_LONG_LOG2
65 #define MD5_LONG_LOG2 2 /* default to 32 bits */
66 #endif
67
68 #ifdef MD5_ASM
69 # if defined(__i386) || defined(__i386__) || defined(_M_IX86) || defined(__INTEL__) || \
70      defined(__x86_64) || defined(__x86_64__) || defined(_M_AMD64) || defined(_M_X64)
71 #  define md5_block_host_order md5_block_asm_host_order
72 # elif defined(__sparc) && defined(OPENSSL_SYS_ULTRASPARC)
73    void md5_block_asm_data_order_aligned (MD5_CTX *c, const MD5_LONG *p,size_t num);
74 #  define HASH_BLOCK_DATA_ORDER_ALIGNED md5_block_asm_data_order_aligned
75 # elif defined(__ia64) || defined(__ia64__) || defined(_M_IA64)
76 #  define md5_block_host_order md5_block_asm_host_order
77 #  define md5_block_data_order md5_block_asm_data_order
78 # endif
79 #endif
80
81 void md5_block_host_order (MD5_CTX *c, const void *p,size_t num);
82 void md5_block_data_order (MD5_CTX *c, const void *p,size_t num);
83
84 #if defined(__i386) || defined(__i386__) || defined(_M_IX86) || defined(__INTEL__) || \
85     defined(__x86_64) || defined(__x86_64__) || defined(_M_AMD64) || defined(_M_X64)
86 # if !defined(B_ENDIAN)
87 /*
88  * *_block_host_order is expected to handle aligned data while
89  * *_block_data_order - unaligned. As algorithm and host (x86)
90  * are in this case of the same "endianness" these two are
91  * otherwise indistinguishable. But normally you don't want to
92  * call the same function because unaligned access in places
93  * where alignment is expected is usually a "Bad Thing". Indeed,
94  * on RISCs you get punished with BUS ERROR signal or *severe*
95  * performance degradation. Intel CPUs are in turn perfectly
96  * capable of loading unaligned data without such drastic side
97  * effect. Yes, they say it's slower than aligned load, but no
98  * exception is generated and therefore performance degradation
99  * is *incomparable* with RISCs. What we should weight here is
100  * costs of unaligned access against costs of aligning data.
101  * According to my measurements allowing unaligned access results
102  * in ~9% performance improvement on Pentium II operating at
103  * 266MHz. I won't be surprised if the difference will be higher
104  * on faster systems:-)
105  *
106  *                              <appro@fy.chalmers.se>
107  */
108 # define md5_block_data_order md5_block_host_order
109 # endif
110 #endif
111
112 #define DATA_ORDER_IS_LITTLE_ENDIAN
113
114 #define HASH_LONG               MD5_LONG
115 #define HASH_LONG_LOG2          MD5_LONG_LOG2
116 #define HASH_CTX                MD5_CTX
117 #define HASH_CBLOCK             MD5_CBLOCK
118 #define HASH_LBLOCK             MD5_LBLOCK
119 #define HASH_UPDATE             MD5_Update
120 #define HASH_TRANSFORM          MD5_Transform
121 #define HASH_FINAL              MD5_Final
122 #define HASH_MAKE_STRING(c,s)   do {    \
123         unsigned long ll;               \
124         ll=(c)->A; HOST_l2c(ll,(s));    \
125         ll=(c)->B; HOST_l2c(ll,(s));    \
126         ll=(c)->C; HOST_l2c(ll,(s));    \
127         ll=(c)->D; HOST_l2c(ll,(s));    \
128         } while (0)
129 #define HASH_BLOCK_HOST_ORDER   md5_block_host_order
130 #if !defined(L_ENDIAN) || defined(md5_block_data_order)
131 #define HASH_BLOCK_DATA_ORDER   md5_block_data_order
132 /*
133  * Little-endians (Intel and Alpha) feel better without this.
134  * It looks like memcpy does better job than generic
135  * md5_block_data_order on copying-n-aligning input data.
136  * But frankly speaking I didn't expect such result on Alpha.
137  * On the other hand I've got this with egcs-1.0.2 and if
138  * program is compiled with another (better?) compiler it
139  * might turn out other way around.
140  *
141  *                              <appro@fy.chalmers.se>
142  */
143 #endif
144
145 #include "md32_common.h"
146
147 /*
148 #define F(x,y,z)        (((x) & (y))  |  ((~(x)) & (z)))
149 #define G(x,y,z)        (((x) & (z))  |  ((y) & (~(z))))
150 */
151
152 /* As pointed out by Wei Dai <weidai@eskimo.com>, the above can be
153  * simplified to the code below.  Wei attributes these optimizations
154  * to Peter Gutmann's SHS code, and he attributes it to Rich Schroeppel.
155  */
156 #define F(b,c,d)        ((((c) ^ (d)) & (b)) ^ (d))
157 #define G(b,c,d)        ((((b) ^ (c)) & (d)) ^ (c))
158 #define H(b,c,d)        ((b) ^ (c) ^ (d))
159 #define I(b,c,d)        (((~(d)) | (b)) ^ (c))
160
161 #define R0(a,b,c,d,k,s,t) { \
162         a+=((k)+(t)+F((b),(c),(d))); \
163         a=ROTATE(a,s); \
164         a+=b; };\
165
166 #define R1(a,b,c,d,k,s,t) { \
167         a+=((k)+(t)+G((b),(c),(d))); \
168         a=ROTATE(a,s); \
169         a+=b; };
170
171 #define R2(a,b,c,d,k,s,t) { \
172         a+=((k)+(t)+H((b),(c),(d))); \
173         a=ROTATE(a,s); \
174         a+=b; };
175
176 #define R3(a,b,c,d,k,s,t) { \
177         a+=((k)+(t)+I((b),(c),(d))); \
178         a=ROTATE(a,s); \
179         a+=b; };