pkgconfig: Fix libgcrypt.pc.
[libgcrypt.git] / cipher / sha1.c
1 /* sha1.c - SHA1 hash function
2  * Copyright (C) 1998, 2001, 2002, 2003, 2008 Free Software Foundation, Inc.
3  *
4  * This file is part of Libgcrypt.
5  *
6  * Libgcrypt is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU Lesser General Public License as
8  * published by the Free Software Foundation; either version 2.1 of
9  * the License, or (at your option) any later version.
10  *
11  * Libgcrypt is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14  * GNU Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with this program; if not, see <http://www.gnu.org/licenses/>.
18  */
19
20
21 /*  Test vectors:
22  *
23  *  "abc"
24  *  A999 3E36 4706 816A BA3E  2571 7850 C26C 9CD0 D89D
25  *
26  *  "abcdbcdecdefdefgefghfghighijhijkijkljklmklmnlmnomnopnopq"
27  *  8498 3E44 1C3B D26E BAAE  4AA1 F951 29E5 E546 70F1
28  */
29
30
31 #include <config.h>
32 #include <stdio.h>
33 #include <stdlib.h>
34 #include <string.h>
35 #ifdef HAVE_STDINT_H
36 # include <stdint.h>
37 #endif
38
39 #include "g10lib.h"
40 #include "bithelp.h"
41 #include "bufhelp.h"
42 #include "cipher.h"
43 #include "sha1.h"
44
45
46 /* USE_SSSE3 indicates whether to compile with Intel SSSE3 code. */
47 #undef USE_SSSE3
48 #if defined(__x86_64__) && defined(HAVE_GCC_INLINE_ASM_SSSE3) && \
49     (defined(HAVE_COMPATIBLE_GCC_AMD64_PLATFORM_AS) || \
50      defined(HAVE_COMPATIBLE_GCC_WIN64_PLATFORM_AS))
51 # define USE_SSSE3 1
52 #endif
53
54 /* USE_AVX indicates whether to compile with Intel AVX code. */
55 #undef USE_AVX
56 #if defined(__x86_64__) && defined(HAVE_GCC_INLINE_ASM_AVX) && \
57     (defined(HAVE_COMPATIBLE_GCC_AMD64_PLATFORM_AS) || \
58      defined(HAVE_COMPATIBLE_GCC_WIN64_PLATFORM_AS))
59 # define USE_AVX 1
60 #endif
61
62 /* USE_BMI2 indicates whether to compile with Intel AVX/BMI2 code. */
63 #undef USE_BMI2
64 #if defined(__x86_64__) && defined(HAVE_GCC_INLINE_ASM_AVX) && \
65     defined(HAVE_GCC_INLINE_ASM_BMI2) && \
66     (defined(HAVE_COMPATIBLE_GCC_AMD64_PLATFORM_AS) || \
67      defined(HAVE_COMPATIBLE_GCC_WIN64_PLATFORM_AS))
68 # define USE_BMI2 1
69 #endif
70
71 /* USE_AVX2 indicates whether to compile with Intel AVX2/BMI2 code. */
72 #undef USE_AVX2
73 #if defined(USE_BMI2) && defined(HAVE_GCC_INLINE_ASM_AVX2)
74 # define USE_AVX2 1
75 #endif
76
77 /* USE_SHAEXT indicates whether to compile with Intel SHA Extension code. */
78 #undef USE_SHAEXT
79 #if defined(HAVE_GCC_INLINE_ASM_SHAEXT) && \
80     defined(HAVE_GCC_INLINE_ASM_SSE41) && \
81     defined(ENABLE_SHAEXT_SUPPORT)
82 # define USE_SHAEXT 1
83 #endif
84
85 /* USE_NEON indicates whether to enable ARM NEON assembly code. */
86 #undef USE_NEON
87 #ifdef ENABLE_NEON_SUPPORT
88 # if defined(HAVE_ARM_ARCH_V6) && defined(__ARMEL__) \
89      && defined(HAVE_COMPATIBLE_GCC_ARM_PLATFORM_AS) \
90      && defined(HAVE_GCC_INLINE_ASM_NEON)
91 #  define USE_NEON 1
92 # endif
93 #endif
94
95 /* USE_ARM_CE indicates whether to enable ARMv8 Crypto Extension assembly
96  * code. */
97 #undef USE_ARM_CE
98 #ifdef ENABLE_ARM_CRYPTO_SUPPORT
99 # if defined(HAVE_ARM_ARCH_V6) && defined(__ARMEL__) \
100      && defined(HAVE_COMPATIBLE_GCC_ARM_PLATFORM_AS) \
101      && defined(HAVE_GCC_INLINE_ASM_AARCH32_CRYPTO)
102 #  define USE_ARM_CE 1
103 # elif defined(__AARCH64EL__) \
104        && defined(HAVE_COMPATIBLE_GCC_AARCH64_PLATFORM_AS) \
105        && defined(HAVE_GCC_INLINE_ASM_AARCH64_CRYPTO)
106 #  define USE_ARM_CE 1
107 # endif
108 #endif
109
110 /* A macro to test whether P is properly aligned for an u32 type.
111    Note that config.h provides a suitable replacement for uintptr_t if
112    it does not exist in stdint.h.  */
113 /* #if __GNUC__ >= 2 */
114 /* # define U32_ALIGNED_P(p) (!(((uintptr_t)p) % __alignof__ (u32))) */
115 /* #else */
116 /* # define U32_ALIGNED_P(p) (!(((uintptr_t)p) % sizeof (u32))) */
117 /* #endif */
118
119
120
121 /* Assembly implementations use SystemV ABI, ABI conversion and additional
122  * stack to store XMM6-XMM15 needed on Win64. */
123 #undef ASM_FUNC_ABI
124 #undef ASM_EXTRA_STACK
125 #if defined(USE_SSSE3) || defined(USE_AVX) || defined(USE_BMI2) || \
126     defined(USE_SHAEXT)
127 # ifdef HAVE_COMPATIBLE_GCC_WIN64_PLATFORM_AS
128 #  define ASM_FUNC_ABI __attribute__((sysv_abi))
129 #  define ASM_EXTRA_STACK (10 * 16 + sizeof(void *) * 4)
130 # else
131 #  define ASM_FUNC_ABI
132 #  define ASM_EXTRA_STACK 0
133 # endif
134 #endif
135
136
137 #ifdef USE_SSSE3
138 unsigned int
139 _gcry_sha1_transform_amd64_ssse3 (void *state, const unsigned char *data,
140                                   size_t nblks) ASM_FUNC_ABI;
141
142 static unsigned int
143 do_sha1_transform_amd64_ssse3 (void *ctx, const unsigned char *data,
144                                size_t nblks)
145 {
146   SHA1_CONTEXT *hd = ctx;
147   return _gcry_sha1_transform_amd64_ssse3 (&hd->h0, data, nblks)
148          + ASM_EXTRA_STACK;
149 }
150 #endif
151
152 #ifdef USE_AVX
153 unsigned int
154 _gcry_sha1_transform_amd64_avx (void *state, const unsigned char *data,
155                                  size_t nblks) ASM_FUNC_ABI;
156
157 static unsigned int
158 do_sha1_transform_amd64_avx (void *ctx, const unsigned char *data,
159                              size_t nblks)
160 {
161   SHA1_CONTEXT *hd = ctx;
162   return _gcry_sha1_transform_amd64_avx (&hd->h0, data, nblks)
163          + ASM_EXTRA_STACK;
164 }
165 #endif
166
167 #ifdef USE_BMI2
168 unsigned int
169 _gcry_sha1_transform_amd64_avx_bmi2 (void *state, const unsigned char *data,
170                                      size_t nblks) ASM_FUNC_ABI;
171
172 static unsigned int
173 do_sha1_transform_amd64_avx_bmi2 (void *ctx, const unsigned char *data,
174                                   size_t nblks)
175 {
176   SHA1_CONTEXT *hd = ctx;
177   return _gcry_sha1_transform_amd64_avx_bmi2 (&hd->h0, data, nblks)
178          + ASM_EXTRA_STACK;
179 }
180
181 #ifdef USE_AVX2
182 unsigned int
183 _gcry_sha1_transform_amd64_avx2_bmi2 (void *state, const unsigned char *data,
184                                       size_t nblks) ASM_FUNC_ABI;
185
186 static unsigned int
187 do_sha1_transform_amd64_avx2_bmi2 (void *ctx, const unsigned char *data,
188                                    size_t nblks)
189 {
190   SHA1_CONTEXT *hd = ctx;
191
192   /* AVX2/BMI2 function only handles pair of blocks so nblks needs to be
193    * multiple of 2 and function does not handle zero nblks. Use AVX/BMI2
194    * code to handle these cases. */
195
196   if (nblks <= 1)
197     return do_sha1_transform_amd64_avx_bmi2 (ctx, data, nblks);
198
199   if (nblks & 1)
200     {
201       (void)_gcry_sha1_transform_amd64_avx_bmi2 (&hd->h0, data, 1);
202       nblks--;
203       data += 64;
204     }
205
206   return _gcry_sha1_transform_amd64_avx2_bmi2 (&hd->h0, data, nblks)
207          + ASM_EXTRA_STACK;
208 }
209 #endif /* USE_AVX2 */
210 #endif /* USE_BMI2 */
211
212 #ifdef USE_SHAEXT
213 /* Does not need ASM_FUNC_ABI */
214 unsigned int
215 _gcry_sha1_transform_intel_shaext (void *state, const unsigned char *data,
216                                    size_t nblks);
217
218 static unsigned int
219 do_sha1_transform_intel_shaext (void *ctx, const unsigned char *data,
220                                 size_t nblks)
221 {
222   SHA1_CONTEXT *hd = ctx;
223   return _gcry_sha1_transform_intel_shaext (&hd->h0, data, nblks);
224 }
225 #endif
226
227 #ifdef USE_NEON
228 unsigned int
229 _gcry_sha1_transform_armv7_neon (void *state, const unsigned char *data,
230                                  size_t nblks);
231
232 static unsigned int
233 do_sha1_transform_armv7_neon (void *ctx, const unsigned char *data,
234                               size_t nblks)
235 {
236   SHA1_CONTEXT *hd = ctx;
237   return _gcry_sha1_transform_armv7_neon (&hd->h0, data, nblks);
238 }
239 #endif
240
241 #ifdef USE_ARM_CE
242 unsigned int
243 _gcry_sha1_transform_armv8_ce (void *state, const unsigned char *data,
244                                size_t nblks);
245
246 static unsigned int
247 do_sha1_transform_armv8_ce (void *ctx, const unsigned char *data,
248                             size_t nblks)
249 {
250   SHA1_CONTEXT *hd = ctx;
251   return _gcry_sha1_transform_armv8_ce (&hd->h0, data, nblks);
252 }
253 #endif
254
255
256 static unsigned int
257 do_transform_generic (void *c, const unsigned char *data, size_t nblks);
258
259
260 static void
261 sha1_init (void *context, unsigned int flags)
262 {
263   SHA1_CONTEXT *hd = context;
264   unsigned int features = _gcry_get_hw_features ();
265
266   (void)flags;
267
268   hd->h0 = 0x67452301;
269   hd->h1 = 0xefcdab89;
270   hd->h2 = 0x98badcfe;
271   hd->h3 = 0x10325476;
272   hd->h4 = 0xc3d2e1f0;
273
274   hd->bctx.nblocks = 0;
275   hd->bctx.nblocks_high = 0;
276   hd->bctx.count = 0;
277   hd->bctx.blocksize = 64;
278
279   /* Order of feature checks is important here; last match will be
280    * selected.  Keep slower implementations at the top and faster at
281    * the bottom.  */
282   hd->bctx.bwrite = do_transform_generic;
283 #ifdef USE_SSSE3
284   if ((features & HWF_INTEL_SSSE3) != 0)
285     hd->bctx.bwrite = do_sha1_transform_amd64_ssse3;
286 #endif
287 #ifdef USE_AVX
288   /* AVX implementation uses SHLD which is known to be slow on non-Intel CPUs.
289    * Therefore use this implementation on Intel CPUs only. */
290   if ((features & HWF_INTEL_AVX) && (features & HWF_INTEL_FAST_SHLD))
291     hd->bctx.bwrite = do_sha1_transform_amd64_avx;
292 #endif
293 #ifdef USE_BMI2
294   if ((features & HWF_INTEL_AVX) && (features & HWF_INTEL_BMI2))
295     hd->bctx.bwrite = do_sha1_transform_amd64_avx_bmi2;
296 #endif
297 #ifdef USE_AVX2
298   if ((features & HWF_INTEL_AVX2) && (features & HWF_INTEL_AVX) &&
299       (features & HWF_INTEL_BMI2))
300     hd->bctx.bwrite = do_sha1_transform_amd64_avx2_bmi2;
301 #endif
302 #ifdef USE_SHAEXT
303   if ((features & HWF_INTEL_SHAEXT) && (features & HWF_INTEL_SSE4_1))
304     hd->bctx.bwrite = do_sha1_transform_intel_shaext;
305 #endif
306 #ifdef USE_NEON
307   if ((features & HWF_ARM_NEON) != 0)
308     hd->bctx.bwrite = do_sha1_transform_armv7_neon;
309 #endif
310 #ifdef USE_ARM_CE
311   if ((features & HWF_ARM_SHA1) != 0)
312     hd->bctx.bwrite = do_sha1_transform_armv8_ce;
313 #endif
314
315   (void)features;
316 }
317
318 /*
319  * Initialize the context HD. This is used to prepare the use of
320  * _gcry_sha1_mixblock.  WARNING: This is a special purpose function
321  * for exclusive use by random-csprng.c.
322  */
323 void
324 _gcry_sha1_mixblock_init (SHA1_CONTEXT *hd)
325 {
326   sha1_init (hd, 0);
327 }
328
329
330 /* Round function macros. */
331 #define K1  0x5A827999L
332 #define K2  0x6ED9EBA1L
333 #define K3  0x8F1BBCDCL
334 #define K4  0xCA62C1D6L
335 #define F1(x,y,z)   ( z ^ ( x & ( y ^ z ) ) )
336 #define F2(x,y,z)   ( x ^ y ^ z )
337 #define F3(x,y,z)   ( ( x & y ) | ( z & ( x | y ) ) )
338 #define F4(x,y,z)   ( x ^ y ^ z )
339 #define M(i) ( tm =    x[ i    &0x0f]  \
340                      ^ x[(i-14)&0x0f]  \
341                      ^ x[(i-8) &0x0f]  \
342                      ^ x[(i-3) &0x0f], \
343                      (x[i&0x0f] = rol(tm, 1)))
344 #define R(a,b,c,d,e,f,k,m)  do { e += rol( a, 5 )     \
345                                       + f( b, c, d )  \
346                                       + k             \
347                                       + m;            \
348                                  b = rol( b, 30 );    \
349                                } while(0)
350
351 /*
352  * Transform NBLOCKS of each 64 bytes (16 32-bit words) at DATA.
353  */
354 static unsigned int
355 do_transform_generic (void *ctx, const unsigned char *data, size_t nblks)
356 {
357   SHA1_CONTEXT *hd = ctx;
358
359   do
360     {
361       const u32 *idata = (const void *)data;
362       u32 a, b, c, d, e; /* Local copies of the chaining variables.  */
363       u32 tm;            /* Helper.  */
364       u32 x[16];         /* The array we work on. */
365
366 #define I(i) (x[i] = buf_get_be32(idata + i))
367
368       /* Get the values of the chaining variables. */
369       a = hd->h0;
370       b = hd->h1;
371       c = hd->h2;
372       d = hd->h3;
373       e = hd->h4;
374
375       /* Transform. */
376       R( a, b, c, d, e, F1, K1, I( 0) );
377       R( e, a, b, c, d, F1, K1, I( 1) );
378       R( d, e, a, b, c, F1, K1, I( 2) );
379       R( c, d, e, a, b, F1, K1, I( 3) );
380       R( b, c, d, e, a, F1, K1, I( 4) );
381       R( a, b, c, d, e, F1, K1, I( 5) );
382       R( e, a, b, c, d, F1, K1, I( 6) );
383       R( d, e, a, b, c, F1, K1, I( 7) );
384       R( c, d, e, a, b, F1, K1, I( 8) );
385       R( b, c, d, e, a, F1, K1, I( 9) );
386       R( a, b, c, d, e, F1, K1, I(10) );
387       R( e, a, b, c, d, F1, K1, I(11) );
388       R( d, e, a, b, c, F1, K1, I(12) );
389       R( c, d, e, a, b, F1, K1, I(13) );
390       R( b, c, d, e, a, F1, K1, I(14) );
391       R( a, b, c, d, e, F1, K1, I(15) );
392       R( e, a, b, c, d, F1, K1, M(16) );
393       R( d, e, a, b, c, F1, K1, M(17) );
394       R( c, d, e, a, b, F1, K1, M(18) );
395       R( b, c, d, e, a, F1, K1, M(19) );
396       R( a, b, c, d, e, F2, K2, M(20) );
397       R( e, a, b, c, d, F2, K2, M(21) );
398       R( d, e, a, b, c, F2, K2, M(22) );
399       R( c, d, e, a, b, F2, K2, M(23) );
400       R( b, c, d, e, a, F2, K2, M(24) );
401       R( a, b, c, d, e, F2, K2, M(25) );
402       R( e, a, b, c, d, F2, K2, M(26) );
403       R( d, e, a, b, c, F2, K2, M(27) );
404       R( c, d, e, a, b, F2, K2, M(28) );
405       R( b, c, d, e, a, F2, K2, M(29) );
406       R( a, b, c, d, e, F2, K2, M(30) );
407       R( e, a, b, c, d, F2, K2, M(31) );
408       R( d, e, a, b, c, F2, K2, M(32) );
409       R( c, d, e, a, b, F2, K2, M(33) );
410       R( b, c, d, e, a, F2, K2, M(34) );
411       R( a, b, c, d, e, F2, K2, M(35) );
412       R( e, a, b, c, d, F2, K2, M(36) );
413       R( d, e, a, b, c, F2, K2, M(37) );
414       R( c, d, e, a, b, F2, K2, M(38) );
415       R( b, c, d, e, a, F2, K2, M(39) );
416       R( a, b, c, d, e, F3, K3, M(40) );
417       R( e, a, b, c, d, F3, K3, M(41) );
418       R( d, e, a, b, c, F3, K3, M(42) );
419       R( c, d, e, a, b, F3, K3, M(43) );
420       R( b, c, d, e, a, F3, K3, M(44) );
421       R( a, b, c, d, e, F3, K3, M(45) );
422       R( e, a, b, c, d, F3, K3, M(46) );
423       R( d, e, a, b, c, F3, K3, M(47) );
424       R( c, d, e, a, b, F3, K3, M(48) );
425       R( b, c, d, e, a, F3, K3, M(49) );
426       R( a, b, c, d, e, F3, K3, M(50) );
427       R( e, a, b, c, d, F3, K3, M(51) );
428       R( d, e, a, b, c, F3, K3, M(52) );
429       R( c, d, e, a, b, F3, K3, M(53) );
430       R( b, c, d, e, a, F3, K3, M(54) );
431       R( a, b, c, d, e, F3, K3, M(55) );
432       R( e, a, b, c, d, F3, K3, M(56) );
433       R( d, e, a, b, c, F3, K3, M(57) );
434       R( c, d, e, a, b, F3, K3, M(58) );
435       R( b, c, d, e, a, F3, K3, M(59) );
436       R( a, b, c, d, e, F4, K4, M(60) );
437       R( e, a, b, c, d, F4, K4, M(61) );
438       R( d, e, a, b, c, F4, K4, M(62) );
439       R( c, d, e, a, b, F4, K4, M(63) );
440       R( b, c, d, e, a, F4, K4, M(64) );
441       R( a, b, c, d, e, F4, K4, M(65) );
442       R( e, a, b, c, d, F4, K4, M(66) );
443       R( d, e, a, b, c, F4, K4, M(67) );
444       R( c, d, e, a, b, F4, K4, M(68) );
445       R( b, c, d, e, a, F4, K4, M(69) );
446       R( a, b, c, d, e, F4, K4, M(70) );
447       R( e, a, b, c, d, F4, K4, M(71) );
448       R( d, e, a, b, c, F4, K4, M(72) );
449       R( c, d, e, a, b, F4, K4, M(73) );
450       R( b, c, d, e, a, F4, K4, M(74) );
451       R( a, b, c, d, e, F4, K4, M(75) );
452       R( e, a, b, c, d, F4, K4, M(76) );
453       R( d, e, a, b, c, F4, K4, M(77) );
454       R( c, d, e, a, b, F4, K4, M(78) );
455       R( b, c, d, e, a, F4, K4, M(79) );
456
457       /* Update the chaining variables. */
458       hd->h0 += a;
459       hd->h1 += b;
460       hd->h2 += c;
461       hd->h3 += d;
462       hd->h4 += e;
463
464       data += 64;
465     }
466   while (--nblks);
467
468   return 88+4*sizeof(void*);
469 }
470
471
472 /*
473  * Apply the SHA-1 transform function on the buffer BLOCKOF64BYTE
474  * which must have a length 64 bytes.  BLOCKOF64BYTE must be 32-bit
475  * aligned.  Updates the 20 bytes in BLOCKOF64BYTE with its mixed
476  * content.  Returns the number of bytes which should be burned on the
477  * stack.  You need to use _gcry_sha1_mixblock_init to initialize the
478  * context.
479  * WARNING: This is a special purpose function for exclusive use by
480  * random-csprng.c.
481  */
482 unsigned int
483 _gcry_sha1_mixblock (SHA1_CONTEXT *hd, void *blockof64byte)
484 {
485   u32 *p = blockof64byte;
486   unsigned int nburn;
487
488   nburn = (*hd->bctx.bwrite) (hd, blockof64byte, 1);
489   p[0] = hd->h0;
490   p[1] = hd->h1;
491   p[2] = hd->h2;
492   p[3] = hd->h3;
493   p[4] = hd->h4;
494
495   return nburn;
496 }
497
498
499 /* The routine final terminates the computation and
500  * returns the digest.
501  * The handle is prepared for a new cycle, but adding bytes to the
502  * handle will the destroy the returned buffer.
503  * Returns: 20 bytes representing the digest.
504  */
505
506 static void
507 sha1_final(void *context)
508 {
509   SHA1_CONTEXT *hd = context;
510   u32 t, th, msb, lsb;
511   unsigned char *p;
512   unsigned int burn;
513
514   t = hd->bctx.nblocks;
515   if (sizeof t == sizeof hd->bctx.nblocks)
516     th = hd->bctx.nblocks_high;
517   else
518     th = hd->bctx.nblocks >> 32;
519
520   /* multiply by 64 to make a byte count */
521   lsb = t << 6;
522   msb = (th << 6) | (t >> 26);
523   /* add the count */
524   t = lsb;
525   if( (lsb += hd->bctx.count) < t )
526     msb++;
527   /* multiply by 8 to make a bit count */
528   t = lsb;
529   lsb <<= 3;
530   msb <<= 3;
531   msb |= t >> 29;
532
533   if (hd->bctx.count < 56)  /* enough room */
534     {
535       hd->bctx.buf[hd->bctx.count++] = 0x80; /* pad */
536       if (hd->bctx.count < 56)
537         memset (&hd->bctx.buf[hd->bctx.count], 0, 56 - hd->bctx.count);
538       hd->bctx.count = 56;
539
540       /* append the 64 bit count */
541       buf_put_be32(hd->bctx.buf + 56, msb);
542       buf_put_be32(hd->bctx.buf + 60, lsb);
543       burn = (*hd->bctx.bwrite) ( hd, hd->bctx.buf, 1 );
544     }
545   else  /* need one extra block */
546     {
547       hd->bctx.buf[hd->bctx.count++] = 0x80; /* pad character */
548       /* fill pad and next block with zeroes */
549       memset (&hd->bctx.buf[hd->bctx.count], 0, 64 - hd->bctx.count + 56);
550       hd->bctx.count = 64 + 56;
551
552       /* append the 64 bit count */
553       buf_put_be32(hd->bctx.buf + 64 + 56, msb);
554       buf_put_be32(hd->bctx.buf + 64 + 60, lsb);
555       burn = (*hd->bctx.bwrite) ( hd, hd->bctx.buf, 2 );
556     }
557
558   p = hd->bctx.buf;
559 #define X(a) do { buf_put_be32(p, hd->h##a); p += 4; } while(0)
560   X(0);
561   X(1);
562   X(2);
563   X(3);
564   X(4);
565 #undef X
566
567   _gcry_burn_stack (burn);
568 }
569
570 static unsigned char *
571 sha1_read( void *context )
572 {
573   SHA1_CONTEXT *hd = context;
574
575   return hd->bctx.buf;
576 }
577
578 /****************
579  * Shortcut functions which puts the hash value of the supplied buffer
580  * into outbuf which must have a size of 20 bytes.
581  */
582 void
583 _gcry_sha1_hash_buffer (void *outbuf, const void *buffer, size_t length)
584 {
585   SHA1_CONTEXT hd;
586
587   sha1_init (&hd, 0);
588   _gcry_md_block_write (&hd, buffer, length);
589   sha1_final (&hd);
590   memcpy (outbuf, hd.bctx.buf, 20);
591 }
592
593
594 /* Variant of the above shortcut function using a multiple buffers.  */
595 void
596 _gcry_sha1_hash_buffers (void *outbuf, const gcry_buffer_t *iov, int iovcnt)
597 {
598   SHA1_CONTEXT hd;
599
600   sha1_init (&hd, 0);
601   for (;iovcnt > 0; iov++, iovcnt--)
602     _gcry_md_block_write (&hd,
603                           (const char*)iov[0].data + iov[0].off, iov[0].len);
604   sha1_final (&hd);
605   memcpy (outbuf, hd.bctx.buf, 20);
606 }
607
608
609 \f
610 /*
611      Self-test section.
612  */
613
614
615 static gpg_err_code_t
616 selftests_sha1 (int extended, selftest_report_func_t report)
617 {
618   const char *what;
619   const char *errtxt;
620
621   what = "short string";
622   errtxt = _gcry_hash_selftest_check_one
623     (GCRY_MD_SHA1, 0,
624      "abc", 3,
625      "\xA9\x99\x3E\x36\x47\x06\x81\x6A\xBA\x3E"
626      "\x25\x71\x78\x50\xC2\x6C\x9C\xD0\xD8\x9D", 20);
627   if (errtxt)
628     goto failed;
629
630   if (extended)
631     {
632       what = "long string";
633       errtxt = _gcry_hash_selftest_check_one
634         (GCRY_MD_SHA1, 0,
635          "abcdbcdecdefdefgefghfghighijhijkijkljklmklmnlmnomnopnopq", 56,
636          "\x84\x98\x3E\x44\x1C\x3B\xD2\x6E\xBA\xAE"
637          "\x4A\xA1\xF9\x51\x29\xE5\xE5\x46\x70\xF1", 20);
638       if (errtxt)
639         goto failed;
640
641       what = "one million \"a\"";
642       errtxt = _gcry_hash_selftest_check_one
643         (GCRY_MD_SHA1, 1,
644          NULL, 0,
645          "\x34\xAA\x97\x3C\xD4\xC4\xDA\xA4\xF6\x1E"
646          "\xEB\x2B\xDB\xAD\x27\x31\x65\x34\x01\x6F", 20);
647       if (errtxt)
648         goto failed;
649     }
650
651   return 0; /* Succeeded. */
652
653  failed:
654   if (report)
655     report ("digest", GCRY_MD_SHA1, what, errtxt);
656   return GPG_ERR_SELFTEST_FAILED;
657 }
658
659
660 /* Run a full self-test for ALGO and return 0 on success.  */
661 static gpg_err_code_t
662 run_selftests (int algo, int extended, selftest_report_func_t report)
663 {
664   gpg_err_code_t ec;
665
666   switch (algo)
667     {
668     case GCRY_MD_SHA1:
669       ec = selftests_sha1 (extended, report);
670       break;
671     default:
672       ec = GPG_ERR_DIGEST_ALGO;
673       break;
674
675     }
676   return ec;
677 }
678
679
680
681 \f
682 static unsigned char asn[15] = /* Object ID is 1.3.14.3.2.26 */
683   { 0x30, 0x21, 0x30, 0x09, 0x06, 0x05, 0x2b, 0x0e, 0x03,
684     0x02, 0x1a, 0x05, 0x00, 0x04, 0x14 };
685
686 static gcry_md_oid_spec_t oid_spec_sha1[] =
687   {
688     /* iso.member-body.us.rsadsi.pkcs.pkcs-1.5 (sha1WithRSAEncryption) */
689     { "1.2.840.113549.1.1.5" },
690     /* iso.member-body.us.x9-57.x9cm.3 (dsaWithSha1)*/
691     { "1.2.840.10040.4.3" },
692     /* from NIST's OIW  (sha1) */
693     { "1.3.14.3.2.26" },
694     /* from NIST OIW (sha-1WithRSAEncryption) */
695     { "1.3.14.3.2.29" },
696     /* iso.member-body.us.ansi-x9-62.signatures.ecdsa-with-sha1 */
697     { "1.2.840.10045.4.1" },
698     { NULL },
699   };
700
701 gcry_md_spec_t _gcry_digest_spec_sha1 =
702   {
703     GCRY_MD_SHA1, {0, 1},
704     "SHA1", asn, DIM (asn), oid_spec_sha1, 20,
705     sha1_init, _gcry_md_block_write, sha1_final, sha1_read, NULL,
706     _gcry_sha1_hash_buffer, _gcry_sha1_hash_buffers,
707     sizeof (SHA1_CONTEXT),
708     run_selftests
709   };