123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436 |
- #if defined(ED25519_GCC_64BIT_SSE_CHOOSE)
- #define HAVE_GE25519_SCALARMULT_BASE_CHOOSE_NIELS
- DONNA_NOINLINE static void
- ge25519_scalarmult_base_choose_niels(ge25519_niels *t, const uint8_t table[256][96], uint32_t pos, signed char b) {
- int64_t breg = (int64_t)b;
- uint64_t sign = (uint64_t)breg >> 63;
- uint64_t mask = ~(sign - 1);
- uint64_t u = (breg + mask) ^ mask;
- __asm__ __volatile__ (
- /* ysubx+xaddy+t2d */
- "movq %0, %%rax ;\n"
- "movd %%rax, %%xmm14 ;\n"
- "pshufd $0x00, %%xmm14, %%xmm14 ;\n"
- "pxor %%xmm0, %%xmm0 ;\n"
- "pxor %%xmm1, %%xmm1 ;\n"
- "pxor %%xmm2, %%xmm2 ;\n"
- "pxor %%xmm3, %%xmm3 ;\n"
- "pxor %%xmm4, %%xmm4 ;\n"
- "pxor %%xmm5, %%xmm5 ;\n"
- /* 0 */
- "movq $0, %%rax ;\n"
- "movd %%rax, %%xmm15 ;\n"
- "pshufd $0x00, %%xmm15, %%xmm15 ;\n"
- "pcmpeqd %%xmm14, %%xmm15 ;\n"
- "movq $1, %%rax ;\n"
- "movd %%rax, %%xmm6 ;\n"
- "pxor %%xmm7, %%xmm7 ;\n"
- "pand %%xmm15, %%xmm6 ;\n"
- "pand %%xmm15, %%xmm7 ;\n"
- "por %%xmm6, %%xmm0 ;\n"
- "por %%xmm7, %%xmm1 ;\n"
- "por %%xmm6, %%xmm2 ;\n"
- "por %%xmm7, %%xmm3 ;\n"
- /* 1 */
- "movq $1, %%rax ;\n"
- "movd %%rax, %%xmm15 ;\n"
- "pshufd $0x00, %%xmm15, %%xmm15 ;\n"
- "pcmpeqd %%xmm14, %%xmm15 ;\n"
- "movdqa 0(%1), %%xmm6 ;\n"
- "movdqa 16(%1), %%xmm7 ;\n"
- "movdqa 32(%1), %%xmm8 ;\n"
- "movdqa 48(%1), %%xmm9 ;\n"
- "movdqa 64(%1), %%xmm10 ;\n"
- "movdqa 80(%1), %%xmm11 ;\n"
- "pand %%xmm15, %%xmm6 ;\n"
- "pand %%xmm15, %%xmm7 ;\n"
- "pand %%xmm15, %%xmm8 ;\n"
- "pand %%xmm15, %%xmm9 ;\n"
- "pand %%xmm15, %%xmm10 ;\n"
- "pand %%xmm15, %%xmm11 ;\n"
- "por %%xmm6, %%xmm0 ;\n"
- "por %%xmm7, %%xmm1 ;\n"
- "por %%xmm8, %%xmm2 ;\n"
- "por %%xmm9, %%xmm3 ;\n"
- "por %%xmm10, %%xmm4 ;\n"
- "por %%xmm11, %%xmm5 ;\n"
- /* 2 */
- "movq $2, %%rax ;\n"
- "movd %%rax, %%xmm15 ;\n"
- "pshufd $0x00, %%xmm15, %%xmm15 ;\n"
- "pcmpeqd %%xmm14, %%xmm15 ;\n"
- "movdqa 96(%1), %%xmm6 ;\n"
- "movdqa 112(%1), %%xmm7 ;\n"
- "movdqa 128(%1), %%xmm8 ;\n"
- "movdqa 144(%1), %%xmm9 ;\n"
- "movdqa 160(%1), %%xmm10 ;\n"
- "movdqa 176(%1), %%xmm11 ;\n"
- "pand %%xmm15, %%xmm6 ;\n"
- "pand %%xmm15, %%xmm7 ;\n"
- "pand %%xmm15, %%xmm8 ;\n"
- "pand %%xmm15, %%xmm9 ;\n"
- "pand %%xmm15, %%xmm10 ;\n"
- "pand %%xmm15, %%xmm11 ;\n"
- "por %%xmm6, %%xmm0 ;\n"
- "por %%xmm7, %%xmm1 ;\n"
- "por %%xmm8, %%xmm2 ;\n"
- "por %%xmm9, %%xmm3 ;\n"
- "por %%xmm10, %%xmm4 ;\n"
- "por %%xmm11, %%xmm5 ;\n"
- /* 3 */
- "movq $3, %%rax ;\n"
- "movd %%rax, %%xmm15 ;\n"
- "pshufd $0x00, %%xmm15, %%xmm15 ;\n"
- "pcmpeqd %%xmm14, %%xmm15 ;\n"
- "movdqa 192(%1), %%xmm6 ;\n"
- "movdqa 208(%1), %%xmm7 ;\n"
- "movdqa 224(%1), %%xmm8 ;\n"
- "movdqa 240(%1), %%xmm9 ;\n"
- "movdqa 256(%1), %%xmm10 ;\n"
- "movdqa 272(%1), %%xmm11 ;\n"
- "pand %%xmm15, %%xmm6 ;\n"
- "pand %%xmm15, %%xmm7 ;\n"
- "pand %%xmm15, %%xmm8 ;\n"
- "pand %%xmm15, %%xmm9 ;\n"
- "pand %%xmm15, %%xmm10 ;\n"
- "pand %%xmm15, %%xmm11 ;\n"
- "por %%xmm6, %%xmm0 ;\n"
- "por %%xmm7, %%xmm1 ;\n"
- "por %%xmm8, %%xmm2 ;\n"
- "por %%xmm9, %%xmm3 ;\n"
- "por %%xmm10, %%xmm4 ;\n"
- "por %%xmm11, %%xmm5 ;\n"
- /* 4 */
- "movq $4, %%rax ;\n"
- "movd %%rax, %%xmm15 ;\n"
- "pshufd $0x00, %%xmm15, %%xmm15 ;\n"
- "pcmpeqd %%xmm14, %%xmm15 ;\n"
- "movdqa 288(%1), %%xmm6 ;\n"
- "movdqa 304(%1), %%xmm7 ;\n"
- "movdqa 320(%1), %%xmm8 ;\n"
- "movdqa 336(%1), %%xmm9 ;\n"
- "movdqa 352(%1), %%xmm10 ;\n"
- "movdqa 368(%1), %%xmm11 ;\n"
- "pand %%xmm15, %%xmm6 ;\n"
- "pand %%xmm15, %%xmm7 ;\n"
- "pand %%xmm15, %%xmm8 ;\n"
- "pand %%xmm15, %%xmm9 ;\n"
- "pand %%xmm15, %%xmm10 ;\n"
- "pand %%xmm15, %%xmm11 ;\n"
- "por %%xmm6, %%xmm0 ;\n"
- "por %%xmm7, %%xmm1 ;\n"
- "por %%xmm8, %%xmm2 ;\n"
- "por %%xmm9, %%xmm3 ;\n"
- "por %%xmm10, %%xmm4 ;\n"
- "por %%xmm11, %%xmm5 ;\n"
- /* 5 */
- "movq $5, %%rax ;\n"
- "movd %%rax, %%xmm15 ;\n"
- "pshufd $0x00, %%xmm15, %%xmm15 ;\n"
- "pcmpeqd %%xmm14, %%xmm15 ;\n"
- "movdqa 384(%1), %%xmm6 ;\n"
- "movdqa 400(%1), %%xmm7 ;\n"
- "movdqa 416(%1), %%xmm8 ;\n"
- "movdqa 432(%1), %%xmm9 ;\n"
- "movdqa 448(%1), %%xmm10 ;\n"
- "movdqa 464(%1), %%xmm11 ;\n"
- "pand %%xmm15, %%xmm6 ;\n"
- "pand %%xmm15, %%xmm7 ;\n"
- "pand %%xmm15, %%xmm8 ;\n"
- "pand %%xmm15, %%xmm9 ;\n"
- "pand %%xmm15, %%xmm10 ;\n"
- "pand %%xmm15, %%xmm11 ;\n"
- "por %%xmm6, %%xmm0 ;\n"
- "por %%xmm7, %%xmm1 ;\n"
- "por %%xmm8, %%xmm2 ;\n"
- "por %%xmm9, %%xmm3 ;\n"
- "por %%xmm10, %%xmm4 ;\n"
- "por %%xmm11, %%xmm5 ;\n"
- /* 6 */
- "movq $6, %%rax ;\n"
- "movd %%rax, %%xmm15 ;\n"
- "pshufd $0x00, %%xmm15, %%xmm15 ;\n"
- "pcmpeqd %%xmm14, %%xmm15 ;\n"
- "movdqa 480(%1), %%xmm6 ;\n"
- "movdqa 496(%1), %%xmm7 ;\n"
- "movdqa 512(%1), %%xmm8 ;\n"
- "movdqa 528(%1), %%xmm9 ;\n"
- "movdqa 544(%1), %%xmm10 ;\n"
- "movdqa 560(%1), %%xmm11 ;\n"
- "pand %%xmm15, %%xmm6 ;\n"
- "pand %%xmm15, %%xmm7 ;\n"
- "pand %%xmm15, %%xmm8 ;\n"
- "pand %%xmm15, %%xmm9 ;\n"
- "pand %%xmm15, %%xmm10 ;\n"
- "pand %%xmm15, %%xmm11 ;\n"
- "por %%xmm6, %%xmm0 ;\n"
- "por %%xmm7, %%xmm1 ;\n"
- "por %%xmm8, %%xmm2 ;\n"
- "por %%xmm9, %%xmm3 ;\n"
- "por %%xmm10, %%xmm4 ;\n"
- "por %%xmm11, %%xmm5 ;\n"
- /* 7 */
- "movq $7, %%rax ;\n"
- "movd %%rax, %%xmm15 ;\n"
- "pshufd $0x00, %%xmm15, %%xmm15 ;\n"
- "pcmpeqd %%xmm14, %%xmm15 ;\n"
- "movdqa 576(%1), %%xmm6 ;\n"
- "movdqa 592(%1), %%xmm7 ;\n"
- "movdqa 608(%1), %%xmm8 ;\n"
- "movdqa 624(%1), %%xmm9 ;\n"
- "movdqa 640(%1), %%xmm10 ;\n"
- "movdqa 656(%1), %%xmm11 ;\n"
- "pand %%xmm15, %%xmm6 ;\n"
- "pand %%xmm15, %%xmm7 ;\n"
- "pand %%xmm15, %%xmm8 ;\n"
- "pand %%xmm15, %%xmm9 ;\n"
- "pand %%xmm15, %%xmm10 ;\n"
- "pand %%xmm15, %%xmm11 ;\n"
- "por %%xmm6, %%xmm0 ;\n"
- "por %%xmm7, %%xmm1 ;\n"
- "por %%xmm8, %%xmm2 ;\n"
- "por %%xmm9, %%xmm3 ;\n"
- "por %%xmm10, %%xmm4 ;\n"
- "por %%xmm11, %%xmm5 ;\n"
- /* 8 */
- "movq $8, %%rax ;\n"
- "movd %%rax, %%xmm15 ;\n"
- "pshufd $0x00, %%xmm15, %%xmm15 ;\n"
- "pcmpeqd %%xmm14, %%xmm15 ;\n"
- "movdqa 672(%1), %%xmm6 ;\n"
- "movdqa 688(%1), %%xmm7 ;\n"
- "movdqa 704(%1), %%xmm8 ;\n"
- "movdqa 720(%1), %%xmm9 ;\n"
- "movdqa 736(%1), %%xmm10 ;\n"
- "movdqa 752(%1), %%xmm11 ;\n"
- "pand %%xmm15, %%xmm6 ;\n"
- "pand %%xmm15, %%xmm7 ;\n"
- "pand %%xmm15, %%xmm8 ;\n"
- "pand %%xmm15, %%xmm9 ;\n"
- "pand %%xmm15, %%xmm10 ;\n"
- "pand %%xmm15, %%xmm11 ;\n"
- "por %%xmm6, %%xmm0 ;\n"
- "por %%xmm7, %%xmm1 ;\n"
- "por %%xmm8, %%xmm2 ;\n"
- "por %%xmm9, %%xmm3 ;\n"
- "por %%xmm10, %%xmm4 ;\n"
- "por %%xmm11, %%xmm5 ;\n"
- /* conditionally swap ysubx and xaddy */
- "movq %3, %%rax ;\n"
- "xorq $1, %%rax ;\n"
- "movd %%rax, %%xmm14 ;\n"
- "pxor %%xmm15, %%xmm15 ;\n"
- "pshufd $0x00, %%xmm14, %%xmm14 ;\n"
- "pxor %%xmm0, %%xmm2 ;\n"
- "pxor %%xmm1, %%xmm3 ;\n"
- "pcmpeqd %%xmm14, %%xmm15 ;\n"
- "movdqa %%xmm2, %%xmm6 ;\n"
- "movdqa %%xmm3, %%xmm7 ;\n"
- "pand %%xmm15, %%xmm6 ;\n"
- "pand %%xmm15, %%xmm7 ;\n"
- "pxor %%xmm6, %%xmm0 ;\n"
- "pxor %%xmm7, %%xmm1 ;\n"
- "pxor %%xmm0, %%xmm2 ;\n"
- "pxor %%xmm1, %%xmm3 ;\n"
- /* store ysubx */
- "xorq %%rax, %%rax ;\n"
- "movd %%xmm0, %%rcx ;\n"
- "movd %%xmm0, %%r8 ;\n"
- "movd %%xmm1, %%rsi ;\n"
- "pshufd $0xee, %%xmm0, %%xmm0 ;\n"
- "pshufd $0xee, %%xmm1, %%xmm1 ;\n"
- "movd %%xmm0, %%rdx ;\n"
- "movd %%xmm1, %%rdi ;\n"
- "shrdq $51, %%rdx, %%r8 ;\n"
- "shrdq $38, %%rsi, %%rdx ;\n"
- "shrdq $25, %%rdi, %%rsi ;\n"
- "shrq $12, %%rdi ;\n"
- "movq %%rcx, %%r9 ;\n"
- "movq %%r8, %%r10 ;\n"
- "movq %%rdx, %%r11 ;\n"
- "movq %%rsi, %%r12 ;\n"
- "movq %%rdi, %%r13 ;\n"
- "shrq $26, %%r9 ;\n"
- "shrq $26, %%r10 ;\n"
- "shrq $26, %%r11 ;\n"
- "shrq $26, %%r12 ;\n"
- "shrq $26, %%r13 ;\n"
- "andl $0x3ffffff, %%ecx ;\n"
- "andl $0x1ffffff, %%r9d ;\n"
- "andl $0x3ffffff, %%r8d ;\n"
- "andl $0x1ffffff, %%r10d ;\n"
- "andl $0x3ffffff, %%edx ;\n"
- "andl $0x1ffffff, %%r11d ;\n"
- "andl $0x3ffffff, %%esi ;\n"
- "andl $0x1ffffff, %%r12d ;\n"
- "andl $0x3ffffff, %%edi ;\n"
- "andl $0x1ffffff, %%r13d ;\n"
- "movl %%ecx, 0(%2) ;\n"
- "movl %%r9d, 4(%2) ;\n"
- "movl %%r8d, 8(%2) ;\n"
- "movl %%r10d, 12(%2) ;\n"
- "movl %%edx, 16(%2) ;\n"
- "movl %%r11d, 20(%2) ;\n"
- "movl %%esi, 24(%2) ;\n"
- "movl %%r12d, 28(%2) ;\n"
- "movl %%edi, 32(%2) ;\n"
- "movl %%r13d, 36(%2) ;\n"
- "movq %%rax, 40(%2) ;\n"
- /* store xaddy */
- "movd %%xmm2, %%rcx ;\n"
- "movd %%xmm2, %%r8 ;\n"
- "movd %%xmm3, %%rsi ;\n"
- "pshufd $0xee, %%xmm2, %%xmm2 ;\n"
- "pshufd $0xee, %%xmm3, %%xmm3 ;\n"
- "movd %%xmm2, %%rdx ;\n"
- "movd %%xmm3, %%rdi ;\n"
- "shrdq $51, %%rdx, %%r8 ;\n"
- "shrdq $38, %%rsi, %%rdx ;\n"
- "shrdq $25, %%rdi, %%rsi ;\n"
- "shrq $12, %%rdi ;\n"
- "movq %%rcx, %%r9 ;\n"
- "movq %%r8, %%r10 ;\n"
- "movq %%rdx, %%r11 ;\n"
- "movq %%rsi, %%r12 ;\n"
- "movq %%rdi, %%r13 ;\n"
- "shrq $26, %%r9 ;\n"
- "shrq $26, %%r10 ;\n"
- "shrq $26, %%r11 ;\n"
- "shrq $26, %%r12 ;\n"
- "shrq $26, %%r13 ;\n"
- "andl $0x3ffffff, %%ecx ;\n"
- "andl $0x1ffffff, %%r9d ;\n"
- "andl $0x3ffffff, %%r8d ;\n"
- "andl $0x1ffffff, %%r10d ;\n"
- "andl $0x3ffffff, %%edx ;\n"
- "andl $0x1ffffff, %%r11d ;\n"
- "andl $0x3ffffff, %%esi ;\n"
- "andl $0x1ffffff, %%r12d ;\n"
- "andl $0x3ffffff, %%edi ;\n"
- "andl $0x1ffffff, %%r13d ;\n"
- "movl %%ecx, 48(%2) ;\n"
- "movl %%r9d, 52(%2) ;\n"
- "movl %%r8d, 56(%2) ;\n"
- "movl %%r10d, 60(%2) ;\n"
- "movl %%edx, 64(%2) ;\n"
- "movl %%r11d, 68(%2) ;\n"
- "movl %%esi, 72(%2) ;\n"
- "movl %%r12d, 76(%2) ;\n"
- "movl %%edi, 80(%2) ;\n"
- "movl %%r13d, 84(%2) ;\n"
- "movq %%rax, 88(%2) ;\n"
- /* extract t2d */
- "xorq %%rax, %%rax ;\n"
- "movd %%xmm4, %%rcx ;\n"
- "movd %%xmm4, %%r8 ;\n"
- "movd %%xmm5, %%rsi ;\n"
- "pshufd $0xee, %%xmm4, %%xmm4 ;\n"
- "pshufd $0xee, %%xmm5, %%xmm5 ;\n"
- "movd %%xmm4, %%rdx ;\n"
- "movd %%xmm5, %%rdi ;\n"
- "shrdq $51, %%rdx, %%r8 ;\n"
- "shrdq $38, %%rsi, %%rdx ;\n"
- "shrdq $25, %%rdi, %%rsi ;\n"
- "shrq $12, %%rdi ;\n"
- "movq %%rcx, %%r9 ;\n"
- "movq %%r8, %%r10 ;\n"
- "movq %%rdx, %%r11 ;\n"
- "movq %%rsi, %%r12 ;\n"
- "movq %%rdi, %%r13 ;\n"
- "shrq $26, %%r9 ;\n"
- "shrq $26, %%r10 ;\n"
- "shrq $26, %%r11 ;\n"
- "shrq $26, %%r12 ;\n"
- "shrq $26, %%r13 ;\n"
- "andl $0x3ffffff, %%ecx ;\n"
- "andl $0x1ffffff, %%r9d ;\n"
- "andl $0x3ffffff, %%r8d ;\n"
- "andl $0x1ffffff, %%r10d ;\n"
- "andl $0x3ffffff, %%edx ;\n"
- "andl $0x1ffffff, %%r11d ;\n"
- "andl $0x3ffffff, %%esi ;\n"
- "andl $0x1ffffff, %%r12d ;\n"
- "andl $0x3ffffff, %%edi ;\n"
- "andl $0x1ffffff, %%r13d ;\n"
- "movd %%ecx, %%xmm0 ;\n"
- "movd %%r9d, %%xmm4 ;\n"
- "movd %%r8d, %%xmm8 ;\n"
- "movd %%r10d, %%xmm3 ;\n"
- "movd %%edx, %%xmm1 ;\n"
- "movd %%r11d, %%xmm5 ;\n"
- "movd %%esi, %%xmm6 ;\n"
- "movd %%r12d, %%xmm7 ;\n"
- "movd %%edi, %%xmm2 ;\n"
- "movd %%r13d, %%xmm9 ;\n"
- "punpckldq %%xmm4, %%xmm0 ;\n"
- "punpckldq %%xmm3, %%xmm8 ;\n"
- "punpckldq %%xmm5, %%xmm1 ;\n"
- "punpckldq %%xmm7, %%xmm6 ;\n"
- "punpckldq %%xmm9, %%xmm2 ;\n"
- "punpcklqdq %%xmm8, %%xmm0 ;\n"
- "punpcklqdq %%xmm6, %%xmm1 ;\n"
- /* set up 2p in to 3/4 */
- "movl $0x7ffffda, %%ecx ;\n"
- "movl $0x3fffffe, %%edx ;\n"
- "movl $0x7fffffe, %%eax ;\n"
- "movd %%ecx, %%xmm3 ;\n"
- "movd %%edx, %%xmm5 ;\n"
- "movd %%eax, %%xmm4 ;\n"
- "punpckldq %%xmm5, %%xmm3 ;\n"
- "punpckldq %%xmm5, %%xmm4 ;\n"
- "punpcklqdq %%xmm4, %%xmm3 ;\n"
- "movdqa %%xmm4, %%xmm5 ;\n"
- "punpcklqdq %%xmm4, %%xmm4 ;\n"
- /* subtract and conditionally move */
- "movl %3, %%ecx ;\n"
- "sub $1, %%ecx ;\n"
- "movd %%ecx, %%xmm6 ;\n"
- "pshufd $0x00, %%xmm6, %%xmm6 ;\n"
- "movdqa %%xmm6, %%xmm7 ;\n"
- "psubd %%xmm0, %%xmm3 ;\n"
- "psubd %%xmm1, %%xmm4 ;\n"
- "psubd %%xmm2, %%xmm5 ;\n"
- "pand %%xmm6, %%xmm0 ;\n"
- "pand %%xmm6, %%xmm1 ;\n"
- "pand %%xmm6, %%xmm2 ;\n"
- "pandn %%xmm3, %%xmm6 ;\n"
- "movdqa %%xmm7, %%xmm3 ;\n"
- "pandn %%xmm4, %%xmm7 ;\n"
- "pandn %%xmm5, %%xmm3 ;\n"
- "por %%xmm6, %%xmm0 ;\n"
- "por %%xmm7, %%xmm1 ;\n"
- "por %%xmm3, %%xmm2 ;\n"
- /* store t2d */
- "movdqa %%xmm0, 96(%2) ;\n"
- "movdqa %%xmm1, 112(%2) ;\n"
- "movdqa %%xmm2, 128(%2) ;\n"
- :
- : "m"(u), "r"(&table[pos * 8]), "r"(t), "m"(sign) /* %0 = u, %1 = table, %2 = t, %3 = sign */
- :
- "%rax", "%rcx", "%rdx", "%rdi", "%rsi", "%r8", "%r9", "%r10", "%r11", "%r12", "%r13",
- "%xmm0", "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5", "%xmm6", "%xmm7", "%xmm8", "%xmm9", "%xmm10", "%xmm11", "%xmm14", "%xmm14",
- "cc", "memory"
- );
- }
- #endif /* defined(ED25519_GCC_64BIT_SSE_CHOOSE) */
|