summaryrefslogtreecommitdiff
path: root/linux-x86_64
diff options
context:
space:
mode:
authorPete Bentley <prb@google.com>2019-08-08 14:53:19 +0000
committerPete Bentley <prb@google.com>2019-08-08 14:53:19 +0000
commit228bd6249d17f351ea66508b3ec3112ed1cbdf30 (patch)
treeb178584cd6074879284532ebf5f91db100ff119c /linux-x86_64
parentf8d8b73da16aa9f2fdda401a46b4f86a83016712 (diff)
downloadboringssl-228bd6249d17f351ea66508b3ec3112ed1cbdf30.tar.gz
Revert "external/boringssl: Sync to 81080a729af568f7b5fde92b9170cc17065027c9."
This reverts commit f8d8b73da16aa9f2fdda401a46b4f86a83016712. Reason for revert: Breaks buildsdk_tools_cross_win Change-Id: I3bac24f78d165dfa7f89b878cc2277281fd8f1ab
Diffstat (limited to 'linux-x86_64')
-rw-r--r--linux-x86_64/crypto/fipsmodule/p256-x86_64-asm.S26
-rw-r--r--linux-x86_64/crypto/third_party/sike/asm/fp-x86_64.S1870
2 files changed, 6 insertions, 1890 deletions
diff --git a/linux-x86_64/crypto/fipsmodule/p256-x86_64-asm.S b/linux-x86_64/crypto/fipsmodule/p256-x86_64-asm.S
index 067575ec..3a575228 100644
--- a/linux-x86_64/crypto/fipsmodule/p256-x86_64-asm.S
+++ b/linux-x86_64/crypto/fipsmodule/p256-x86_64-asm.S
@@ -2823,22 +2823,15 @@ ecp_nistz256_point_add:
orq %r8,%r12
orq %r9,%r12
+.byte 0x3e
+ jnz .Ladd_proceedq
.byte 102,73,15,126,208
.byte 102,73,15,126,217
- orq %r8,%r12
-.byte 0x3e
+ testq %r8,%r8
jnz .Ladd_proceedq
-
-
-
testq %r9,%r9
jz .Ladd_doubleq
-
-
-
-
-
.byte 102,72,15,126,199
pxor %xmm0,%xmm0
movdqu %xmm0,0(%rdi)
@@ -3951,22 +3944,15 @@ ecp_nistz256_point_addx:
orq %r8,%r12
orq %r9,%r12
+.byte 0x3e
+ jnz .Ladd_proceedx
.byte 102,73,15,126,208
.byte 102,73,15,126,217
- orq %r8,%r12
-.byte 0x3e
+ testq %r8,%r8
jnz .Ladd_proceedx
-
-
-
testq %r9,%r9
jz .Ladd_doublex
-
-
-
-
-
.byte 102,72,15,126,199
pxor %xmm0,%xmm0
movdqu %xmm0,0(%rdi)
diff --git a/linux-x86_64/crypto/third_party/sike/asm/fp-x86_64.S b/linux-x86_64/crypto/third_party/sike/asm/fp-x86_64.S
deleted file mode 100644
index 4b3c9254..00000000
--- a/linux-x86_64/crypto/third_party/sike/asm/fp-x86_64.S
+++ /dev/null
@@ -1,1870 +0,0 @@
-# This file is generated from a similarly-named Perl script in the BoringSSL
-# source tree. Do not edit by hand.
-
-#if defined(__has_feature)
-#if __has_feature(memory_sanitizer) && !defined(OPENSSL_NO_ASM)
-#define OPENSSL_NO_ASM
-#endif
-#endif
-
-#if defined(__x86_64__) && !defined(OPENSSL_NO_ASM)
-#if defined(BORINGSSL_PREFIX)
-#include <boringssl_prefix_symbols_asm.h>
-#endif
-.text
-
-
-.Lp434x2:
-.quad 0xFFFFFFFFFFFFFFFE
-.quad 0xFFFFFFFFFFFFFFFF
-.quad 0xFB82ECF5C5FFFFFF
-.quad 0xF78CB8F062B15D47
-.quad 0xD9F8BFAD038A40AC
-.quad 0x0004683E4E2EE688
-
-
-.Lp434p1:
-.quad 0xFDC1767AE3000000
-.quad 0x7BC65C783158AEA3
-.quad 0x6CFC5FD681C52056
-.quad 0x0002341F27177344
-
-.extern OPENSSL_ia32cap_P
-.hidden OPENSSL_ia32cap_P
-.hidden OPENSSL_ia32cap_P
-.globl sike_fpadd
-.hidden sike_fpadd
-.type sike_fpadd,@function
-sike_fpadd:
-.cfi_startproc
- pushq %r12
-.cfi_adjust_cfa_offset 8
-.cfi_offset r12, -16
- pushq %r13
-.cfi_adjust_cfa_offset 8
-.cfi_offset r13, -24
- pushq %r14
-.cfi_adjust_cfa_offset 8
-.cfi_offset r14, -32
-
- xorq %rax,%rax
-
- movq 0(%rdi),%r8
- addq 0(%rsi),%r8
- movq 8(%rdi),%r9
- adcq 8(%rsi),%r9
- movq 16(%rdi),%r10
- adcq 16(%rsi),%r10
- movq 24(%rdi),%r11
- adcq 24(%rsi),%r11
- movq 32(%rdi),%r12
- adcq 32(%rsi),%r12
- movq 40(%rdi),%r13
- adcq 40(%rsi),%r13
- movq 48(%rdi),%r14
- adcq 48(%rsi),%r14
-
- movq .Lp434x2(%rip),%rcx
- subq %rcx,%r8
- movq 8+.Lp434x2(%rip),%rcx
- sbbq %rcx,%r9
- sbbq %rcx,%r10
- movq 16+.Lp434x2(%rip),%rcx
- sbbq %rcx,%r11
- movq 24+.Lp434x2(%rip),%rcx
- sbbq %rcx,%r12
- movq 32+.Lp434x2(%rip),%rcx
- sbbq %rcx,%r13
- movq 40+.Lp434x2(%rip),%rcx
- sbbq %rcx,%r14
-
- sbbq $0,%rax
-
- movq .Lp434x2(%rip),%rdi
- andq %rax,%rdi
- movq 8+.Lp434x2(%rip),%rsi
- andq %rax,%rsi
- movq 16+.Lp434x2(%rip),%rcx
- andq %rax,%rcx
-
- addq %rdi,%r8
- movq %r8,0(%rdx)
- adcq %rsi,%r9
- movq %r9,8(%rdx)
- adcq %rsi,%r10
- movq %r10,16(%rdx)
- adcq %rcx,%r11
- movq %r11,24(%rdx)
-
- setc %cl
- movq 24+.Lp434x2(%rip),%r8
- andq %rax,%r8
- movq 32+.Lp434x2(%rip),%r9
- andq %rax,%r9
- movq 40+.Lp434x2(%rip),%r10
- andq %rax,%r10
- btq $0,%rcx
-
- adcq %r8,%r12
- movq %r12,32(%rdx)
- adcq %r9,%r13
- movq %r13,40(%rdx)
- adcq %r10,%r14
- movq %r14,48(%rdx)
-
- popq %r14
-.cfi_adjust_cfa_offset -8
- popq %r13
-.cfi_adjust_cfa_offset -8
- popq %r12
-.cfi_adjust_cfa_offset -8
- .byte 0xf3,0xc3
-.cfi_endproc
-.globl sike_cswap_asm
-.hidden sike_cswap_asm
-.type sike_cswap_asm,@function
-sike_cswap_asm:
-
-
- movq %rdx,%xmm3
-
-
-
-
-
- pshufd $68,%xmm3,%xmm3
-
- movdqu 0(%rdi),%xmm0
- movdqu 0(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,0(%rdi)
- movdqu %xmm1,0(%rsi)
-
- movdqu 16(%rdi),%xmm0
- movdqu 16(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,16(%rdi)
- movdqu %xmm1,16(%rsi)
-
- movdqu 32(%rdi),%xmm0
- movdqu 32(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,32(%rdi)
- movdqu %xmm1,32(%rsi)
-
- movdqu 48(%rdi),%xmm0
- movdqu 48(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,48(%rdi)
- movdqu %xmm1,48(%rsi)
-
- movdqu 64(%rdi),%xmm0
- movdqu 64(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,64(%rdi)
- movdqu %xmm1,64(%rsi)
-
- movdqu 80(%rdi),%xmm0
- movdqu 80(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,80(%rdi)
- movdqu %xmm1,80(%rsi)
-
- movdqu 96(%rdi),%xmm0
- movdqu 96(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,96(%rdi)
- movdqu %xmm1,96(%rsi)
-
- movdqu 112(%rdi),%xmm0
- movdqu 112(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,112(%rdi)
- movdqu %xmm1,112(%rsi)
-
- movdqu 128(%rdi),%xmm0
- movdqu 128(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,128(%rdi)
- movdqu %xmm1,128(%rsi)
-
- movdqu 144(%rdi),%xmm0
- movdqu 144(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,144(%rdi)
- movdqu %xmm1,144(%rsi)
-
- movdqu 160(%rdi),%xmm0
- movdqu 160(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,160(%rdi)
- movdqu %xmm1,160(%rsi)
-
- movdqu 176(%rdi),%xmm0
- movdqu 176(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,176(%rdi)
- movdqu %xmm1,176(%rsi)
-
- movdqu 192(%rdi),%xmm0
- movdqu 192(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,192(%rdi)
- movdqu %xmm1,192(%rsi)
-
- movdqu 208(%rdi),%xmm0
- movdqu 208(%rsi),%xmm1
- movdqa %xmm1,%xmm2
- pxor %xmm0,%xmm2
- pand %xmm3,%xmm2
- pxor %xmm2,%xmm0
- pxor %xmm2,%xmm1
- movdqu %xmm0,208(%rdi)
- movdqu %xmm1,208(%rsi)
-
- .byte 0xf3,0xc3
-.globl sike_fpsub
-.hidden sike_fpsub
-.type sike_fpsub,@function
-sike_fpsub:
-.cfi_startproc
- pushq %r12
-.cfi_adjust_cfa_offset 8
-.cfi_offset r12, -16
- pushq %r13
-.cfi_adjust_cfa_offset 8
-.cfi_offset r13, -24
- pushq %r14
-.cfi_adjust_cfa_offset 8
-.cfi_offset r14, -32
-
- xorq %rax,%rax
-
- movq 0(%rdi),%r8
- subq 0(%rsi),%r8
- movq 8(%rdi),%r9
- sbbq 8(%rsi),%r9
- movq 16(%rdi),%r10
- sbbq 16(%rsi),%r10
- movq 24(%rdi),%r11
- sbbq 24(%rsi),%r11
- movq 32(%rdi),%r12
- sbbq 32(%rsi),%r12
- movq 40(%rdi),%r13
- sbbq 40(%rsi),%r13
- movq 48(%rdi),%r14
- sbbq 48(%rsi),%r14
-
- sbbq $0x0,%rax
-
- movq .Lp434x2(%rip),%rdi
- andq %rax,%rdi
- movq 8+.Lp434x2(%rip),%rsi
- andq %rax,%rsi
- movq 16+.Lp434x2(%rip),%rcx
- andq %rax,%rcx
-
- addq %rdi,%r8
- movq %r8,0(%rdx)
- adcq %rsi,%r9
- movq %r9,8(%rdx)
- adcq %rsi,%r10
- movq %r10,16(%rdx)
- adcq %rcx,%r11
- movq %r11,24(%rdx)
-
- setc %cl
- movq 24+.Lp434x2(%rip),%r8
- andq %rax,%r8
- movq 32+.Lp434x2(%rip),%r9
- andq %rax,%r9
- movq 40+.Lp434x2(%rip),%r10
- andq %rax,%r10
- btq $0x0,%rcx
-
- adcq %r8,%r12
- adcq %r9,%r13
- adcq %r10,%r14
- movq %r12,32(%rdx)
- movq %r13,40(%rdx)
- movq %r14,48(%rdx)
-
- popq %r14
-.cfi_adjust_cfa_offset -8
- popq %r13
-.cfi_adjust_cfa_offset -8
- popq %r12
-.cfi_adjust_cfa_offset -8
- .byte 0xf3,0xc3
-.cfi_endproc
-.globl sike_mpadd_asm
-.hidden sike_mpadd_asm
-.type sike_mpadd_asm,@function
-sike_mpadd_asm:
-.cfi_startproc
- movq 0(%rdi),%r8;
- movq 8(%rdi),%r9
- movq 16(%rdi),%r10
- movq 24(%rdi),%r11
- movq 32(%rdi),%rcx
- addq 0(%rsi),%r8
- adcq 8(%rsi),%r9
- adcq 16(%rsi),%r10
- adcq 24(%rsi),%r11
- adcq 32(%rsi),%rcx
- movq %r8,0(%rdx)
- movq %r9,8(%rdx)
- movq %r10,16(%rdx)
- movq %r11,24(%rdx)
- movq %rcx,32(%rdx)
-
- movq 40(%rdi),%r8
- movq 48(%rdi),%r9
- adcq 40(%rsi),%r8
- adcq 48(%rsi),%r9
- movq %r8,40(%rdx)
- movq %r9,48(%rdx)
- .byte 0xf3,0xc3
-.cfi_endproc
-.globl sike_mpsubx2_asm
-.hidden sike_mpsubx2_asm
-.type sike_mpsubx2_asm,@function
-sike_mpsubx2_asm:
-.cfi_startproc
- xorq %rax,%rax
-
- movq 0(%rdi),%r8
- movq 8(%rdi),%r9
- movq 16(%rdi),%r10
- movq 24(%rdi),%r11
- movq 32(%rdi),%rcx
- subq 0(%rsi),%r8
- sbbq 8(%rsi),%r9
- sbbq 16(%rsi),%r10
- sbbq 24(%rsi),%r11
- sbbq 32(%rsi),%rcx
- movq %r8,0(%rdx)
- movq %r9,8(%rdx)
- movq %r10,16(%rdx)
- movq %r11,24(%rdx)
- movq %rcx,32(%rdx)
-
- movq 40(%rdi),%r8
- movq 48(%rdi),%r9
- movq 56(%rdi),%r10
- movq 64(%rdi),%r11
- movq 72(%rdi),%rcx
- sbbq 40(%rsi),%r8
- sbbq 48(%rsi),%r9
- sbbq 56(%rsi),%r10
- sbbq 64(%rsi),%r11
- sbbq 72(%rsi),%rcx
- movq %r8,40(%rdx)
- movq %r9,48(%rdx)
- movq %r10,56(%rdx)
- movq %r11,64(%rdx)
- movq %rcx,72(%rdx)
-
- movq 80(%rdi),%r8
- movq 88(%rdi),%r9
- movq 96(%rdi),%r10
- movq 104(%rdi),%r11
- sbbq 80(%rsi),%r8
- sbbq 88(%rsi),%r9
- sbbq 96(%rsi),%r10
- sbbq 104(%rsi),%r11
- sbbq $0x0,%rax
- movq %r8,80(%rdx)
- movq %r9,88(%rdx)
- movq %r10,96(%rdx)
- movq %r11,104(%rdx)
- .byte 0xf3,0xc3
-.cfi_endproc
-.globl sike_mpdblsubx2_asm
-.hidden sike_mpdblsubx2_asm
-.type sike_mpdblsubx2_asm,@function
-sike_mpdblsubx2_asm:
-.cfi_startproc
- pushq %r12
-.cfi_adjust_cfa_offset 8
-.cfi_offset r12, -16
- pushq %r13
-.cfi_adjust_cfa_offset 8
-.cfi_offset r13, -24
-
- xorq %rax,%rax
-
-
- movq 0(%rdx),%r8
- movq 8(%rdx),%r9
- movq 16(%rdx),%r10
- movq 24(%rdx),%r11
- movq 32(%rdx),%r12
- movq 40(%rdx),%r13
- movq 48(%rdx),%rcx
- subq 0(%rdi),%r8
- sbbq 8(%rdi),%r9
- sbbq 16(%rdi),%r10
- sbbq 24(%rdi),%r11
- sbbq 32(%rdi),%r12
- sbbq 40(%rdi),%r13
- sbbq 48(%rdi),%rcx
- adcq $0x0,%rax
-
-
- subq 0(%rsi),%r8
- sbbq 8(%rsi),%r9
- sbbq 16(%rsi),%r10
- sbbq 24(%rsi),%r11
- sbbq 32(%rsi),%r12
- sbbq 40(%rsi),%r13
- sbbq 48(%rsi),%rcx
- adcq $0x0,%rax
-
-
- movq %r8,0(%rdx)
- movq %r9,8(%rdx)
- movq %r10,16(%rdx)
- movq %r11,24(%rdx)
- movq %r12,32(%rdx)
- movq %r13,40(%rdx)
- movq %rcx,48(%rdx)
-
-
- movq 56(%rdx),%r8
- movq 64(%rdx),%r9
- movq 72(%rdx),%r10
- movq 80(%rdx),%r11
- movq 88(%rdx),%r12
- movq 96(%rdx),%r13
- movq 104(%rdx),%rcx
-
- subq %rax,%r8
- sbbq 56(%rdi),%r8
- sbbq 64(%rdi),%r9
- sbbq 72(%rdi),%r10
- sbbq 80(%rdi),%r11
- sbbq 88(%rdi),%r12
- sbbq 96(%rdi),%r13
- sbbq 104(%rdi),%rcx
-
-
- subq 56(%rsi),%r8
- sbbq 64(%rsi),%r9
- sbbq 72(%rsi),%r10
- sbbq 80(%rsi),%r11
- sbbq 88(%rsi),%r12
- sbbq 96(%rsi),%r13
- sbbq 104(%rsi),%rcx
-
-
- movq %r8,56(%rdx)
- movq %r9,64(%rdx)
- movq %r10,72(%rdx)
- movq %r11,80(%rdx)
- movq %r12,88(%rdx)
- movq %r13,96(%rdx)
- movq %rcx,104(%rdx)
-
- popq %r13
-.cfi_adjust_cfa_offset -8
- popq %r12
-.cfi_adjust_cfa_offset -8
- .byte 0xf3,0xc3
-.cfi_endproc
-
-.Lrdc_bdw:
-.cfi_startproc
-
-.cfi_adjust_cfa_offset 32
-.cfi_offset r12, -16
-.cfi_offset r13, -24
-.cfi_offset r14, -32
-.cfi_offset r15, -40
-
- xorq %rax,%rax
- movq 0+0(%rdi),%rdx
- mulxq 0+.Lp434p1(%rip),%r8,%r9
- mulxq 8+.Lp434p1(%rip),%r12,%r10
- mulxq 16+.Lp434p1(%rip),%r13,%r11
-
- adoxq %r12,%r9
- adoxq %r13,%r10
-
- mulxq 24+.Lp434p1(%rip),%r13,%r12
- adoxq %r13,%r11
- adoxq %rax,%r12
-
- xorq %rax,%rax
- movq 0+8(%rdi),%rdx
- mulxq 0+.Lp434p1(%rip),%r13,%rcx
- adcxq %r13,%r9
- adcxq %rcx,%r10
-
- mulxq 8+.Lp434p1(%rip),%rcx,%r13
- adcxq %r13,%r11
- adoxq %rcx,%r10
-
- mulxq 16+.Lp434p1(%rip),%rcx,%r13
- adcxq %r13,%r12
- adoxq %rcx,%r11
-
- mulxq 24+.Lp434p1(%rip),%rcx,%r13
- adcxq %rax,%r13
- adoxq %rcx,%r12
- adoxq %rax,%r13
-
- xorq %rcx,%rcx
- addq 24(%rdi),%r8
- adcq 32(%rdi),%r9
- adcq 40(%rdi),%r10
- adcq 48(%rdi),%r11
- adcq 56(%rdi),%r12
- adcq 64(%rdi),%r13
- adcq 72(%rdi),%rcx
- movq %r8,24(%rdi)
- movq %r9,32(%rdi)
- movq %r10,40(%rdi)
- movq %r11,48(%rdi)
- movq %r12,56(%rdi)
- movq %r13,64(%rdi)
- movq %rcx,72(%rdi)
- movq 80(%rdi),%r8
- movq 88(%rdi),%r9
- movq 96(%rdi),%r10
- movq 104(%rdi),%r11
- adcq $0x0,%r8
- adcq $0x0,%r9
- adcq $0x0,%r10
- adcq $0x0,%r11
- movq %r8,80(%rdi)
- movq %r9,88(%rdi)
- movq %r10,96(%rdi)
- movq %r11,104(%rdi)
-
- xorq %rax,%rax
- movq 16+0(%rdi),%rdx
- mulxq 0+.Lp434p1(%rip),%r8,%r9
- mulxq 8+.Lp434p1(%rip),%r12,%r10
- mulxq 16+.Lp434p1(%rip),%r13,%r11
-
- adoxq %r12,%r9
- adoxq %r13,%r10
-
- mulxq 24+.Lp434p1(%rip),%r13,%r12
- adoxq %r13,%r11
- adoxq %rax,%r12
-
- xorq %rax,%rax
- movq 16+8(%rdi),%rdx
- mulxq 0+.Lp434p1(%rip),%r13,%rcx
- adcxq %r13,%r9
- adcxq %rcx,%r10
-
- mulxq 8+.Lp434p1(%rip),%rcx,%r13
- adcxq %r13,%r11
- adoxq %rcx,%r10
-
- mulxq 16+.Lp434p1(%rip),%rcx,%r13
- adcxq %r13,%r12
- adoxq %rcx,%r11
-
- mulxq 24+.Lp434p1(%rip),%rcx,%r13
- adcxq %rax,%r13
- adoxq %rcx,%r12
- adoxq %rax,%r13
-
- xorq %rcx,%rcx
- addq 40(%rdi),%r8
- adcq 48(%rdi),%r9
- adcq 56(%rdi),%r10
- adcq 64(%rdi),%r11
- adcq 72(%rdi),%r12
- adcq 80(%rdi),%r13
- adcq 88(%rdi),%rcx
- movq %r8,40(%rdi)
- movq %r9,48(%rdi)
- movq %r10,56(%rdi)
- movq %r11,64(%rdi)
- movq %r12,72(%rdi)
- movq %r13,80(%rdi)
- movq %rcx,88(%rdi)
- movq 96(%rdi),%r8
- movq 104(%rdi),%r9
- adcq $0x0,%r8
- adcq $0x0,%r9
- movq %r8,96(%rdi)
- movq %r9,104(%rdi)
-
- xorq %rax,%rax
- movq 32+0(%rdi),%rdx
- mulxq 0+.Lp434p1(%rip),%r8,%r9
- mulxq 8+.Lp434p1(%rip),%r12,%r10
- mulxq 16+.Lp434p1(%rip),%r13,%r11
-
- adoxq %r12,%r9
- adoxq %r13,%r10
-
- mulxq 24+.Lp434p1(%rip),%r13,%r12
- adoxq %r13,%r11
- adoxq %rax,%r12
-
- xorq %rax,%rax
- movq 32+8(%rdi),%rdx
- mulxq 0+.Lp434p1(%rip),%r13,%rcx
- adcxq %r13,%r9
- adcxq %rcx,%r10
-
- mulxq 8+.Lp434p1(%rip),%rcx,%r13
- adcxq %r13,%r11
- adoxq %rcx,%r10
-
- mulxq 16+.Lp434p1(%rip),%rcx,%r13
- adcxq %r13,%r12
- adoxq %rcx,%r11
-
- mulxq 24+.Lp434p1(%rip),%rcx,%r13
- adcxq %rax,%r13
- adoxq %rcx,%r12
- adoxq %rax,%r13
-
- xorq %rcx,%rcx
- addq 56(%rdi),%r8
- adcq 64(%rdi),%r9
- adcq 72(%rdi),%r10
- adcq 80(%rdi),%r11
- adcq 88(%rdi),%r12
- adcq 96(%rdi),%r13
- adcq 104(%rdi),%rcx
- movq %r8,0(%rsi)
- movq %r9,8(%rsi)
- movq %r10,72(%rdi)
- movq %r11,80(%rdi)
- movq %r12,88(%rdi)
- movq %r13,96(%rdi)
- movq %rcx,104(%rdi)
-
- xorq %rax,%rax
- movq 48(%rdi),%rdx
- mulxq 0+.Lp434p1(%rip),%r8,%r9
- mulxq 8+.Lp434p1(%rip),%r12,%r10
- mulxq 16+.Lp434p1(%rip),%r13,%r11
-
- adoxq %r12,%r9
- adoxq %r13,%r10
-
- mulxq 24+.Lp434p1(%rip),%r13,%r12
- adoxq %r13,%r11
- adoxq %rax,%r12
-
- addq 72(%rdi),%r8
- adcq 80(%rdi),%r9
- adcq 88(%rdi),%r10
- adcq 96(%rdi),%r11
- adcq 104(%rdi),%r12
- movq %r8,16(%rsi)
- movq %r9,24(%rsi)
- movq %r10,32(%rsi)
- movq %r11,40(%rsi)
- movq %r12,48(%rsi)
-
-
- popq %r15
-.cfi_adjust_cfa_offset -8
-.cfi_same_value r15
- popq %r14
-.cfi_adjust_cfa_offset -8
-.cfi_same_value r14
- popq %r13
-.cfi_adjust_cfa_offset -8
-.cfi_same_value r13
- popq %r12
-.cfi_adjust_cfa_offset -8
-.cfi_same_value r12
- .byte 0xf3,0xc3
-.cfi_endproc
-.globl sike_fprdc
-.hidden sike_fprdc
-.type sike_fprdc,@function
-sike_fprdc:
-.cfi_startproc
- pushq %r12
-.cfi_adjust_cfa_offset 8
-.cfi_offset r12, -16
- pushq %r13
-.cfi_adjust_cfa_offset 8
-.cfi_offset r13, -24
- pushq %r14
-.cfi_adjust_cfa_offset 8
-.cfi_offset r14, -32
- pushq %r15
-.cfi_adjust_cfa_offset 8
-.cfi_offset r15, -40
-
-
-
- leaq OPENSSL_ia32cap_P(%rip),%rcx
- movq 8(%rcx),%rcx
- andl $0x80100,%ecx
- cmpl $0x80100,%ecx
- je .Lrdc_bdw
-
-
-
-
- movq 0+0(%rdi),%r14
- movq 0+.Lp434p1(%rip),%rax
- mulq %r14
- xorq %r10,%r10
- movq %rax,%r8
- movq %rdx,%r9
-
-
- movq 8+.Lp434p1(%rip),%rax
- mulq %r14
- xorq %r11,%r11
- addq %rax,%r9
- adcq %rdx,%r10
-
-
- movq 0+8(%rdi),%rcx
- movq 0+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r11
-
-
- xorq %r12,%r12
- movq 16+.Lp434p1(%rip),%rax
- mulq %r14
- addq %rax,%r10
- adcq %rdx,%r11
- adcq $0x0,%r12
-
-
- movq 8+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r10
- adcq %rdx,%r11
- adcq $0x0,%r12
-
-
- movq 24+.Lp434p1(%rip),%rax
- mulq %r14
- xorq %r13,%r13
- addq %rax,%r11
- adcq %rdx,%r12
- adcq $0x0,%r13
-
-
- movq 16+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r11
- adcq %rdx,%r12
- adcq $0x0,%r13
-
-
- movq 24+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r12
- adcq %rdx,%r13
-
-
- xorq %rcx,%rcx
- addq 24(%rdi),%r8
- adcq 32(%rdi),%r9
- adcq 40(%rdi),%r10
- adcq 48(%rdi),%r11
- adcq 56(%rdi),%r12
- adcq 64(%rdi),%r13
- adcq 72(%rdi),%rcx
- movq %r8,24(%rdi)
- movq %r9,32(%rdi)
- movq %r10,40(%rdi)
- movq %r11,48(%rdi)
- movq %r12,56(%rdi)
- movq %r13,64(%rdi)
- movq %rcx,72(%rdi)
- movq 80(%rdi),%r8
- movq 88(%rdi),%r9
- movq 96(%rdi),%r10
- movq 104(%rdi),%r11
- adcq $0x0,%r8
- adcq $0x0,%r9
- adcq $0x0,%r10
- adcq $0x0,%r11
- movq %r8,80(%rdi)
- movq %r9,88(%rdi)
- movq %r10,96(%rdi)
- movq %r11,104(%rdi)
-
-
- movq 16+0(%rdi),%r14
- movq 0+.Lp434p1(%rip),%rax
- mulq %r14
- xorq %r10,%r10
- movq %rax,%r8
- movq %rdx,%r9
-
-
- movq 8+.Lp434p1(%rip),%rax
- mulq %r14
- xorq %r11,%r11
- addq %rax,%r9
- adcq %rdx,%r10
-
-
- movq 16+8(%rdi),%rcx
- movq 0+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r11
-
-
- xorq %r12,%r12
- movq 16+.Lp434p1(%rip),%rax
- mulq %r14
- addq %rax,%r10
- adcq %rdx,%r11
- adcq $0x0,%r12
-
-
- movq 8+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r10
- adcq %rdx,%r11
- adcq $0x0,%r12
-
-
- movq 24+.Lp434p1(%rip),%rax
- mulq %r14
- xorq %r13,%r13
- addq %rax,%r11
- adcq %rdx,%r12
- adcq $0x0,%r13
-
-
- movq 16+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r11
- adcq %rdx,%r12
- adcq $0x0,%r13
-
-
- movq 24+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r12
- adcq %rdx,%r13
-
-
- xorq %rcx,%rcx
- addq 40(%rdi),%r8
- adcq 48(%rdi),%r9
- adcq 56(%rdi),%r10
- adcq 64(%rdi),%r11
- adcq 72(%rdi),%r12
- adcq 80(%rdi),%r13
- adcq 88(%rdi),%rcx
- movq %r8,40(%rdi)
- movq %r9,48(%rdi)
- movq %r10,56(%rdi)
- movq %r11,64(%rdi)
- movq %r12,72(%rdi)
- movq %r13,80(%rdi)
- movq %rcx,88(%rdi)
- movq 96(%rdi),%r8
- movq 104(%rdi),%r9
- adcq $0x0,%r8
- adcq $0x0,%r9
- movq %r8,96(%rdi)
- movq %r9,104(%rdi)
-
-
- movq 32+0(%rdi),%r14
- movq 0+.Lp434p1(%rip),%rax
- mulq %r14
- xorq %r10,%r10
- movq %rax,%r8
- movq %rdx,%r9
-
-
- movq 8+.Lp434p1(%rip),%rax
- mulq %r14
- xorq %r11,%r11
- addq %rax,%r9
- adcq %rdx,%r10
-
-
- movq 32+8(%rdi),%rcx
- movq 0+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r11
-
-
- xorq %r12,%r12
- movq 16+.Lp434p1(%rip),%rax
- mulq %r14
- addq %rax,%r10
- adcq %rdx,%r11
- adcq $0x0,%r12
-
-
- movq 8+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r10
- adcq %rdx,%r11
- adcq $0x0,%r12
-
-
- movq 24+.Lp434p1(%rip),%rax
- mulq %r14
- xorq %r13,%r13
- addq %rax,%r11
- adcq %rdx,%r12
- adcq $0x0,%r13
-
-
- movq 16+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r11
- adcq %rdx,%r12
- adcq $0x0,%r13
-
-
- movq 24+.Lp434p1(%rip),%rax
- mulq %rcx
- addq %rax,%r12
- adcq %rdx,%r13
-
-
- xorq %rcx,%rcx
- addq 56(%rdi),%r8
- adcq 64(%rdi),%r9
- adcq 72(%rdi),%r10
- adcq 80(%rdi),%r11
- adcq 88(%rdi),%r12
- adcq 96(%rdi),%r13
- adcq 104(%rdi),%rcx
- movq %r8,0(%rsi)
- movq %r9,8(%rsi)
- movq %r10,72(%rdi)
- movq %r11,80(%rdi)
- movq %r12,88(%rdi)
- movq %r13,96(%rdi)
- movq %rcx,104(%rdi)
-
- movq 48(%rdi),%r13
-
- xorq %r10,%r10
- movq 0+.Lp434p1(%rip),%rax
- mulq %r13
- movq %rax,%r8
- movq %rdx,%r9
-
- xorq %r11,%r11
- movq 8+.Lp434p1(%rip),%rax
- mulq %r13
- addq %rax,%r9
- adcq %rdx,%r10
-
- xorq %r12,%r12
- movq 16+.Lp434p1(%rip),%rax
- mulq %r13
- addq %rax,%r10
- adcq %rdx,%r11
-
- movq 24+.Lp434p1(%rip),%rax
- mulq %r13
- addq %rax,%r11
- adcq %rdx,%r12
-
- addq 72(%rdi),%r8
- adcq 80(%rdi),%r9
- adcq 88(%rdi),%r10
- adcq 96(%rdi),%r11
- adcq 104(%rdi),%r12
- movq %r8,16(%rsi)
- movq %r9,24(%rsi)
- movq %r10,32(%rsi)
- movq %r11,40(%rsi)
- movq %r12,48(%rsi)
-
-
- popq %r15
-.cfi_adjust_cfa_offset -8
- popq %r14
-.cfi_adjust_cfa_offset -8
- popq %r13
-.cfi_adjust_cfa_offset -8
- popq %r12
-.cfi_adjust_cfa_offset -8
- .byte 0xf3,0xc3
-.cfi_endproc
-.Lmul_bdw:
-.cfi_startproc
-
-.cfi_adjust_cfa_offset 32
-.cfi_offset r12, -16
-.cfi_offset r13, -24
-.cfi_offset r14, -32
-.cfi_offset r15, -40
-
-
- movq %rdx,%rcx
- xorq %rax,%rax
-
-
- movq 0(%rdi),%r8
- movq 8(%rdi),%r9
- movq 16(%rdi),%r10
- movq 24(%rdi),%r11
-
- pushq %rbx
-.cfi_adjust_cfa_offset 8
-.cfi_offset rbx, -48
- pushq %rbp
-.cfi_offset rbp, -56
-.cfi_adjust_cfa_offset 8
- subq $96,%rsp
-.cfi_adjust_cfa_offset 96
-
- addq 32(%rdi),%r8
- adcq 40(%rdi),%r9
- adcq 48(%rdi),%r10
- adcq $0x0,%r11
- sbbq $0x0,%rax
- movq %r8,0(%rsp)
- movq %r9,8(%rsp)
- movq %r10,16(%rsp)
- movq %r11,24(%rsp)
-
-
- xorq %rbx,%rbx
- movq 0(%rsi),%r12
- movq 8(%rsi),%r13
- movq 16(%rsi),%r14
- movq 24(%rsi),%r15
- addq 32(%rsi),%r12
- adcq 40(%rsi),%r13
- adcq 48(%rsi),%r14
- adcq $0x0,%r15
- sbbq $0x0,%rbx
- movq %r12,32(%rsp)
- movq %r13,40(%rsp)
- movq %r14,48(%rsp)
- movq %r15,56(%rsp)
-
-
- andq %rax,%r12
- andq %rax,%r13
- andq %rax,%r14
- andq %rax,%r15
-
-
- andq %rbx,%r8
- andq %rbx,%r9
- andq %rbx,%r10
- andq %rbx,%r11
-
-
- addq %r12,%r8
- adcq %r13,%r9
- adcq %r14,%r10
- adcq %r15,%r11
- movq %r8,64(%rsp)
- movq %r9,72(%rsp)
- movq %r10,80(%rsp)
- movq %r11,88(%rsp)
-
-
- movq 0+0(%rsp),%rdx
- mulxq 32+0(%rsp),%r9,%r8
- movq %r9,0+0(%rsp)
- mulxq 32+8(%rsp),%r10,%r9
- xorq %rax,%rax
- adoxq %r10,%r8
- mulxq 32+16(%rsp),%r11,%r10
- adoxq %r11,%r9
- mulxq 32+24(%rsp),%r12,%r11
- adoxq %r12,%r10
-
- movq 0+8(%rsp),%rdx
- mulxq 32+0(%rsp),%r12,%r13
- adoxq %rax,%r11
- xorq %rax,%rax
- mulxq 32+8(%rsp),%r15,%r14
- adoxq %r8,%r12
- movq %r12,0+8(%rsp)
- adcxq %r15,%r13
- mulxq 32+16(%rsp),%rbx,%r15
- adcxq %rbx,%r14
- adoxq %r9,%r13
- mulxq 32+24(%rsp),%rbp,%rbx
- adcxq %rbp,%r15
- adcxq %rax,%rbx
- adoxq %r10,%r14
-
- movq 0+16(%rsp),%rdx
- mulxq 32+0(%rsp),%r8,%r9
- adoxq %r11,%r15
- adoxq %rax,%rbx
- xorq %rax,%rax
- mulxq 32+8(%rsp),%r11,%r10
- adoxq %r13,%r8
- movq %r8,0+16(%rsp)
- adcxq %r11,%r9
- mulxq 32+16(%rsp),%r12,%r11
- adcxq %r12,%r10
- adoxq %r14,%r9
- mulxq 32+24(%rsp),%rbp,%r12
- adcxq %rbp,%r11
- adcxq %rax,%r12
-
- adoxq %r15,%r10
- adoxq %rbx,%r11
- adoxq %rax,%r12
-
- movq 0+24(%rsp),%rdx
- mulxq 32+0(%rsp),%r8,%r13
- xorq %rax,%rax
- mulxq 32+8(%rsp),%r15,%r14
- adcxq %r15,%r13
- adoxq %r8,%r9
- mulxq 32+16(%rsp),%rbx,%r15
- adcxq %rbx,%r14
- adoxq %r13,%r10
- mulxq 32+24(%rsp),%rbp,%rbx
- adcxq %rbp,%r15
- adcxq %rax,%rbx
- adoxq %r14,%r11
- adoxq %r15,%r12
- adoxq %rax,%rbx
- movq %r9,0+24(%rsp)
- movq %r10,0+32(%rsp)
- movq %r11,0+40(%rsp)
- movq %r12,0+48(%rsp)
- movq %rbx,0+56(%rsp)
-
-
-
- movq 0+0(%rdi),%rdx
- mulxq 0+0(%rsi),%r9,%r8
- movq %r9,0+0(%rcx)
- mulxq 0+8(%rsi),%r10,%r9
- xorq %rax,%rax
- adoxq %r10,%r8
- mulxq 0+16(%rsi),%r11,%r10
- adoxq %r11,%r9
- mulxq 0+24(%rsi),%r12,%r11
- adoxq %r12,%r10
-
- movq 0+8(%rdi),%rdx
- mulxq 0+0(%rsi),%r12,%r13
- adoxq %rax,%r11
- xorq %rax,%rax
- mulxq 0+8(%rsi),%r15,%r14
- adoxq %r8,%r12
- movq %r12,0+8(%rcx)
- adcxq %r15,%r13
- mulxq 0+16(%rsi),%rbx,%r15
- adcxq %rbx,%r14
- adoxq %r9,%r13
- mulxq 0+24(%rsi),%rbp,%rbx
- adcxq %rbp,%r15
- adcxq %rax,%rbx
- adoxq %r10,%r14
-
- movq 0+16(%rdi),%rdx
- mulxq 0+0(%rsi),%r8,%r9
- adoxq %r11,%r15
- adoxq %rax,%rbx
- xorq %rax,%rax
- mulxq 0+8(%rsi),%r11,%r10
- adoxq %r13,%r8
- movq %r8,0+16(%rcx)
- adcxq %r11,%r9
- mulxq 0+16(%rsi),%r12,%r11
- adcxq %r12,%r10
- adoxq %r14,%r9
- mulxq 0+24(%rsi),%rbp,%r12
- adcxq %rbp,%r11
- adcxq %rax,%r12
-
- adoxq %r15,%r10
- adoxq %rbx,%r11
- adoxq %rax,%r12
-
- movq 0+24(%rdi),%rdx
- mulxq 0+0(%rsi),%r8,%r13
- xorq %rax,%rax
- mulxq 0+8(%rsi),%r15,%r14
- adcxq %r15,%r13
- adoxq %r8,%r9
- mulxq 0+16(%rsi),%rbx,%r15
- adcxq %rbx,%r14
- adoxq %r13,%r10
- mulxq 0+24(%rsi),%rbp,%rbx
- adcxq %rbp,%r15
- adcxq %rax,%rbx
- adoxq %r14,%r11
- adoxq %r15,%r12
- adoxq %rax,%rbx
- movq %r9,0+24(%rcx)
- movq %r10,0+32(%rcx)
- movq %r11,0+40(%rcx)
- movq %r12,0+48(%rcx)
- movq %rbx,0+56(%rcx)
-
-
-
- movq 32+0(%rdi),%rdx
- mulxq 32+0(%rsi),%r9,%r8
- movq %r9,64+0(%rcx)
- mulxq 32+8(%rsi),%r10,%r9
- xorq %rax,%rax
- adoxq %r10,%r8
- mulxq 32+16(%rsi),%r11,%r10
- adoxq %r11,%r9
-
- movq 32+8(%rdi),%rdx
- mulxq 32+0(%rsi),%r12,%r11
- adoxq %rax,%r10
- xorq %rax,%rax
-
- mulxq 32+8(%rsi),%r14,%r13
- adoxq %r8,%r12
- movq %r12,64+8(%rcx)
- adcxq %r14,%r11
-
- mulxq 32+16(%rsi),%r8,%r14
- adoxq %r9,%r11
- adcxq %r8,%r13
- adcxq %rax,%r14
- adoxq %r10,%r13
-
- movq 32+16(%rdi),%rdx
- mulxq 32+0(%rsi),%r8,%r9
- adoxq %rax,%r14
- xorq %rax,%rax
-
- mulxq 32+8(%rsi),%r10,%r12
- adoxq %r11,%r8
- movq %r8,64+16(%rcx)
- adcxq %r13,%r9
-
- mulxq 32+16(%rsi),%r11,%r8
- adcxq %r14,%r12
- adcxq %rax,%r8
- adoxq %r10,%r9
- adoxq %r12,%r11
- adoxq %rax,%r8
- movq %r9,64+24(%rcx)
- movq %r11,64+32(%rcx)
- movq %r8,64+40(%rcx)
-
-
-
-
- movq 64(%rsp),%r8
- movq 72(%rsp),%r9
- movq 80(%rsp),%r10
- movq 88(%rsp),%r11
-
- movq 32(%rsp),%rax
- addq %rax,%r8
- movq 40(%rsp),%rax
- adcq %rax,%r9
- movq 48(%rsp),%rax
- adcq %rax,%r10
- movq 56(%rsp),%rax
- adcq %rax,%r11
-
-
- movq 0(%rsp),%r12
- movq 8(%rsp),%r13
- movq 16(%rsp),%r14
- movq 24(%rsp),%r15
- subq 0(%rcx),%r12
- sbbq 8(%rcx),%r13
- sbbq 16(%rcx),%r14
- sbbq 24(%rcx),%r15
- sbbq 32(%rcx),%r8
- sbbq 40(%rcx),%r9
- sbbq 48(%rcx),%r10
- sbbq 56(%rcx),%r11
-
-
- subq 64(%rcx),%r12
- sbbq 72(%rcx),%r13
- sbbq 80(%rcx),%r14
- sbbq 88(%rcx),%r15
- sbbq 96(%rcx),%r8
- sbbq 104(%rcx),%r9
- sbbq $0x0,%r10
- sbbq $0x0,%r11
-
- addq 32(%rcx),%r12
- movq %r12,32(%rcx)
- adcq 40(%rcx),%r13
- movq %r13,40(%rcx)
- adcq 48(%rcx),%r14
- movq %r14,48(%rcx)
- adcq 56(%rcx),%r15
- movq %r15,56(%rcx)
- adcq 64(%rcx),%r8
- movq %r8,64(%rcx)
- adcq 72(%rcx),%r9
- movq %r9,72(%rcx)
- adcq 80(%rcx),%r10
- movq %r10,80(%rcx)
- adcq 88(%rcx),%r11
- movq %r11,88(%rcx)
- movq 96(%rcx),%r12
- adcq $0x0,%r12
- movq %r12,96(%rcx)
- movq 104(%rcx),%r13
- adcq $0x0,%r13
- movq %r13,104(%rcx)
-
- addq $96,%rsp
-.cfi_adjust_cfa_offset -96
- popq %rbp
-.cfi_adjust_cfa_offset -8
-.cfi_same_value rbp
- popq %rbx
-.cfi_adjust_cfa_offset -8
-.cfi_same_value rbx
-
-
- popq %r15
-.cfi_adjust_cfa_offset -8
-.cfi_same_value r15
- popq %r14
-.cfi_adjust_cfa_offset -8
-.cfi_same_value r14
- popq %r13
-.cfi_adjust_cfa_offset -8
-.cfi_same_value r13
- popq %r12
-.cfi_adjust_cfa_offset -8
-.cfi_same_value r12
- .byte 0xf3,0xc3
-.cfi_endproc
-
-.globl sike_mpmul
-.hidden sike_mpmul
-.type sike_mpmul,@function
-sike_mpmul:
-.cfi_startproc
- pushq %r12
-.cfi_adjust_cfa_offset 8
-.cfi_offset r12, -16
- pushq %r13
-.cfi_adjust_cfa_offset 8
-.cfi_offset r13, -24
- pushq %r14
-.cfi_adjust_cfa_offset 8
-.cfi_offset r14, -32
- pushq %r15
-.cfi_adjust_cfa_offset 8
-.cfi_offset r15, -40
-
-
-
- leaq OPENSSL_ia32cap_P(%rip),%rcx
- movq 8(%rcx),%rcx
- andl $0x80100,%ecx
- cmpl $0x80100,%ecx
- je .Lmul_bdw
-
-
-
- movq %rdx,%rcx
-
- subq $112,%rsp
-.cfi_adjust_cfa_offset 112
-
-
- xorq %rax,%rax
- movq 32(%rdi),%r8
- movq 40(%rdi),%r9
- movq 48(%rdi),%r10
- xorq %r11,%r11
- addq 0(%rdi),%r8
- adcq 8(%rdi),%r9
- adcq 16(%rdi),%r10
- adcq 24(%rdi),%r11
-
- sbbq $0,%rax
- movq %rax,64(%rsp)
-
- movq %r8,0(%rcx)
- movq %r9,8(%rcx)
- movq %r10,16(%rcx)
- movq %r11,24(%rcx)
-
-
- xorq %rdx,%rdx
- movq 32(%rsi),%r12
- movq 40(%rsi),%r13
- movq 48(%rsi),%r14
- xorq %r15,%r15
- addq 0(%rsi),%r12
- adcq 8(%rsi),%r13
- adcq 16(%rsi),%r14
- adcq 24(%rsi),%r15
- sbbq $0x0,%rdx
-
- movq %rdx,72(%rsp)
-
-
- movq (%rcx),%rax
- mulq %r12
- movq %rax,(%rsp)
- movq %rdx,%r8
-
- xorq %r9,%r9
- movq (%rcx),%rax
- mulq %r13
- addq %rax,%r8
- adcq %rdx,%r9
-
- xorq %r10,%r10
- movq 8(%rcx),%rax
- mulq %r12
- addq %rax,%r8
- movq %r8,8(%rsp)
- adcq %rdx,%r9
- adcq $0x0,%r10
-
- xorq %r8,%r8
- movq (%rcx),%rax
- mulq %r14
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- movq 16(%rcx),%rax
- mulq %r12
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- movq 8(%rcx),%rax
- mulq %r13
- addq %rax,%r9
- movq %r9,16(%rsp)
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- xorq %r9,%r9
- movq (%rcx),%rax
- mulq %r15
- addq %rax,%r10
- adcq %rdx,%r8
- adcq $0x0,%r9
-
- movq 24(%rcx),%rax
- mulq %r12
- addq %rax,%r10
- adcq %rdx,%r8
- adcq $0x0,%r9
-
- movq 8(%rcx),%rax
- mulq %r14
- addq %rax,%r10
- adcq %rdx,%r8
- adcq $0x0,%r9
-
- movq 16(%rcx),%rax
- mulq %r13
- addq %rax,%r10
- movq %r10,24(%rsp)
- adcq %rdx,%r8
- adcq $0x0,%r9
-
- xorq %r10,%r10
- movq 8(%rcx),%rax
- mulq %r15
- addq %rax,%r8
- adcq %rdx,%r9
- adcq $0x0,%r10
-
- movq 24(%rcx),%rax
- mulq %r13
- addq %rax,%r8
- adcq %rdx,%r9
- adcq $0x0,%r10
-
- movq 16(%rcx),%rax
- mulq %r14
- addq %rax,%r8
- movq %r8,32(%rsp)
- adcq %rdx,%r9
- adcq $0x0,%r10
-
- xorq %r11,%r11
- movq 16(%rcx),%rax
- mulq %r15
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r11
-
- movq 24(%rcx),%rax
- mulq %r14
- addq %rax,%r9
- movq %r9,40(%rsp)
- adcq %rdx,%r10
- adcq $0x0,%r11
-
- movq 24(%rcx),%rax
- mulq %r15
- addq %rax,%r10
- movq %r10,48(%rsp)
- adcq %rdx,%r11
- movq %r11,56(%rsp)
-
-
- movq 64(%rsp),%rax
- andq %rax,%r12
- andq %rax,%r13
- andq %rax,%r14
- andq %rax,%r15
-
-
- movq 72(%rsp),%rax
- movq 0(%rcx),%r8
- andq %rax,%r8
- movq 8(%rcx),%r9
- andq %rax,%r9
- movq 16(%rcx),%r10
- andq %rax,%r10
- movq 24(%rcx),%r11
- andq %rax,%r11
-
-
- addq %r8,%r12
- adcq %r9,%r13
- adcq %r10,%r14
- adcq %r11,%r15
-
-
- movq 32(%rsp),%rax
- addq %rax,%r12
- movq 40(%rsp),%rax
- adcq %rax,%r13
- movq 48(%rsp),%rax
- adcq %rax,%r14
- movq 56(%rsp),%rax
- adcq %rax,%r15
- movq %r12,80(%rsp)
- movq %r13,88(%rsp)
- movq %r14,96(%rsp)
- movq %r15,104(%rsp)
-
-
- movq (%rdi),%r11
- movq (%rsi),%rax
- mulq %r11
- xorq %r9,%r9
- movq %rax,(%rcx)
- movq %rdx,%r8
-
- movq 16(%rdi),%r14
- movq 8(%rsi),%rax
- mulq %r11
- xorq %r10,%r10
- addq %rax,%r8
- adcq %rdx,%r9
-
- movq 8(%rdi),%r12
- movq (%rsi),%rax
- mulq %r12
- addq %rax,%r8
- movq %r8,8(%rcx)
- adcq %rdx,%r9
- adcq $0x0,%r10
-
- xorq %r8,%r8
- movq 16(%rsi),%rax
- mulq %r11
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- movq (%rsi),%r13
- movq %r14,%rax
- mulq %r13
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- movq 8(%rsi),%rax
- mulq %r12
- addq %rax,%r9
- movq %r9,16(%rcx)
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- xorq %r9,%r9
- movq 24(%rsi),%rax
- mulq %r11
- movq 24(%rdi),%r15
- addq %rax,%r10
- adcq %rdx,%r8
- adcq $0x0,%r9
-
- movq %r15,%rax
- mulq %r13
- addq %rax,%r10
- adcq %rdx,%r8
- adcq $0x0,%r9
-
- movq 16(%rsi),%rax
- mulq %r12
- addq %rax,%r10
- adcq %rdx,%r8
- adcq $0x0,%r9
-
- movq 8(%rsi),%rax
- mulq %r14
- addq %rax,%r10
- movq %r10,24(%rcx)
- adcq %rdx,%r8
- adcq $0x0,%r9
-
- xorq %r10,%r10
- movq 24(%rsi),%rax
- mulq %r12
- addq %rax,%r8
- adcq %rdx,%r9
- adcq $0x0,%r10
-
- movq 8(%rsi),%rax
- mulq %r15
- addq %rax,%r8
- adcq %rdx,%r9
- adcq $0x0,%r10
-
- movq 16(%rsi),%rax
- mulq %r14
- addq %rax,%r8
- movq %r8,32(%rcx)
- adcq %rdx,%r9
- adcq $0x0,%r10
-
- xorq %r8,%r8
- movq 24(%rsi),%rax
- mulq %r14
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- movq 16(%rsi),%rax
- mulq %r15
- addq %rax,%r9
- movq %r9,40(%rcx)
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- movq 24(%rsi),%rax
- mulq %r15
- addq %rax,%r10
- movq %r10,48(%rcx)
- adcq %rdx,%r8
- movq %r8,56(%rcx)
-
-
-
- movq 32(%rdi),%r11
- movq 32(%rsi),%rax
- mulq %r11
- xorq %r9,%r9
- movq %rax,64(%rcx)
- movq %rdx,%r8
-
- movq 48(%rdi),%r14
- movq 40(%rsi),%rax
- mulq %r11
- xorq %r10,%r10
- addq %rax,%r8
- adcq %rdx,%r9
-
- movq 40(%rdi),%r12
- movq 32(%rsi),%rax
- mulq %r12
- addq %rax,%r8
- movq %r8,72(%rcx)
- adcq %rdx,%r9
- adcq $0x0,%r10
-
- xorq %r8,%r8
- movq 48(%rsi),%rax
- mulq %r11
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- movq 32(%rsi),%r13
- movq %r14,%rax
- mulq %r13
- addq %rax,%r9
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- movq 40(%rsi),%rax
- mulq %r12
- addq %rax,%r9
- movq %r9,80(%rcx)
- adcq %rdx,%r10
- adcq $0x0,%r8
-
- movq 48(%rsi),%rax
- mulq %r12
- xorq %r12,%r12
- addq %rax,%r10
- adcq %rdx,%r8
- adcq $0x0,%r12
-
- movq 40(%rsi),%rax
- mulq %r14
- addq %rax,%r10
- adcq %rdx,%r8
- adcq $0x0,%r12
- movq %r10,88(%rcx)
-
- movq 48(%rsi),%rax
- mulq %r14
- addq %rax,%r8
- adcq $0x0,%r12
- movq %r8,96(%rcx)
-
- addq %r12,%rdx
-
-
- movq 0(%rsp),%r8
- subq 0(%rcx),%r8
- movq 8(%rsp),%r9
- sbbq 8(%rcx),%r9
- movq 16(%rsp),%r10
- sbbq 16(%rcx),%r10
- movq 24(%rsp),%r11
- sbbq 24(%rcx),%r11
- movq 80(%rsp),%r12
- sbbq 32(%rcx),%r12
- movq 88(%rsp),%r13
- sbbq 40(%rcx),%r13
- movq 96(%rsp),%r14
- sbbq 48(%rcx),%r14
- movq 104(%rsp),%r15
- sbbq 56(%rcx),%r15
-
-
- movq 64(%rcx),%rax
- subq %rax,%r8
- movq 72(%rcx),%rax
- sbbq %rax,%r9
- movq 80(%rcx),%rax
- sbbq %rax,%r10
- movq 88(%rcx),%rax
- sbbq %rax,%r11
- movq 96(%rcx),%rax
- sbbq %rax,%r12
- sbbq %rdx,%r13
- sbbq $0x0,%r14
- sbbq $0x0,%r15
-
-
- addq 32(%rcx),%r8
- movq %r8,32(%rcx)
- adcq 40(%rcx),%r9
- movq %r9,40(%rcx)
- adcq 48(%rcx),%r10
- movq %r10,48(%rcx)
- adcq 56(%rcx),%r11
- movq %r11,56(%rcx)
- adcq 64(%rcx),%r12
- movq %r12,64(%rcx)
- adcq 72(%rcx),%r13
- movq %r13,72(%rcx)
- adcq 80(%rcx),%r14
- movq %r14,80(%rcx)
- adcq 88(%rcx),%r15
- movq %r15,88(%rcx)
- movq 96(%rcx),%r12
- adcq $0x0,%r12
- movq %r12,96(%rcx)
- adcq $0x0,%rdx
- movq %rdx,104(%rcx)
-
- addq $112,%rsp
-.cfi_adjust_cfa_offset -112
-
-
- popq %r15
-.cfi_adjust_cfa_offset -8
- popq %r14
-.cfi_adjust_cfa_offset -8
- popq %r13
-.cfi_adjust_cfa_offset -8
- popq %r12
-.cfi_adjust_cfa_offset -8
- .byte 0xf3,0xc3
-.cfi_endproc
-#endif