/external/rust/crates/ring/pregenerated/ |
D | x86-mont-elf.S | 80 pmuludq %mm4,%mm5 84 pmuludq 20(%esp),%mm5 85 pmuludq %mm5,%mm3 94 pmuludq %mm4,%mm0 95 pmuludq %mm5,%mm1 109 pmuludq %mm4,%mm0 110 pmuludq %mm5,%mm1 128 pmuludq %mm4,%mm5 133 pmuludq 20(%esp),%mm5 134 pmuludq %mm5,%mm3 [all …]
|
D | x86-mont-macosx.S | 79 pmuludq %mm4,%mm5 83 pmuludq 20(%esp),%mm5 84 pmuludq %mm5,%mm3 93 pmuludq %mm4,%mm0 94 pmuludq %mm5,%mm1 108 pmuludq %mm4,%mm0 109 pmuludq %mm5,%mm1 127 pmuludq %mm4,%mm5 132 pmuludq 20(%esp),%mm5 133 pmuludq %mm5,%mm3 [all …]
|
/external/rust/crates/ring/crypto/fipsmodule/bn/asm/ |
D | x86-mont.pl | 166 &pmuludq($mul1,$mul0); # ap[0]*bp[0] 171 &pmuludq($mul1,$_n0q); # *=n0 173 &pmuludq($car1,$mul1); # "t[0]"*np[0]*n0 184 &pmuludq($acc0,$mul0); # ap[j]*bp[0] 185 &pmuludq($acc1,$mul1); # np[j]*m1 202 &pmuludq($acc0,$mul0); # ap[num-1]*bp[0] 203 &pmuludq($acc1,$mul1); # np[num-1]*m1 226 &pmuludq($mul1,$mul0); # ap[0]*bp[i] 233 &pmuludq($mul1,$_n0q); # *=n0 235 &pmuludq($car1,$mul1); [all …]
|
/external/rust/crates/ring/pregenerated/tmp/ |
D | x86-mont-win32n.asm | 90 pmuludq mm5,mm4 94 pmuludq mm5,[20+esp] 95 pmuludq mm3,mm5 104 pmuludq mm0,mm4 105 pmuludq mm1,mm5 119 pmuludq mm0,mm4 120 pmuludq mm1,mm5 138 pmuludq mm5,mm4 143 pmuludq mm5,[20+esp] 144 pmuludq mm3,mm5 [all …]
|
/external/rust/crates/ring/crypto/fipsmodule/ec/asm/ |
D | ecp_nistz256-x86.pl | 456 &pmuludq("xmm0","xmm7"); # a[0]*b[0] 461 &pmuludq("xmm1","xmm7"); # a[1]*b[0] 482 &pmuludq("xmm2","xmm7"); # a[2]*b[0] 489 &pmuludq("xmm3","xmm7"); # a[3]*b[0] 495 &pmuludq("xmm0","xmm7"); # a[4]*b[0] 502 &pmuludq("xmm1","xmm7"); # a[5]*b[0] 509 &pmuludq("xmm2","xmm7"); # a[6]*b[0] 516 &pmuludq("xmm3","xmm7"); # a[7]*b[0] 530 &pmuludq("xmm0","xmm7"); # a[0]*b[i] 534 &pmuludq("xmm1","xmm7"); # a[1]*b[i] [all …]
|
/external/llvm-project/llvm/test/CodeGen/X86/ |
D | sdiv-exact.ll | 42 ; X86-NEXT: pmuludq %xmm1, %xmm0 44 ; X86-NEXT: pmuludq %xmm1, %xmm2 64 ; X86-NEXT: pmuludq %xmm1, %xmm0 66 ; X86-NEXT: pmuludq %xmm1, %xmm2 88 ; X86-NEXT: pmuludq %xmm2, %xmm0 92 ; X86-NEXT: pmuludq %xmm1, %xmm2 115 ; X86-NEXT: pmuludq %xmm2, %xmm1 119 ; X86-NEXT: pmuludq %xmm0, %xmm2 139 ; X86-NEXT: pmuludq %xmm1, %xmm0 142 ; X86-NEXT: pmuludq %xmm2, %xmm1 [all …]
|
D | mmx-fold-zero.ll | 19 ; X86-NEXT: pmuludq %mm1, %mm6 28 ; X86-NEXT: pmuludq %mm5, %mm7 34 ; X86-NEXT: pmuludq %mm3, %mm0 37 ; X86-NEXT: pmuludq %mm7, %mm0 38 ; X86-NEXT: pmuludq (%esp), %mm0 # 8-byte Folded Reload 57 ; X64-NEXT: pmuludq %mm1, %mm6 66 ; X64-NEXT: pmuludq %mm5, %mm7 72 ; X64-NEXT: pmuludq %mm3, %mm0 75 ; X64-NEXT: pmuludq %mm7, %mm0 76 ; X64-NEXT: pmuludq {{[-0-9]+}}(%r{{[sb]}}p), %mm0 # 8-byte Folded Reload
|
D | urem-seteq-vec-nonzero.ll | 14 ; CHECK-SSE2-NEXT: pmuludq %xmm1, %xmm0 16 ; CHECK-SSE2-NEXT: pmuludq %xmm1, %xmm2 69 ; CHECK-SSE2-NEXT: pmuludq %xmm1, %xmm0 71 ; CHECK-SSE2-NEXT: pmuludq %xmm1, %xmm2 124 ; CHECK-SSE2-NEXT: pmuludq %xmm1, %xmm2 127 ; CHECK-SSE2-NEXT: pmuludq %xmm1, %xmm3 133 ; CHECK-SSE2-NEXT: pmuludq %xmm1, %xmm2 135 ; CHECK-SSE2-NEXT: pmuludq %xmm1, %xmm3 146 ; CHECK-SSE41-NEXT: pmuludq %xmm2, %xmm1 147 ; CHECK-SSE41-NEXT: pmuludq %xmm0, %xmm2 [all …]
|
D | urem-seteq-vec-nonsplat.ll | 14 ; CHECK-SSE2-NEXT: pmuludq %xmm1, %xmm2 20 ; CHECK-SSE2-NEXT: pmuludq %xmm3, %xmm1 28 ; CHECK-SSE2-NEXT: pmuludq %xmm4, %xmm2 33 ; CHECK-SSE2-NEXT: pmuludq %xmm3, %xmm1 49 ; CHECK-SSE41-NEXT: pmuludq %xmm1, %xmm3 50 ; CHECK-SSE41-NEXT: pmuludq %xmm0, %xmm2 129 ; CHECK-SSE2-NEXT: pmuludq {{.*}}(%rip), %xmm0 131 ; CHECK-SSE2-NEXT: pmuludq {{.*}}(%rip), %xmm1 164 ; CHECK-SSE2-NEXT: pmuludq {{.*}}(%rip), %xmm0 166 ; CHECK-SSE2-NEXT: pmuludq {{.*}}(%rip), %xmm1 [all …]
|
D | mulvi32.ll | 13 ; SSE2-NEXT: pmuludq %xmm1, %xmm0 16 ; SSE2-NEXT: pmuludq %xmm2, %xmm1 37 ; SSE-NEXT: pmuludq %xmm1, %xmm0 56 ; SSE2-NEXT: pmuludq %xmm1, %xmm0 59 ; SSE2-NEXT: pmuludq %xmm2, %xmm1 81 ; SSE2-NEXT: pmuludq %xmm1, %xmm0 83 ; SSE2-NEXT: pmuludq %xmm2, %xmm1 92 ; SSE42-NEXT: pmuludq %xmm1, %xmm0 94 ; SSE42-NEXT: pmuludq %xmm2, %xmm1 139 ; SSE2-NEXT: pmuludq %xmm3, %xmm2 [all …]
|
D | pmul.ll | 89 ; SSE2-NEXT: pmuludq %xmm1, %xmm0 91 ; SSE2-NEXT: pmuludq %xmm1, %xmm2 116 ; SSE-NEXT: pmuludq %xmm1, %xmm2 118 ; SSE-NEXT: pmuludq %xmm1, %xmm0 223 ; SSE2-NEXT: pmuludq %xmm1, %xmm0 226 ; SSE2-NEXT: pmuludq %xmm2, %xmm1 250 ; SSE-NEXT: pmuludq %xmm1, %xmm2 253 ; SSE-NEXT: pmuludq %xmm0, %xmm3 256 ; SSE-NEXT: pmuludq %xmm1, %xmm0 288 ; SSE2-NEXT: pmuludq %xmm2, %xmm0 [all …]
|
D | vec_shift6.ll | 47 ; SSE2-NEXT: pmuludq %xmm0, %xmm1 49 ; SSE2-NEXT: pmuludq {{.*}}(%rip), %xmm0 121 ; SSE2-NEXT: pmuludq %xmm2, %xmm0 124 ; SSE2-NEXT: pmuludq %xmm4, %xmm3 127 ; SSE2-NEXT: pmuludq %xmm1, %xmm2 130 ; SSE2-NEXT: pmuludq %xmm4, %xmm1 194 ; SSE2-NEXT: pmuludq %xmm4, %xmm0 197 ; SSE2-NEXT: pmuludq %xmm6, %xmm5 201 ; SSE2-NEXT: pmuludq %xmm4, %xmm1 203 ; SSE2-NEXT: pmuludq %xmm6, %xmm5 [all …]
|
D | sse-align-6.ll | 10 ; CHECK-NEXT: pmuludq %xmm1, %xmm2 13 ; CHECK-NEXT: pmuludq %xmm0, %xmm3 16 ; CHECK-NEXT: pmuludq %xmm1, %xmm0
|
D | combine-multiplies.ll | 82 ; pmuludq %xmm2, %xmm0 84 ; pmuludq %xmm2, %xmm3 97 ; pmuludq instructions), followed by two adds. Without this optimization, we'd 98 ; do 2 adds, followed by 2 multiplies (i.e. 4 pmuludq instructions). 112 ; CHECK-NEXT: pmuludq %xmm2, %xmm0 114 ; CHECK-NEXT: pmuludq %xmm2, %xmm3 146 ; CHECK-NEXT: pmuludq %xmm2, %xmm0 149 ; CHECK-NEXT: pmuludq %xmm3, %xmm2
|
/external/boringssl/src/crypto/fipsmodule/bn/asm/ |
D | bn-586.pl | 61 &pmuludq("mm2","mm0"); # mm2 = w*a[0] 63 &pmuludq("mm4","mm0"); # mm4 = w*a[1] 65 &pmuludq("mm6","mm0"); # mm6 = w*a[2] 67 &pmuludq("mm7","mm0"); # mm7 = w*a[3] 77 &pmuludq("mm2","mm0"); # mm2 = w*a[4] 80 &pmuludq("mm4","mm0"); # mm4 = w*a[5] 83 &pmuludq("mm6","mm0"); # mm6 = w*a[6] 88 &pmuludq("mm3","mm0"); # mm3 = w*a[7] 126 &pmuludq("mm2","mm0"); # a[i] *= w 244 &pmuludq("mm2","mm0"); # a[i] *= w [all …]
|
D | x86-mont.pl | 168 &pmuludq($mul1,$mul0); # ap[0]*bp[0] 173 &pmuludq($mul1,$_n0q); # *=n0 175 &pmuludq($car1,$mul1); # "t[0]"*np[0]*n0 186 &pmuludq($acc0,$mul0); # ap[j]*bp[0] 187 &pmuludq($acc1,$mul1); # np[j]*m1 204 &pmuludq($acc0,$mul0); # ap[num-1]*bp[0] 205 &pmuludq($acc1,$mul1); # np[num-1]*m1 228 &pmuludq($mul1,$mul0); # ap[0]*bp[i] 235 &pmuludq($mul1,$_n0q); # *=n0 237 &pmuludq($car1,$mul1); [all …]
|
/external/rust/crates/quiche/deps/boringssl/mac-x86/crypto/fipsmodule/ |
D | x86-mont.S | 82 pmuludq %mm4,%mm5 86 pmuludq 20(%esp),%mm5 87 pmuludq %mm5,%mm3 96 pmuludq %mm4,%mm0 97 pmuludq %mm5,%mm1 111 pmuludq %mm4,%mm0 112 pmuludq %mm5,%mm1 130 pmuludq %mm4,%mm5 135 pmuludq 20(%esp),%mm5 136 pmuludq %mm5,%mm3 [all …]
|
/external/boringssl/linux-x86/crypto/fipsmodule/ |
D | x86-mont.S | 83 pmuludq %mm4,%mm5 87 pmuludq 20(%esp),%mm5 88 pmuludq %mm5,%mm3 97 pmuludq %mm4,%mm0 98 pmuludq %mm5,%mm1 112 pmuludq %mm4,%mm0 113 pmuludq %mm5,%mm1 131 pmuludq %mm4,%mm5 136 pmuludq 20(%esp),%mm5 137 pmuludq %mm5,%mm3 [all …]
|
/external/boringssl/mac-x86/crypto/fipsmodule/ |
D | x86-mont.S | 82 pmuludq %mm4,%mm5 86 pmuludq 20(%esp),%mm5 87 pmuludq %mm5,%mm3 96 pmuludq %mm4,%mm0 97 pmuludq %mm5,%mm1 111 pmuludq %mm4,%mm0 112 pmuludq %mm5,%mm1 130 pmuludq %mm4,%mm5 135 pmuludq 20(%esp),%mm5 136 pmuludq %mm5,%mm3 [all …]
|
/external/openscreen/third_party/boringssl/linux-x86/crypto/fipsmodule/ |
D | x86-mont.S | 83 pmuludq %mm4,%mm5 87 pmuludq 20(%esp),%mm5 88 pmuludq %mm5,%mm3 97 pmuludq %mm4,%mm0 98 pmuludq %mm5,%mm1 112 pmuludq %mm4,%mm0 113 pmuludq %mm5,%mm1 131 pmuludq %mm4,%mm5 136 pmuludq 20(%esp),%mm5 137 pmuludq %mm5,%mm3 [all …]
|
/external/openscreen/third_party/boringssl/mac-x86/crypto/fipsmodule/ |
D | x86-mont.S | 82 pmuludq %mm4,%mm5 86 pmuludq 20(%esp),%mm5 87 pmuludq %mm5,%mm3 96 pmuludq %mm4,%mm0 97 pmuludq %mm5,%mm1 111 pmuludq %mm4,%mm0 112 pmuludq %mm5,%mm1 130 pmuludq %mm4,%mm5 135 pmuludq 20(%esp),%mm5 136 pmuludq %mm5,%mm3 [all …]
|
/external/rust/crates/quiche/deps/boringssl/linux-x86/crypto/fipsmodule/ |
D | x86-mont.S | 83 pmuludq %mm4,%mm5 87 pmuludq 20(%esp),%mm5 88 pmuludq %mm5,%mm3 97 pmuludq %mm4,%mm0 98 pmuludq %mm5,%mm1 112 pmuludq %mm4,%mm0 113 pmuludq %mm5,%mm1 131 pmuludq %mm4,%mm5 136 pmuludq 20(%esp),%mm5 137 pmuludq %mm5,%mm3 [all …]
|
/external/openscreen/third_party/boringssl/win-x86/crypto/fipsmodule/ |
D | x86-mont.asm | 85 pmuludq mm5,mm4 89 pmuludq mm5,[20+esp] 90 pmuludq mm3,mm5 99 pmuludq mm0,mm4 100 pmuludq mm1,mm5 114 pmuludq mm0,mm4 115 pmuludq mm1,mm5 133 pmuludq mm5,mm4 138 pmuludq mm5,[20+esp] 139 pmuludq mm3,mm5 [all …]
|
/external/boringssl/win-x86/crypto/fipsmodule/ |
D | x86-mont.asm | 85 pmuludq mm5,mm4 89 pmuludq mm5,[20+esp] 90 pmuludq mm3,mm5 99 pmuludq mm0,mm4 100 pmuludq mm1,mm5 114 pmuludq mm0,mm4 115 pmuludq mm1,mm5 133 pmuludq mm5,mm4 138 pmuludq mm5,[20+esp] 139 pmuludq mm3,mm5 [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | combine-multiplies.ll | 78 ; pmuludq %xmm2, %xmm0 80 ; pmuludq %xmm2, %xmm3 93 ; pmuludq instructions), followed by two adds. Without this optimization, we'd 94 ; do 2 adds, followed by 2 multiplies (i.e. 4 pmuludq instructions). 101 ; CHECK-NEXT: pmuludq [[C22]], [[T2:%xmm[0-9]]] 103 ; CHECK-NEXT: pmuludq [[C22]], [[T4:%xmm[0-9]]] 139 ; CHECK-NEXT: pmuludq [[C22]], [[T2:%xmm[0-9]]] 142 ; CHECK-NEXT: pmuludq [[T1]], [[T7]]
|