/external/llvm/test/MC/X86/ |
D | x86_64-avx-encoding.s | 133 vmaxss %xmm10, %xmm14, %xmm12 137 vmaxsd %xmm10, %xmm14, %xmm12 141 vminss %xmm10, %xmm14, %xmm12 145 vminsd %xmm10, %xmm14, %xmm12 149 vmaxss -4(%rbx,%rcx,8), %xmm12, %xmm10 153 vmaxsd -4(%rbx,%rcx,8), %xmm12, %xmm10 157 vminss -4(%rbx,%rcx,8), %xmm12, %xmm10 161 vminsd -4(%rbx,%rcx,8), %xmm12, %xmm10 165 vmaxps %xmm10, %xmm14, %xmm12 169 vmaxpd %xmm10, %xmm14, %xmm12 [all …]
|
D | x86_64-fma3-encoding.s | 5 vfmadd132pd %xmm12, %xmm10, %xmm11 13 vfmadd132ps %xmm12, %xmm10, %xmm11 21 vfmadd213pd %xmm12, %xmm10, %xmm11 29 vfmadd213ps %xmm12, %xmm10, %xmm11 37 vfmadd231pd %xmm12, %xmm10, %xmm11 45 vfmadd231ps %xmm12, %xmm10, %xmm11 101 vfmadd132pd %xmm12, %xmm10, %xmm11 109 vfmadd132ps %xmm12, %xmm10, %xmm11 117 vfmadd213pd %xmm12, %xmm10, %xmm11 125 vfmadd213ps %xmm12, %xmm10, %xmm11 [all …]
|
D | x86_64-avx-clmul-encoding.s | 5 vpclmulhqhqdq %xmm12, %xmm10, %xmm11 13 vpclmulhqlqdq %xmm12, %xmm10, %xmm11 21 vpclmullqhqdq %xmm12, %xmm10, %xmm11 29 vpclmullqlqdq %xmm12, %xmm10, %xmm11 37 vpclmulqdq $17, %xmm12, %xmm10, %xmm11
|
D | avx512-encodings.s | 8836 vcvtsi2sd %rax, %xmm12, %xmm29 8840 vcvtsi2sd %rax, {rn-sae}, %xmm12, %xmm29 8844 vcvtsi2sd %rax, {ru-sae}, %xmm12, %xmm29 8848 vcvtsi2sd %rax, {rd-sae}, %xmm12, %xmm29 8852 vcvtsi2sd %rax, {rz-sae}, %xmm12, %xmm29 8856 vcvtsi2sd %r8, %xmm12, %xmm29 8860 vcvtsi2sd %r8, {rn-sae}, %xmm12, %xmm29 8864 vcvtsi2sd %r8, {ru-sae}, %xmm12, %xmm29 8868 vcvtsi2sd %r8, {rd-sae}, %xmm12, %xmm29 8872 vcvtsi2sd %r8, {rz-sae}, %xmm12, %xmm29 [all …]
|
/external/boringssl/linux-x86_64/crypto/aes/ |
D | bsaes-x86_64.S | 161 movdqa %xmm1,%xmm12 168 pxor %xmm3,%xmm12 182 pand %xmm11,%xmm12 183 pxor %xmm12,%xmm10 184 pxor %xmm12,%xmm9 185 movdqa %xmm6,%xmm12 187 pxor %xmm0,%xmm12 189 movdqa %xmm12,%xmm8 190 pand %xmm11,%xmm12 192 pxor %xmm12,%xmm7 [all …]
|
D | aesni-x86_64.S | 1166 movdqu 64(%rdi),%xmm12 1178 pxor %xmm6,%xmm12 1186 movdqu %xmm12,64(%rsi) 1370 movdqu 32(%rdi),%xmm12 1373 pxor %xmm0,%xmm12 1398 movdqa 16(%rsp),%xmm12 1412 movdqa %xmm12,%xmm3 1456 movups 32(%rdi),%xmm12 1467 pxor %xmm12,%xmm4 1482 movups 96(%rdi),%xmm12 [all …]
|
/external/boringssl/mac-x86_64/crypto/aes/ |
D | bsaes-x86_64.S | 159 movdqa %xmm1,%xmm12 166 pxor %xmm3,%xmm12 180 pand %xmm11,%xmm12 181 pxor %xmm12,%xmm10 182 pxor %xmm12,%xmm9 183 movdqa %xmm6,%xmm12 185 pxor %xmm0,%xmm12 187 movdqa %xmm12,%xmm8 188 pand %xmm11,%xmm12 190 pxor %xmm12,%xmm7 [all …]
|
D | aesni-x86_64.S | 1165 movdqu 64(%rdi),%xmm12 1177 pxor %xmm6,%xmm12 1185 movdqu %xmm12,64(%rsi) 1369 movdqu 32(%rdi),%xmm12 1372 pxor %xmm0,%xmm12 1397 movdqa 16(%rsp),%xmm12 1411 movdqa %xmm12,%xmm3 1455 movups 32(%rdi),%xmm12 1466 pxor %xmm12,%xmm4 1481 movups 96(%rdi),%xmm12 [all …]
|
/external/boringssl/win-x86_64/crypto/aes/ |
D | bsaes-x86_64.asm | 163 movdqa xmm12,xmm1 170 pxor xmm12,xmm3 184 pand xmm12,xmm11 185 pxor xmm10,xmm12 186 pxor xmm9,xmm12 187 movdqa xmm12,xmm6 189 pxor xmm12,xmm0 191 movdqa xmm8,xmm12 192 pand xmm12,xmm11 194 pxor xmm7,xmm12 [all …]
|
D | aesni-x86_64.asm | 1142 movaps XMMWORD[(-72)+rax],xmm12 1274 movdqu xmm12,XMMWORD[64+rdi] 1286 pxor xmm12,xmm6 1294 movdqu XMMWORD[64+rsi],xmm12 1478 movdqu xmm12,XMMWORD[32+rdi] 1481 pxor xmm12,xmm0 1506 movdqa xmm12,XMMWORD[16+rsp] 1520 movdqa xmm3,xmm12 1564 movups xmm12,XMMWORD[32+rdi] 1575 pxor xmm4,xmm12 [all …]
|
D | vpaes-x86_64.asm | 48 movdqa xmm0,xmm12 483 movdqa xmm0,xmm12 632 movaps XMMWORD[112+rsp],xmm12 651 movaps xmm12,XMMWORD[112+rsp] 683 movaps XMMWORD[112+rsp],xmm12 707 movaps xmm12,XMMWORD[112+rsp] 739 movaps XMMWORD[112+rsp],xmm12 754 movaps xmm12,XMMWORD[112+rsp] 785 movaps XMMWORD[112+rsp],xmm12 800 movaps xmm12,XMMWORD[112+rsp] [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | stack-folding-fp-avx1.ll | 14 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 22 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 30 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 38 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 46 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 54 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 63 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 71 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 80 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 89 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… [all …]
|
D | stack-folding-int-avx2.ll | 14 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 25 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 36 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 50 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 57 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 67 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 76 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 85 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 94 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 103 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… [all …]
|
D | stack-folding-fp-sse42.ll | 14 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 22 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 30 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 38 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 47 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 55 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 64 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 73 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 82 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 96 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… [all …]
|
D | stack-folding-xop.ll | 14 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 23 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 32 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 41 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 50 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 59 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 68 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 75 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 84 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 91 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… [all …]
|
D | stack-folding-int-avx1.ll | 14 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 23 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 32 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 41 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 50 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 59 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 88 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 108 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 117 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 126 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… [all …]
|
D | stack-folding-int-sse42.ll | 14 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 23 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 32 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 41 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 50 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 59 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 115 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 135 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 144 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 153 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… [all …]
|
D | vselect-minmax.ll | 3346 ; SSE2-NEXT: movdqa %xmm8, %xmm12 3347 ; SSE2-NEXT: pcmpgtb %xmm7, %xmm12 3349 ; SSE2-NEXT: movdqa %xmm12, %xmm3 3371 ; SSE2-NEXT: pandn %xmm8, %xmm12 3373 ; SSE2-NEXT: por %xmm12, %xmm3 3488 ; SSE2-NEXT: movdqa %xmm7, %xmm12 3489 ; SSE2-NEXT: pcmpgtb %xmm8, %xmm12 3491 ; SSE2-NEXT: movdqa %xmm12, %xmm3 3513 ; SSE2-NEXT: pandn %xmm8, %xmm12 3515 ; SSE2-NEXT: por %xmm12, %xmm3 [all …]
|
D | preserve_mostcc64.ll | 37 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 57 ;SSE: movaps %xmm12 79 %a20 = call <2 x double> asm sideeffect "", "={xmm12}"() nounwind 84 …,{xmm2},{xmm3},{xmm4},{xmm5},{xmm6},{xmm7},{xmm8},{xmm9},{xmm10},{xmm11},{xmm12},{xmm13},{xmm14},{…
|
D | preserve_allcc64.ll | 24 ;SSE-NEXT: movaps %xmm12 68 …xmm3},~{xmm4},~{xmm5},~{xmm6},~{xmm7},~{xmm8},~{xmm9},~{xmm10},~{xmm11},~{xmm12},~{xmm13},~{xmm14}… 97 %a20 = call <2 x double> asm sideeffect "", "={xmm12}"() nounwind 102 …,{xmm2},{xmm3},{xmm4},{xmm5},{xmm6},{xmm7},{xmm8},{xmm9},{xmm10},{xmm11},{xmm12},{xmm13},{xmm14},{…
|
/external/boringssl/src/crypto/aes/asm/ |
D | vpaes-x86_64.pl | 108 movdqa %xmm12, %xmm0 # 0 : sb1t 543 movdqa %xmm12, %xmm0 # 0 : sbot 685 movaps %xmm12,0x70(%rsp) 708 movaps 0x70(%rsp),%xmm12 733 movaps %xmm12,0x70(%rsp) 761 movaps 0x70(%rsp),%xmm12 786 movaps %xmm12,0x70(%rsp) 805 movaps 0x70(%rsp),%xmm12 829 movaps %xmm12,0x70(%rsp) 848 movaps 0x70(%rsp),%xmm12 [all …]
|
D | bsaes-x86_64.pl | 998 movdqa %xmm0, %xmm12 1010 pand %xmm6, %xmm12 1013 pcmpeqb %xmm0, %xmm12 1032 movdqa %xmm12, 0x40($out) 1177 movaps %xmm12, 0xa0(%rsp) 1337 movaps 0xa0(%rbp), %xmm12 1378 movaps %xmm12, 0xa0(%rsp) 1539 movaps 0xa0(%rbp), %xmm12 1594 movaps %xmm12, 0xa0(%rsp) 1829 movaps 0xa0(%rbp), %xmm12 [all …]
|
/external/libvpx/libvpx/vpx_dsp/x86/ |
D | ssim_opt_x86_64.asm | 22 paddd xmm12, xmm2 ; sum_sq_r 173 pxor xmm12,xmm12 ;sum_sq_r 196 SUM_ACROSS_Q xmm12 206 movd [rdi], xmm12;
|
/external/gemmlowp/internal/ |
D | pack_SSE.h | 128 __m128i xmm12 = _mm_shuffle_epi32(xmm10, 0xee); in Pack() local 129 SSERequantize<QuantizationParams>(&xmm12, rounding_offset_generator); in Pack() 136 xmm12); in Pack() 152 xmm1 = _mm_cvtepu8_epi16(xmm12); in Pack()
|
/external/boringssl/linux-x86_64/crypto/modes/ |
D | ghash-x86_64.S | 916 pshufd $78,%xmm11,%xmm12 917 pxor %xmm11,%xmm12 924 xorps %xmm12,%xmm4 931 pshufd $78,%xmm11,%xmm12 933 pxor %xmm11,%xmm12 951 xorps %xmm12,%xmm4 959 pshufd $78,%xmm11,%xmm12 961 pxor %xmm11,%xmm12 1009 pxor %xmm12,%xmm4 1010 pshufd $78,%xmm11,%xmm12 [all …]
|