/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/ |
D | musttail-fastcall.ll | 64 ; AVX-DAG: vmovups %ymm0, {{.*}} 65 ; AVX-DAG: vmovups %ymm1, {{.*}} 66 ; AVX-DAG: vmovups %ymm2, {{.*}} 67 ; AVX-DAG: vmovups %ymm3, {{.*}} 68 ; AVX-DAG: vmovups %ymm4, {{.*}} 69 ; AVX-DAG: vmovups %ymm5, {{.*}} 71 ; AVX512-DAG: vmovups %zmm0, {{.*}} 72 ; AVX512-DAG: vmovups %zmm1, {{.*}} 73 ; AVX512-DAG: vmovups %zmm2, {{.*}} 74 ; AVX512-DAG: vmovups %zmm3, {{.*}} [all …]
|
D | x86-interrupt_cc.ll | 48 ; CHECK64-KNL-NEXT: vmovups %zmm31, {{[0-9]+}}(%rsp) ## 64-byte Spill 50 ; CHECK64-KNL-NEXT: vmovups %zmm30, {{[0-9]+}}(%rsp) ## 64-byte Spill 52 ; CHECK64-KNL-NEXT: vmovups %zmm29, {{[0-9]+}}(%rsp) ## 64-byte Spill 54 ; CHECK64-KNL-NEXT: vmovups %zmm28, {{[0-9]+}}(%rsp) ## 64-byte Spill 56 ; CHECK64-KNL-NEXT: vmovups %zmm27, {{[0-9]+}}(%rsp) ## 64-byte Spill 58 ; CHECK64-KNL-NEXT: vmovups %zmm26, {{[0-9]+}}(%rsp) ## 64-byte Spill 60 ; CHECK64-KNL-NEXT: vmovups %zmm25, {{[0-9]+}}(%rsp) ## 64-byte Spill 62 ; CHECK64-KNL-NEXT: vmovups %zmm24, {{[0-9]+}}(%rsp) ## 64-byte Spill 64 ; CHECK64-KNL-NEXT: vmovups %zmm23, {{[0-9]+}}(%rsp) ## 64-byte Spill 66 ; CHECK64-KNL-NEXT: vmovups %zmm22, {{[0-9]+}}(%rsp) ## 64-byte Spill [all …]
|
D | avx512-intel-ocl.ll | 303 ; X64-KNL-NEXT: vmovups %zmm31, {{[0-9]+}}(%rsp) ## 64-byte Spill 304 ; X64-KNL-NEXT: vmovups %zmm30, {{[0-9]+}}(%rsp) ## 64-byte Spill 305 ; X64-KNL-NEXT: vmovups %zmm29, {{[0-9]+}}(%rsp) ## 64-byte Spill 306 ; X64-KNL-NEXT: vmovups %zmm28, {{[0-9]+}}(%rsp) ## 64-byte Spill 307 ; X64-KNL-NEXT: vmovups %zmm27, {{[0-9]+}}(%rsp) ## 64-byte Spill 308 ; X64-KNL-NEXT: vmovups %zmm26, {{[0-9]+}}(%rsp) ## 64-byte Spill 309 ; X64-KNL-NEXT: vmovups %zmm25, {{[0-9]+}}(%rsp) ## 64-byte Spill 310 ; X64-KNL-NEXT: vmovups %zmm24, {{[0-9]+}}(%rsp) ## 64-byte Spill 311 ; X64-KNL-NEXT: vmovups %zmm23, {{[0-9]+}}(%rsp) ## 64-byte Spill 312 ; X64-KNL-NEXT: vmovups %zmm22, {{[0-9]+}}(%rsp) ## 64-byte Spill [all …]
|
D | preserve_allcc64.ll | 52 ;AVX: vmovups %ymm15 53 ;AVX-NEXT: vmovups %ymm14 54 ;AVX-NEXT: vmovups %ymm13 55 ;AVX-NEXT: vmovups %ymm12 56 ;AVX-NEXT: vmovups %ymm11 57 ;AVX-NEXT: vmovups %ymm10 58 ;AVX-NEXT: vmovups %ymm9 59 ;AVX-NEXT: vmovups %ymm8 60 ;AVX-NEXT: vmovups %ymm7 61 ;AVX-NEXT: vmovups %ymm6 [all …]
|
D | avx-intel-ocl.ll | 93 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 94 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 95 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 96 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 97 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 98 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 99 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 100 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 102 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload 103 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload [all …]
|
D | memset-nonzero.ll | 27 ; AVX-NEXT: vmovups %xmm0, (%rdi) 53 ; AVX-NEXT: vmovups %ymm0, (%rdi) 86 ; AVX-NEXT: vmovups %ymm0, 32(%rdi) 87 ; AVX-NEXT: vmovups %ymm0, (%rdi) 132 ; AVX-NEXT: vmovups %ymm0, 96(%rdi) 133 ; AVX-NEXT: vmovups %ymm0, 64(%rdi) 134 ; AVX-NEXT: vmovups %ymm0, 32(%rdi) 135 ; AVX-NEXT: vmovups %ymm0, (%rdi) 178 ; AVX-NEXT: vmovups %ymm0, 224(%rdi) 179 ; AVX-NEXT: vmovups %ymm0, 192(%rdi) [all …]
|
D | v8i1-masks.ll | 13 ; X32-NEXT: vmovups (%edx), %ymm0 14 ; X32-NEXT: vmovups (%ecx), %ymm1 16 ; X32-NEXT: vmovups (%eax), %ymm2 26 ; X64-NEXT: vmovups (%rdi), %ymm0 27 ; X64-NEXT: vmovups (%rsi), %ymm1 29 ; X64-NEXT: vmovups (%rdx), %ymm2 42 ; X32-AVX2-NEXT: vmovups (%edx), %ymm0 43 ; X32-AVX2-NEXT: vmovups (%ecx), %ymm1 45 ; X32-AVX2-NEXT: vmovups (%eax), %ymm2 56 ; X64-AVX2-NEXT: vmovups (%rdi), %ymm0 [all …]
|
D | pmovsx-inreg.ll | 23 ; AVX-NEXT: vmovups %xmm1, (%rax) 33 ; X32-AVX2-NEXT: vmovups %xmm1, (%eax) 63 ; AVX1-NEXT: vmovups %ymm0, (%rsi) 71 ; AVX2-NEXT: vmovups %ymm1, (%rax) 82 ; X32-AVX2-NEXT: vmovups %ymm1, (%eax) 106 ; AVX-NEXT: vmovups %xmm1, (%rax) 116 ; X32-AVX2-NEXT: vmovups %xmm1, (%eax) 146 ; AVX1-NEXT: vmovups %ymm0, (%rsi) 154 ; AVX2-NEXT: vmovups %ymm1, (%rax) 165 ; X32-AVX2-NEXT: vmovups %ymm1, (%eax) [all …]
|
D | avx-load-store.ll | 16 ; CHECK-NEXT: vmovups %ymm0, {{[0-9]+}}(%rsp) # 32-byte Spill 18 ; CHECK-NEXT: vmovups %ymm1, {{[0-9]+}}(%rsp) # 32-byte Spill 20 ; CHECK-NEXT: vmovups %ymm2, (%rsp) # 32-byte Spill 22 ; CHECK-NEXT: vmovups {{[0-9]+}}(%rsp), %ymm0 # 32-byte Reload 24 ; CHECK-NEXT: vmovups {{[0-9]+}}(%rsp), %ymm0 # 32-byte Reload 26 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload 41 ; CHECK_O0-NEXT: vmovups %ymm0, {{[0-9]+}}(%rsp) # 32-byte Spill 42 ; CHECK_O0-NEXT: vmovups %ymm1, {{[0-9]+}}(%rsp) # 32-byte Spill 43 ; CHECK_O0-NEXT: vmovups %ymm2, {{[0-9]+}}(%rsp) # 32-byte Spill 49 ; CHECK_O0-NEXT: vmovups {{[0-9]+}}(%rsp), %ymm0 # 32-byte Reload [all …]
|
D | vzero-excess.ll | 12 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 16 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload 38 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 41 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload 54 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 58 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload 80 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 83 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
|
D | avoid-sfb.ll | 51 ; CHECK-AVX2-NEXT: vmovups (%r8), %xmm0 52 ; CHECK-AVX2-NEXT: vmovups %xmm0, (%rcx) 68 ; CHECK-AVX512-NEXT: vmovups (%r8), %xmm0 69 ; CHECK-AVX512-NEXT: vmovups %xmm0, (%rcx) 206 ; CHECK-AVX2-NEXT: vmovups (%r8), %xmm0 207 ; CHECK-AVX2-NEXT: vmovups %xmm0, (%rcx) 228 ; CHECK-AVX512-NEXT: vmovups (%r8), %xmm0 229 ; CHECK-AVX512-NEXT: vmovups %xmm0, (%rcx) 309 ; CHECK-AVX2-NEXT: vmovups (%r8), %xmm0 310 ; CHECK-AVX2-NEXT: vmovups %xmm0, (%rcx) [all …]
|
D | merge-store-constants.ll | 10 ; X32-NEXT: vmovups %xmm0, (%eax) 16 ; X64-NEXT: vmovups %xmm0, (%rdi) 38 ; X32-NEXT: vmovups %xmm0, (%eax) 62 ; X32-NEXT: vmovups %ymm0, (%eax) 69 ; X64-NEXT: vmovups %ymm0, (%rdi) 98 ; X32-NEXT: vmovups %ymm0, (%eax) 100 ; X32-NEXT: vmovups %xmm0, 32(%eax) 112 ; X64-NEXT: vmovups %ymm0, (%rdi)
|
D | pr34605.ll | 23 ; CHECK-NEXT: vmovups %zmm1, 64(%eax) 24 ; CHECK-NEXT: vmovups %zmm1, 128(%eax) 25 ; CHECK-NEXT: vmovups %zmm1, 192(%eax) 26 ; CHECK-NEXT: vmovups %zmm1, 256(%eax) 27 ; CHECK-NEXT: vmovups %zmm1, 320(%eax) 28 ; CHECK-NEXT: vmovups %zmm1, 384(%eax) 29 ; CHECK-NEXT: vmovups %zmm1, 448(%eax)
|
/external/llvm/test/CodeGen/X86/ |
D | musttail-fastcall.ll | 64 ; AVX-DAG: vmovups %ymm0, {{.*}} 65 ; AVX-DAG: vmovups %ymm1, {{.*}} 66 ; AVX-DAG: vmovups %ymm2, {{.*}} 67 ; AVX-DAG: vmovups %ymm3, {{.*}} 68 ; AVX-DAG: vmovups %ymm4, {{.*}} 69 ; AVX-DAG: vmovups %ymm5, {{.*}} 71 ; AVX512-DAG: vmovups %zmm0, {{.*}} 72 ; AVX512-DAG: vmovups %zmm1, {{.*}} 73 ; AVX512-DAG: vmovups %zmm2, {{.*}} 74 ; AVX512-DAG: vmovups %zmm3, {{.*}} [all …]
|
D | preserve_allcc64.ll | 52 ;AVX: vmovups %ymm15 53 ;AVX-NEXT: vmovups %ymm14 54 ;AVX-NEXT: vmovups %ymm13 55 ;AVX-NEXT: vmovups %ymm12 56 ;AVX-NEXT: vmovups %ymm11 57 ;AVX-NEXT: vmovups %ymm10 58 ;AVX-NEXT: vmovups %ymm9 59 ;AVX-NEXT: vmovups %ymm8 60 ;AVX-NEXT: vmovups %ymm7 61 ;AVX-NEXT: vmovups %ymm6 [all …]
|
D | memset-nonzero.ll | 27 ; AVX-NEXT: vmovups %xmm0, (%rdi) 54 ; AVX-NEXT: vmovups %ymm0, (%rdi) 88 ; AVX-NEXT: vmovups %ymm0, 32(%rdi) 89 ; AVX-NEXT: vmovups %ymm0, (%rdi) 135 ; AVX-NEXT: vmovups %ymm0, 96(%rdi) 136 ; AVX-NEXT: vmovups %ymm0, 64(%rdi) 137 ; AVX-NEXT: vmovups %ymm0, 32(%rdi) 138 ; AVX-NEXT: vmovups %ymm0, (%rdi) 182 ; AVX-NEXT: vmovups %ymm0, 224(%rdi) 183 ; AVX-NEXT: vmovups %ymm0, 192(%rdi) [all …]
|
D | avx-intel-ocl.ll | 93 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 94 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 95 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 96 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 97 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 98 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 99 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 100 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 102 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload 103 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload [all …]
|
D | v8i1-masks.ll | 11 ; X32-NEXT: vmovups (%edx), %ymm0 12 ; X32-NEXT: vmovups (%ecx), %ymm1 14 ; X32-NEXT: vmovups (%eax), %ymm2 24 ; X64-NEXT: vmovups (%rdi), %ymm0 25 ; X64-NEXT: vmovups (%rsi), %ymm1 27 ; X64-NEXT: vmovups (%rdx), %ymm2 50 ; X32-NEXT: vmovups (%ecx), %ymm0 61 ; X64-NEXT: vmovups (%rsi), %ymm0
|
D | avx512-intel-ocl.ll | 65 ; WIN64: vmovups %zmm21, {{.*(%rbp).*}} # 64-byte Spill 66 ; WIN64: vmovups %zmm6, {{.*(%rbp).*}} # 64-byte Spill 68 ; WIN64: vmovups {{.*(%rbp).*}}, %zmm6 # 64-byte Reload 69 ; WIN64: vmovups {{.*(%rbp).*}}, %zmm21 # 64-byte Reload 76 ; X64: vmovups %zmm31, {{.*}}(%rsp) ## 64-byte Spill 77 ; X64: vmovups %zmm16, {{.*}}(%rsp) ## 64-byte Spill 79 ; X64: vmovups {{.*}}(%rsp), %zmm16 ## 64-byte Reload 80 ; X64: vmovups {{.*}}(%rsp), %zmm31 ## 64-byte Reload
|
D | vzero-excess.ll | 12 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 16 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload 38 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 41 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload 54 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 58 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload 80 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 83 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
|
D | nontemporal-loads.ll | 1146 ; AVX-NEXT: vmovups (%rdi), %xmm0 1151 ; AVX512-NEXT: vmovups (%rdi), %xmm0 1165 ; AVX-NEXT: vmovups (%rdi), %xmm0 1170 ; AVX512F-NEXT: vmovups (%rdi), %xmm0 1175 ; AVX512BW-NEXT: vmovups (%rdi), %xmm0 1194 ; AVX-NEXT: vmovups (%rdi), %xmm0 1199 ; AVX512F-NEXT: vmovups (%rdi), %xmm0 1204 ; AVX512BW-NEXT: vmovups (%rdi), %xmm0 1223 ; AVX-NEXT: vmovups (%rdi), %xmm0 1228 ; AVX512F-NEXT: vmovups (%rdi), %xmm0 [all …]
|
/external/boringssl/linux-x86_64/crypto/fipsmodule/ |
D | aesni-gcm-x86_64.S | 46 vmovups 16-128(%rcx),%xmm2 86 vmovups 32-128(%rcx),%xmm15 107 vmovups 48-128(%rcx),%xmm15 125 vmovups 64-128(%rcx),%xmm15 147 vmovups 80-128(%rcx),%xmm15 169 vmovups 96-128(%rcx),%xmm15 190 vmovups 112-128(%rcx),%xmm15 208 vmovups 128-128(%rcx),%xmm1 212 vmovups 144-128(%rcx),%xmm15 223 vmovups 160-128(%rcx),%xmm1 [all …]
|
/external/boringssl/mac-x86_64/crypto/fipsmodule/ |
D | aesni-gcm-x86_64.S | 46 vmovups 16-128(%rcx),%xmm2 86 vmovups 32-128(%rcx),%xmm15 107 vmovups 48-128(%rcx),%xmm15 125 vmovups 64-128(%rcx),%xmm15 147 vmovups 80-128(%rcx),%xmm15 169 vmovups 96-128(%rcx),%xmm15 190 vmovups 112-128(%rcx),%xmm15 208 vmovups 128-128(%rcx),%xmm1 212 vmovups 144-128(%rcx),%xmm15 223 vmovups 160-128(%rcx),%xmm1 [all …]
|
/external/boringssl/win-x86_64/crypto/fipsmodule/ |
D | aesni-gcm-x86_64.asm | 45 vmovups xmm2,XMMWORD[((16-128))+rcx] 85 vmovups xmm15,XMMWORD[((32-128))+rcx] 106 vmovups xmm15,XMMWORD[((48-128))+rcx] 124 vmovups xmm15,XMMWORD[((64-128))+rcx] 146 vmovups xmm15,XMMWORD[((80-128))+rcx] 168 vmovups xmm15,XMMWORD[((96-128))+rcx] 189 vmovups xmm15,XMMWORD[((112-128))+rcx] 207 vmovups xmm1,XMMWORD[((128-128))+rcx] 211 vmovups xmm15,XMMWORD[((144-128))+rcx] 222 vmovups xmm1,XMMWORD[((160-128))+rcx] [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/GlobalISel/ |
D | memop-vec.ll | 8 ; SKX-NEXT: vmovups (%rdi), %xmm0 26 ; SKX-NEXT: vmovups (%rdi), %ymm0 44 ; SKX-NEXT: vmovups (%rdi), %zmm0 53 ; SKX-NEXT: vmovups (%rdi), %zmm0 62 ; SKX-NEXT: vmovups %xmm0, (%rdi) 80 ; SKX-NEXT: vmovups %ymm0, (%rdi) 100 ; SKX-NEXT: vmovups %zmm0, (%rdi)
|