/external/llvm/test/CodeGen/X86/ |
D | musttail-fastcall.ll | 64 ; AVX-DAG: vmovups %ymm0, {{.*}} 65 ; AVX-DAG: vmovups %ymm1, {{.*}} 66 ; AVX-DAG: vmovups %ymm2, {{.*}} 67 ; AVX-DAG: vmovups %ymm3, {{.*}} 68 ; AVX-DAG: vmovups %ymm4, {{.*}} 69 ; AVX-DAG: vmovups %ymm5, {{.*}} 71 ; AVX512-DAG: vmovups %zmm0, {{.*}} 72 ; AVX512-DAG: vmovups %zmm1, {{.*}} 73 ; AVX512-DAG: vmovups %zmm2, {{.*}} 74 ; AVX512-DAG: vmovups %zmm3, {{.*}} [all …]
|
D | preserve_allcc64.ll | 52 ;AVX: vmovups %ymm15 53 ;AVX-NEXT: vmovups %ymm14 54 ;AVX-NEXT: vmovups %ymm13 55 ;AVX-NEXT: vmovups %ymm12 56 ;AVX-NEXT: vmovups %ymm11 57 ;AVX-NEXT: vmovups %ymm10 58 ;AVX-NEXT: vmovups %ymm9 59 ;AVX-NEXT: vmovups %ymm8 60 ;AVX-NEXT: vmovups %ymm7 61 ;AVX-NEXT: vmovups %ymm6 [all …]
|
D | memset-nonzero.ll | 27 ; AVX-NEXT: vmovups %xmm0, (%rdi) 54 ; AVX-NEXT: vmovups %ymm0, (%rdi) 88 ; AVX-NEXT: vmovups %ymm0, 32(%rdi) 89 ; AVX-NEXT: vmovups %ymm0, (%rdi) 135 ; AVX-NEXT: vmovups %ymm0, 96(%rdi) 136 ; AVX-NEXT: vmovups %ymm0, 64(%rdi) 137 ; AVX-NEXT: vmovups %ymm0, 32(%rdi) 138 ; AVX-NEXT: vmovups %ymm0, (%rdi) 182 ; AVX-NEXT: vmovups %ymm0, 224(%rdi) 183 ; AVX-NEXT: vmovups %ymm0, 192(%rdi) [all …]
|
D | avx-intel-ocl.ll | 93 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 94 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 95 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 96 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 97 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 98 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 99 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 100 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill 102 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload 103 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload [all …]
|
D | v8i1-masks.ll | 11 ; X32-NEXT: vmovups (%edx), %ymm0 12 ; X32-NEXT: vmovups (%ecx), %ymm1 14 ; X32-NEXT: vmovups (%eax), %ymm2 24 ; X64-NEXT: vmovups (%rdi), %ymm0 25 ; X64-NEXT: vmovups (%rsi), %ymm1 27 ; X64-NEXT: vmovups (%rdx), %ymm2 50 ; X32-NEXT: vmovups (%ecx), %ymm0 61 ; X64-NEXT: vmovups (%rsi), %ymm0
|
D | avx512-intel-ocl.ll | 65 ; WIN64: vmovups %zmm21, {{.*(%rbp).*}} # 64-byte Spill 66 ; WIN64: vmovups %zmm6, {{.*(%rbp).*}} # 64-byte Spill 68 ; WIN64: vmovups {{.*(%rbp).*}}, %zmm6 # 64-byte Reload 69 ; WIN64: vmovups {{.*(%rbp).*}}, %zmm21 # 64-byte Reload 76 ; X64: vmovups %zmm31, {{.*}}(%rsp) ## 64-byte Spill 77 ; X64: vmovups %zmm16, {{.*}}(%rsp) ## 64-byte Spill 79 ; X64: vmovups {{.*}}(%rsp), %zmm16 ## 64-byte Reload 80 ; X64: vmovups {{.*}}(%rsp), %zmm31 ## 64-byte Reload
|
D | vzero-excess.ll | 12 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 16 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload 38 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 41 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload 54 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 58 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload 80 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill 83 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
|
D | nontemporal-loads.ll | 1146 ; AVX-NEXT: vmovups (%rdi), %xmm0 1151 ; AVX512-NEXT: vmovups (%rdi), %xmm0 1165 ; AVX-NEXT: vmovups (%rdi), %xmm0 1170 ; AVX512F-NEXT: vmovups (%rdi), %xmm0 1175 ; AVX512BW-NEXT: vmovups (%rdi), %xmm0 1194 ; AVX-NEXT: vmovups (%rdi), %xmm0 1199 ; AVX512F-NEXT: vmovups (%rdi), %xmm0 1204 ; AVX512BW-NEXT: vmovups (%rdi), %xmm0 1223 ; AVX-NEXT: vmovups (%rdi), %xmm0 1228 ; AVX512F-NEXT: vmovups (%rdi), %xmm0 [all …]
|
D | vec_fpext.ll | 22 ; X32-AVX-NEXT: vmovups %xmm0, (%eax) 34 ; X64-AVX-NEXT: vmovups %xmm0, (%rsi) 59 ; X32-AVX-NEXT: vmovups %ymm0, (%eax) 74 ; X64-AVX-NEXT: vmovups %ymm0, (%rsi) 105 ; X32-AVX-NEXT: vmovups %ymm1, 32(%eax) 106 ; X32-AVX-NEXT: vmovups %ymm0, (%eax) 126 ; X64-AVX-NEXT: vmovups %ymm1, 32(%rsi) 127 ; X64-AVX-NEXT: vmovups %ymm0, (%rsi)
|
D | vec_loadsingles.ll | 24 ; ALL-NEXT: vmovups (%rax), %xmm0 41 ; ALL-NEXT: vmovups (%rdi), %xmm0 65 ; FAST32-NEXT: vmovups (%rdi), %ymm0 70 ; SLOW32-NEXT: vmovups (%rdi), %xmm0 102 ; FAST32-NEXT: vmovups (%rdi), %ymm0 107 ; SLOW32-NEXT: vmovups (%rdi), %xmm0 130 ; FAST32-NEXT: vmovups 32(%rdi), %ymm0 135 ; SLOW32-NEXT: vmovups 32(%rdi), %xmm0
|
D | avx-load-store.ll | 56 ; CHECK: vmovups %xmm 71 ; CHECK: vmovups %xmm 116 ; CHECK: vmovups 117 ; CHECK: vmovups 120 ; CHECK: vmovups 121 ; CHECK: vmovups
|
D | unaligned-32-byte-memops.ll | 17 ; AVXFAST-NEXT: vmovups (%rdi), %ymm0 22 ; AVX2-NEXT: vmovups (%rdi), %ymm0 40 ; AVXFAST-NEXT: vmovups %ymm0, (%rdi) 46 ; AVX2-NEXT: vmovups %ymm0, (%rdi) 58 ; AVXSLOW-NEXT: vmovups 48(%rdi), %xmm0 64 ; AVXFAST-NEXT: vmovups 48(%rdi), %ymm0 69 ; AVX2-NEXT: vmovups 48(%rdi), %ymm0 109 ; AVXSLOW-NEXT: vmovups 64(%rdi), %xmm0 115 ; AVXFAST-NEXT: vmovups 64(%rdi), %ymm0 120 ; AVX2-NEXT: vmovups 64(%rdi), %ymm0
|
D | 2012-01-11-split-cv.ll | 9 ; CHECK-NEXT: vmovups (%ecx), %ymm0 12 ; CHECK-NEXT: vmovups %ymm0, (%eax)
|
D | avx512-bugfix-25270.ll | 13 ; CHECK-NEXT: vmovups %zmm0, (%rsp) ## 64-byte Spill 17 ; CHECK-NEXT: vmovups (%rsp), %zmm0 ## 64-byte Reload
|
D | psubus.ll | 215 ; AVX1-NEXT: vmovups (%rdi), %ymm0 223 ; AVX1-NEXT: vmovups %ymm0, (%rdi) 259 ; AVX1-NEXT: vmovups (%rdi), %ymm0 273 ; AVX1-NEXT: vmovups %ymm0, (%rdi) 312 ; AVX1-NEXT: vmovups (%rdi), %ymm0 326 ; AVX1-NEXT: vmovups %ymm0, (%rdi) 366 ; AVX1-NEXT: vmovups (%rdi), %ymm0 374 ; AVX1-NEXT: vmovups %ymm0, (%rdi) 411 ; AVX1-NEXT: vmovups (%rdi), %ymm0 425 ; AVX1-NEXT: vmovups %ymm0, (%rdi) [all …]
|
D | merge-consecutive-loads-256.ll | 12 ; AVX-NEXT: vmovups 32(%rdi), %ymm0 18 ; X32-AVX-NEXT: vmovups 32(%eax), %ymm0 52 ; AVX-NEXT: vmovups 16(%rdi), %ymm0 58 ; X32-AVX-NEXT: vmovups 16(%eax), %ymm0 96 ; AVX-NEXT: vmovups 24(%rdi), %xmm0 102 ; X32-AVX-NEXT: vmovups 24(%eax), %xmm0 116 ; AVX-NEXT: vmovups 32(%rdi), %xmm0 124 ; X32-AVX-NEXT: vmovups 32(%eax), %xmm0 187 ; AVX-NEXT: vmovups 8(%rdi), %ymm0 193 ; X32-AVX-NEXT: vmovups 8(%eax), %ymm0 [all …]
|
D | vec_align_i256.ll | 9 ;CHECK-NEXT: vmovups
|
D | 2011-11-07-LegalizeBuildVector.ll | 5 ; CHECK: vmovups
|
D | sse-intrinsics-x86-upgrade.ll | 15 ; KNL-NEXT: vmovups %xmm0, (%eax)
|
/external/boringssl/linux-x86_64/crypto/fipsmodule/ |
D | aesni-gcm-x86_64.S | 33 vmovups 16-128(%rcx),%xmm2 73 vmovups 32-128(%rcx),%xmm15 94 vmovups 48-128(%rcx),%xmm15 112 vmovups 64-128(%rcx),%xmm15 134 vmovups 80-128(%rcx),%xmm15 156 vmovups 96-128(%rcx),%xmm15 177 vmovups 112-128(%rcx),%xmm15 195 vmovups 128-128(%rcx),%xmm1 199 vmovups 144-128(%rcx),%xmm15 210 vmovups 160-128(%rcx),%xmm1 [all …]
|
/external/boringssl/mac-x86_64/crypto/fipsmodule/ |
D | aesni-gcm-x86_64.S | 33 vmovups 16-128(%rcx),%xmm2 73 vmovups 32-128(%rcx),%xmm15 94 vmovups 48-128(%rcx),%xmm15 112 vmovups 64-128(%rcx),%xmm15 134 vmovups 80-128(%rcx),%xmm15 156 vmovups 96-128(%rcx),%xmm15 177 vmovups 112-128(%rcx),%xmm15 195 vmovups 128-128(%rcx),%xmm1 199 vmovups 144-128(%rcx),%xmm15 210 vmovups 160-128(%rcx),%xmm1 [all …]
|
/external/boringssl/win-x86_64/crypto/fipsmodule/ |
D | aesni-gcm-x86_64.asm | 37 vmovups xmm2,XMMWORD[((16-128))+rcx] 77 vmovups xmm15,XMMWORD[((32-128))+rcx] 98 vmovups xmm15,XMMWORD[((48-128))+rcx] 116 vmovups xmm15,XMMWORD[((64-128))+rcx] 138 vmovups xmm15,XMMWORD[((80-128))+rcx] 160 vmovups xmm15,XMMWORD[((96-128))+rcx] 181 vmovups xmm15,XMMWORD[((112-128))+rcx] 199 vmovups xmm1,XMMWORD[((128-128))+rcx] 203 vmovups xmm15,XMMWORD[((144-128))+rcx] 214 vmovups xmm1,XMMWORD[((160-128))+rcx] [all …]
|
/external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
D | avx-load-store.ll | 50 ; CHECK: vmovups %ymm 62 ; CHECK: vmovups %ymm
|
/external/swiftshader/third_party/LLVM/test/MC/Disassembler/X86/ |
D | simple-tests.txt | 201 # CHECK: vmovups %xmm1, %xmm0 204 # CHECK: vmovups %xmm0, %xmm1 225 # CHECK: vmovups %ymm1, %ymm0 228 # CHECK: vmovups %ymm0, %ymm1
|
D | x86-32.txt | 232 # CHECK: vmovups %xmm1, %xmm0 235 # CHECK: vmovups %xmm0, %xmm1 256 # CHECK: vmovups %ymm1, %ymm0 259 # CHECK: vmovups %ymm0, %ymm1
|