Home
last modified time | relevance | path

Searched refs:vmovups (Results 1 – 25 of 197) sorted by relevance

12345678

/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/
Dmusttail-fastcall.ll64 ; AVX-DAG: vmovups %ymm0, {{.*}}
65 ; AVX-DAG: vmovups %ymm1, {{.*}}
66 ; AVX-DAG: vmovups %ymm2, {{.*}}
67 ; AVX-DAG: vmovups %ymm3, {{.*}}
68 ; AVX-DAG: vmovups %ymm4, {{.*}}
69 ; AVX-DAG: vmovups %ymm5, {{.*}}
71 ; AVX512-DAG: vmovups %zmm0, {{.*}}
72 ; AVX512-DAG: vmovups %zmm1, {{.*}}
73 ; AVX512-DAG: vmovups %zmm2, {{.*}}
74 ; AVX512-DAG: vmovups %zmm3, {{.*}}
[all …]
Dx86-interrupt_cc.ll48 ; CHECK64-KNL-NEXT: vmovups %zmm31, {{[0-9]+}}(%rsp) ## 64-byte Spill
50 ; CHECK64-KNL-NEXT: vmovups %zmm30, {{[0-9]+}}(%rsp) ## 64-byte Spill
52 ; CHECK64-KNL-NEXT: vmovups %zmm29, {{[0-9]+}}(%rsp) ## 64-byte Spill
54 ; CHECK64-KNL-NEXT: vmovups %zmm28, {{[0-9]+}}(%rsp) ## 64-byte Spill
56 ; CHECK64-KNL-NEXT: vmovups %zmm27, {{[0-9]+}}(%rsp) ## 64-byte Spill
58 ; CHECK64-KNL-NEXT: vmovups %zmm26, {{[0-9]+}}(%rsp) ## 64-byte Spill
60 ; CHECK64-KNL-NEXT: vmovups %zmm25, {{[0-9]+}}(%rsp) ## 64-byte Spill
62 ; CHECK64-KNL-NEXT: vmovups %zmm24, {{[0-9]+}}(%rsp) ## 64-byte Spill
64 ; CHECK64-KNL-NEXT: vmovups %zmm23, {{[0-9]+}}(%rsp) ## 64-byte Spill
66 ; CHECK64-KNL-NEXT: vmovups %zmm22, {{[0-9]+}}(%rsp) ## 64-byte Spill
[all …]
Davx512-intel-ocl.ll303 ; X64-KNL-NEXT: vmovups %zmm31, {{[0-9]+}}(%rsp) ## 64-byte Spill
304 ; X64-KNL-NEXT: vmovups %zmm30, {{[0-9]+}}(%rsp) ## 64-byte Spill
305 ; X64-KNL-NEXT: vmovups %zmm29, {{[0-9]+}}(%rsp) ## 64-byte Spill
306 ; X64-KNL-NEXT: vmovups %zmm28, {{[0-9]+}}(%rsp) ## 64-byte Spill
307 ; X64-KNL-NEXT: vmovups %zmm27, {{[0-9]+}}(%rsp) ## 64-byte Spill
308 ; X64-KNL-NEXT: vmovups %zmm26, {{[0-9]+}}(%rsp) ## 64-byte Spill
309 ; X64-KNL-NEXT: vmovups %zmm25, {{[0-9]+}}(%rsp) ## 64-byte Spill
310 ; X64-KNL-NEXT: vmovups %zmm24, {{[0-9]+}}(%rsp) ## 64-byte Spill
311 ; X64-KNL-NEXT: vmovups %zmm23, {{[0-9]+}}(%rsp) ## 64-byte Spill
312 ; X64-KNL-NEXT: vmovups %zmm22, {{[0-9]+}}(%rsp) ## 64-byte Spill
[all …]
Dpreserve_allcc64.ll52 ;AVX: vmovups %ymm15
53 ;AVX-NEXT: vmovups %ymm14
54 ;AVX-NEXT: vmovups %ymm13
55 ;AVX-NEXT: vmovups %ymm12
56 ;AVX-NEXT: vmovups %ymm11
57 ;AVX-NEXT: vmovups %ymm10
58 ;AVX-NEXT: vmovups %ymm9
59 ;AVX-NEXT: vmovups %ymm8
60 ;AVX-NEXT: vmovups %ymm7
61 ;AVX-NEXT: vmovups %ymm6
[all …]
Davx-intel-ocl.ll93 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
94 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
95 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
96 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
97 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
98 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
99 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
100 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
102 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
103 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
[all …]
Dmemset-nonzero.ll27 ; AVX-NEXT: vmovups %xmm0, (%rdi)
53 ; AVX-NEXT: vmovups %ymm0, (%rdi)
86 ; AVX-NEXT: vmovups %ymm0, 32(%rdi)
87 ; AVX-NEXT: vmovups %ymm0, (%rdi)
132 ; AVX-NEXT: vmovups %ymm0, 96(%rdi)
133 ; AVX-NEXT: vmovups %ymm0, 64(%rdi)
134 ; AVX-NEXT: vmovups %ymm0, 32(%rdi)
135 ; AVX-NEXT: vmovups %ymm0, (%rdi)
178 ; AVX-NEXT: vmovups %ymm0, 224(%rdi)
179 ; AVX-NEXT: vmovups %ymm0, 192(%rdi)
[all …]
Dv8i1-masks.ll13 ; X32-NEXT: vmovups (%edx), %ymm0
14 ; X32-NEXT: vmovups (%ecx), %ymm1
16 ; X32-NEXT: vmovups (%eax), %ymm2
26 ; X64-NEXT: vmovups (%rdi), %ymm0
27 ; X64-NEXT: vmovups (%rsi), %ymm1
29 ; X64-NEXT: vmovups (%rdx), %ymm2
42 ; X32-AVX2-NEXT: vmovups (%edx), %ymm0
43 ; X32-AVX2-NEXT: vmovups (%ecx), %ymm1
45 ; X32-AVX2-NEXT: vmovups (%eax), %ymm2
56 ; X64-AVX2-NEXT: vmovups (%rdi), %ymm0
[all …]
Dpmovsx-inreg.ll23 ; AVX-NEXT: vmovups %xmm1, (%rax)
33 ; X32-AVX2-NEXT: vmovups %xmm1, (%eax)
63 ; AVX1-NEXT: vmovups %ymm0, (%rsi)
71 ; AVX2-NEXT: vmovups %ymm1, (%rax)
82 ; X32-AVX2-NEXT: vmovups %ymm1, (%eax)
106 ; AVX-NEXT: vmovups %xmm1, (%rax)
116 ; X32-AVX2-NEXT: vmovups %xmm1, (%eax)
146 ; AVX1-NEXT: vmovups %ymm0, (%rsi)
154 ; AVX2-NEXT: vmovups %ymm1, (%rax)
165 ; X32-AVX2-NEXT: vmovups %ymm1, (%eax)
[all …]
Davx-load-store.ll16 ; CHECK-NEXT: vmovups %ymm0, {{[0-9]+}}(%rsp) # 32-byte Spill
18 ; CHECK-NEXT: vmovups %ymm1, {{[0-9]+}}(%rsp) # 32-byte Spill
20 ; CHECK-NEXT: vmovups %ymm2, (%rsp) # 32-byte Spill
22 ; CHECK-NEXT: vmovups {{[0-9]+}}(%rsp), %ymm0 # 32-byte Reload
24 ; CHECK-NEXT: vmovups {{[0-9]+}}(%rsp), %ymm0 # 32-byte Reload
26 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
41 ; CHECK_O0-NEXT: vmovups %ymm0, {{[0-9]+}}(%rsp) # 32-byte Spill
42 ; CHECK_O0-NEXT: vmovups %ymm1, {{[0-9]+}}(%rsp) # 32-byte Spill
43 ; CHECK_O0-NEXT: vmovups %ymm2, {{[0-9]+}}(%rsp) # 32-byte Spill
49 ; CHECK_O0-NEXT: vmovups {{[0-9]+}}(%rsp), %ymm0 # 32-byte Reload
[all …]
Dvzero-excess.ll12 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
16 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
38 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
41 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
54 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
58 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
80 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
83 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
Davoid-sfb.ll51 ; CHECK-AVX2-NEXT: vmovups (%r8), %xmm0
52 ; CHECK-AVX2-NEXT: vmovups %xmm0, (%rcx)
68 ; CHECK-AVX512-NEXT: vmovups (%r8), %xmm0
69 ; CHECK-AVX512-NEXT: vmovups %xmm0, (%rcx)
206 ; CHECK-AVX2-NEXT: vmovups (%r8), %xmm0
207 ; CHECK-AVX2-NEXT: vmovups %xmm0, (%rcx)
228 ; CHECK-AVX512-NEXT: vmovups (%r8), %xmm0
229 ; CHECK-AVX512-NEXT: vmovups %xmm0, (%rcx)
309 ; CHECK-AVX2-NEXT: vmovups (%r8), %xmm0
310 ; CHECK-AVX2-NEXT: vmovups %xmm0, (%rcx)
[all …]
Dmerge-store-constants.ll10 ; X32-NEXT: vmovups %xmm0, (%eax)
16 ; X64-NEXT: vmovups %xmm0, (%rdi)
38 ; X32-NEXT: vmovups %xmm0, (%eax)
62 ; X32-NEXT: vmovups %ymm0, (%eax)
69 ; X64-NEXT: vmovups %ymm0, (%rdi)
98 ; X32-NEXT: vmovups %ymm0, (%eax)
100 ; X32-NEXT: vmovups %xmm0, 32(%eax)
112 ; X64-NEXT: vmovups %ymm0, (%rdi)
Dpr34605.ll23 ; CHECK-NEXT: vmovups %zmm1, 64(%eax)
24 ; CHECK-NEXT: vmovups %zmm1, 128(%eax)
25 ; CHECK-NEXT: vmovups %zmm1, 192(%eax)
26 ; CHECK-NEXT: vmovups %zmm1, 256(%eax)
27 ; CHECK-NEXT: vmovups %zmm1, 320(%eax)
28 ; CHECK-NEXT: vmovups %zmm1, 384(%eax)
29 ; CHECK-NEXT: vmovups %zmm1, 448(%eax)
/external/llvm/test/CodeGen/X86/
Dmusttail-fastcall.ll64 ; AVX-DAG: vmovups %ymm0, {{.*}}
65 ; AVX-DAG: vmovups %ymm1, {{.*}}
66 ; AVX-DAG: vmovups %ymm2, {{.*}}
67 ; AVX-DAG: vmovups %ymm3, {{.*}}
68 ; AVX-DAG: vmovups %ymm4, {{.*}}
69 ; AVX-DAG: vmovups %ymm5, {{.*}}
71 ; AVX512-DAG: vmovups %zmm0, {{.*}}
72 ; AVX512-DAG: vmovups %zmm1, {{.*}}
73 ; AVX512-DAG: vmovups %zmm2, {{.*}}
74 ; AVX512-DAG: vmovups %zmm3, {{.*}}
[all …]
Dpreserve_allcc64.ll52 ;AVX: vmovups %ymm15
53 ;AVX-NEXT: vmovups %ymm14
54 ;AVX-NEXT: vmovups %ymm13
55 ;AVX-NEXT: vmovups %ymm12
56 ;AVX-NEXT: vmovups %ymm11
57 ;AVX-NEXT: vmovups %ymm10
58 ;AVX-NEXT: vmovups %ymm9
59 ;AVX-NEXT: vmovups %ymm8
60 ;AVX-NEXT: vmovups %ymm7
61 ;AVX-NEXT: vmovups %ymm6
[all …]
Dmemset-nonzero.ll27 ; AVX-NEXT: vmovups %xmm0, (%rdi)
54 ; AVX-NEXT: vmovups %ymm0, (%rdi)
88 ; AVX-NEXT: vmovups %ymm0, 32(%rdi)
89 ; AVX-NEXT: vmovups %ymm0, (%rdi)
135 ; AVX-NEXT: vmovups %ymm0, 96(%rdi)
136 ; AVX-NEXT: vmovups %ymm0, 64(%rdi)
137 ; AVX-NEXT: vmovups %ymm0, 32(%rdi)
138 ; AVX-NEXT: vmovups %ymm0, (%rdi)
182 ; AVX-NEXT: vmovups %ymm0, 224(%rdi)
183 ; AVX-NEXT: vmovups %ymm0, 192(%rdi)
[all …]
Davx-intel-ocl.ll93 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
94 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
95 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
96 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
97 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
98 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
99 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
100 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
102 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
103 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
[all …]
Dv8i1-masks.ll11 ; X32-NEXT: vmovups (%edx), %ymm0
12 ; X32-NEXT: vmovups (%ecx), %ymm1
14 ; X32-NEXT: vmovups (%eax), %ymm2
24 ; X64-NEXT: vmovups (%rdi), %ymm0
25 ; X64-NEXT: vmovups (%rsi), %ymm1
27 ; X64-NEXT: vmovups (%rdx), %ymm2
50 ; X32-NEXT: vmovups (%ecx), %ymm0
61 ; X64-NEXT: vmovups (%rsi), %ymm0
Davx512-intel-ocl.ll65 ; WIN64: vmovups %zmm21, {{.*(%rbp).*}} # 64-byte Spill
66 ; WIN64: vmovups %zmm6, {{.*(%rbp).*}} # 64-byte Spill
68 ; WIN64: vmovups {{.*(%rbp).*}}, %zmm6 # 64-byte Reload
69 ; WIN64: vmovups {{.*(%rbp).*}}, %zmm21 # 64-byte Reload
76 ; X64: vmovups %zmm31, {{.*}}(%rsp) ## 64-byte Spill
77 ; X64: vmovups %zmm16, {{.*}}(%rsp) ## 64-byte Spill
79 ; X64: vmovups {{.*}}(%rsp), %zmm16 ## 64-byte Reload
80 ; X64: vmovups {{.*}}(%rsp), %zmm31 ## 64-byte Reload
Dvzero-excess.ll12 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
16 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
38 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
41 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
54 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
58 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
80 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
83 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
Dnontemporal-loads.ll1146 ; AVX-NEXT: vmovups (%rdi), %xmm0
1151 ; AVX512-NEXT: vmovups (%rdi), %xmm0
1165 ; AVX-NEXT: vmovups (%rdi), %xmm0
1170 ; AVX512F-NEXT: vmovups (%rdi), %xmm0
1175 ; AVX512BW-NEXT: vmovups (%rdi), %xmm0
1194 ; AVX-NEXT: vmovups (%rdi), %xmm0
1199 ; AVX512F-NEXT: vmovups (%rdi), %xmm0
1204 ; AVX512BW-NEXT: vmovups (%rdi), %xmm0
1223 ; AVX-NEXT: vmovups (%rdi), %xmm0
1228 ; AVX512F-NEXT: vmovups (%rdi), %xmm0
[all …]
/external/boringssl/linux-x86_64/crypto/fipsmodule/
Daesni-gcm-x86_64.S46 vmovups 16-128(%rcx),%xmm2
86 vmovups 32-128(%rcx),%xmm15
107 vmovups 48-128(%rcx),%xmm15
125 vmovups 64-128(%rcx),%xmm15
147 vmovups 80-128(%rcx),%xmm15
169 vmovups 96-128(%rcx),%xmm15
190 vmovups 112-128(%rcx),%xmm15
208 vmovups 128-128(%rcx),%xmm1
212 vmovups 144-128(%rcx),%xmm15
223 vmovups 160-128(%rcx),%xmm1
[all …]
/external/boringssl/mac-x86_64/crypto/fipsmodule/
Daesni-gcm-x86_64.S46 vmovups 16-128(%rcx),%xmm2
86 vmovups 32-128(%rcx),%xmm15
107 vmovups 48-128(%rcx),%xmm15
125 vmovups 64-128(%rcx),%xmm15
147 vmovups 80-128(%rcx),%xmm15
169 vmovups 96-128(%rcx),%xmm15
190 vmovups 112-128(%rcx),%xmm15
208 vmovups 128-128(%rcx),%xmm1
212 vmovups 144-128(%rcx),%xmm15
223 vmovups 160-128(%rcx),%xmm1
[all …]
/external/boringssl/win-x86_64/crypto/fipsmodule/
Daesni-gcm-x86_64.asm45 vmovups xmm2,XMMWORD[((16-128))+rcx]
85 vmovups xmm15,XMMWORD[((32-128))+rcx]
106 vmovups xmm15,XMMWORD[((48-128))+rcx]
124 vmovups xmm15,XMMWORD[((64-128))+rcx]
146 vmovups xmm15,XMMWORD[((80-128))+rcx]
168 vmovups xmm15,XMMWORD[((96-128))+rcx]
189 vmovups xmm15,XMMWORD[((112-128))+rcx]
207 vmovups xmm1,XMMWORD[((128-128))+rcx]
211 vmovups xmm15,XMMWORD[((144-128))+rcx]
222 vmovups xmm1,XMMWORD[((160-128))+rcx]
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/GlobalISel/
Dmemop-vec.ll8 ; SKX-NEXT: vmovups (%rdi), %xmm0
26 ; SKX-NEXT: vmovups (%rdi), %ymm0
44 ; SKX-NEXT: vmovups (%rdi), %zmm0
53 ; SKX-NEXT: vmovups (%rdi), %zmm0
62 ; SKX-NEXT: vmovups %xmm0, (%rdi)
80 ; SKX-NEXT: vmovups %ymm0, (%rdi)
100 ; SKX-NEXT: vmovups %zmm0, (%rdi)

12345678