Home
last modified time | relevance | path

Searched refs:vmovups (Results 1 – 25 of 73) sorted by relevance

123

/external/llvm/test/CodeGen/X86/
Dmusttail-fastcall.ll64 ; AVX-DAG: vmovups %ymm0, {{.*}}
65 ; AVX-DAG: vmovups %ymm1, {{.*}}
66 ; AVX-DAG: vmovups %ymm2, {{.*}}
67 ; AVX-DAG: vmovups %ymm3, {{.*}}
68 ; AVX-DAG: vmovups %ymm4, {{.*}}
69 ; AVX-DAG: vmovups %ymm5, {{.*}}
71 ; AVX512-DAG: vmovups %zmm0, {{.*}}
72 ; AVX512-DAG: vmovups %zmm1, {{.*}}
73 ; AVX512-DAG: vmovups %zmm2, {{.*}}
74 ; AVX512-DAG: vmovups %zmm3, {{.*}}
[all …]
Dpreserve_allcc64.ll52 ;AVX: vmovups %ymm15
53 ;AVX-NEXT: vmovups %ymm14
54 ;AVX-NEXT: vmovups %ymm13
55 ;AVX-NEXT: vmovups %ymm12
56 ;AVX-NEXT: vmovups %ymm11
57 ;AVX-NEXT: vmovups %ymm10
58 ;AVX-NEXT: vmovups %ymm9
59 ;AVX-NEXT: vmovups %ymm8
60 ;AVX-NEXT: vmovups %ymm7
61 ;AVX-NEXT: vmovups %ymm6
[all …]
Dmemset-nonzero.ll27 ; AVX-NEXT: vmovups %xmm0, (%rdi)
54 ; AVX-NEXT: vmovups %ymm0, (%rdi)
88 ; AVX-NEXT: vmovups %ymm0, 32(%rdi)
89 ; AVX-NEXT: vmovups %ymm0, (%rdi)
135 ; AVX-NEXT: vmovups %ymm0, 96(%rdi)
136 ; AVX-NEXT: vmovups %ymm0, 64(%rdi)
137 ; AVX-NEXT: vmovups %ymm0, 32(%rdi)
138 ; AVX-NEXT: vmovups %ymm0, (%rdi)
182 ; AVX-NEXT: vmovups %ymm0, 224(%rdi)
183 ; AVX-NEXT: vmovups %ymm0, 192(%rdi)
[all …]
Davx-intel-ocl.ll93 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
94 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
95 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
96 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
97 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
98 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
99 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
100 ; X64: vmovups {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rsp) ## 32-byte Spill
102 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
103 ; X64: vmovups {{.*}}(%rsp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
[all …]
Dv8i1-masks.ll11 ; X32-NEXT: vmovups (%edx), %ymm0
12 ; X32-NEXT: vmovups (%ecx), %ymm1
14 ; X32-NEXT: vmovups (%eax), %ymm2
24 ; X64-NEXT: vmovups (%rdi), %ymm0
25 ; X64-NEXT: vmovups (%rsi), %ymm1
27 ; X64-NEXT: vmovups (%rdx), %ymm2
50 ; X32-NEXT: vmovups (%ecx), %ymm0
61 ; X64-NEXT: vmovups (%rsi), %ymm0
Davx512-intel-ocl.ll65 ; WIN64: vmovups %zmm21, {{.*(%rbp).*}} # 64-byte Spill
66 ; WIN64: vmovups %zmm6, {{.*(%rbp).*}} # 64-byte Spill
68 ; WIN64: vmovups {{.*(%rbp).*}}, %zmm6 # 64-byte Reload
69 ; WIN64: vmovups {{.*(%rbp).*}}, %zmm21 # 64-byte Reload
76 ; X64: vmovups %zmm31, {{.*}}(%rsp) ## 64-byte Spill
77 ; X64: vmovups %zmm16, {{.*}}(%rsp) ## 64-byte Spill
79 ; X64: vmovups {{.*}}(%rsp), %zmm16 ## 64-byte Reload
80 ; X64: vmovups {{.*}}(%rsp), %zmm31 ## 64-byte Reload
Dvzero-excess.ll12 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
16 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
38 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
41 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
54 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
58 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
80 ; CHECK-NEXT: vmovups %ymm0, (%rsp) # 32-byte Spill
83 ; CHECK-NEXT: vmovups (%rsp), %ymm0 # 32-byte Reload
Dnontemporal-loads.ll1146 ; AVX-NEXT: vmovups (%rdi), %xmm0
1151 ; AVX512-NEXT: vmovups (%rdi), %xmm0
1165 ; AVX-NEXT: vmovups (%rdi), %xmm0
1170 ; AVX512F-NEXT: vmovups (%rdi), %xmm0
1175 ; AVX512BW-NEXT: vmovups (%rdi), %xmm0
1194 ; AVX-NEXT: vmovups (%rdi), %xmm0
1199 ; AVX512F-NEXT: vmovups (%rdi), %xmm0
1204 ; AVX512BW-NEXT: vmovups (%rdi), %xmm0
1223 ; AVX-NEXT: vmovups (%rdi), %xmm0
1228 ; AVX512F-NEXT: vmovups (%rdi), %xmm0
[all …]
Dvec_fpext.ll22 ; X32-AVX-NEXT: vmovups %xmm0, (%eax)
34 ; X64-AVX-NEXT: vmovups %xmm0, (%rsi)
59 ; X32-AVX-NEXT: vmovups %ymm0, (%eax)
74 ; X64-AVX-NEXT: vmovups %ymm0, (%rsi)
105 ; X32-AVX-NEXT: vmovups %ymm1, 32(%eax)
106 ; X32-AVX-NEXT: vmovups %ymm0, (%eax)
126 ; X64-AVX-NEXT: vmovups %ymm1, 32(%rsi)
127 ; X64-AVX-NEXT: vmovups %ymm0, (%rsi)
Dvec_loadsingles.ll24 ; ALL-NEXT: vmovups (%rax), %xmm0
41 ; ALL-NEXT: vmovups (%rdi), %xmm0
65 ; FAST32-NEXT: vmovups (%rdi), %ymm0
70 ; SLOW32-NEXT: vmovups (%rdi), %xmm0
102 ; FAST32-NEXT: vmovups (%rdi), %ymm0
107 ; SLOW32-NEXT: vmovups (%rdi), %xmm0
130 ; FAST32-NEXT: vmovups 32(%rdi), %ymm0
135 ; SLOW32-NEXT: vmovups 32(%rdi), %xmm0
Davx-load-store.ll56 ; CHECK: vmovups %xmm
71 ; CHECK: vmovups %xmm
116 ; CHECK: vmovups
117 ; CHECK: vmovups
120 ; CHECK: vmovups
121 ; CHECK: vmovups
Dunaligned-32-byte-memops.ll17 ; AVXFAST-NEXT: vmovups (%rdi), %ymm0
22 ; AVX2-NEXT: vmovups (%rdi), %ymm0
40 ; AVXFAST-NEXT: vmovups %ymm0, (%rdi)
46 ; AVX2-NEXT: vmovups %ymm0, (%rdi)
58 ; AVXSLOW-NEXT: vmovups 48(%rdi), %xmm0
64 ; AVXFAST-NEXT: vmovups 48(%rdi), %ymm0
69 ; AVX2-NEXT: vmovups 48(%rdi), %ymm0
109 ; AVXSLOW-NEXT: vmovups 64(%rdi), %xmm0
115 ; AVXFAST-NEXT: vmovups 64(%rdi), %ymm0
120 ; AVX2-NEXT: vmovups 64(%rdi), %ymm0
D2012-01-11-split-cv.ll9 ; CHECK-NEXT: vmovups (%ecx), %ymm0
12 ; CHECK-NEXT: vmovups %ymm0, (%eax)
Davx512-bugfix-25270.ll13 ; CHECK-NEXT: vmovups %zmm0, (%rsp) ## 64-byte Spill
17 ; CHECK-NEXT: vmovups (%rsp), %zmm0 ## 64-byte Reload
Dpsubus.ll215 ; AVX1-NEXT: vmovups (%rdi), %ymm0
223 ; AVX1-NEXT: vmovups %ymm0, (%rdi)
259 ; AVX1-NEXT: vmovups (%rdi), %ymm0
273 ; AVX1-NEXT: vmovups %ymm0, (%rdi)
312 ; AVX1-NEXT: vmovups (%rdi), %ymm0
326 ; AVX1-NEXT: vmovups %ymm0, (%rdi)
366 ; AVX1-NEXT: vmovups (%rdi), %ymm0
374 ; AVX1-NEXT: vmovups %ymm0, (%rdi)
411 ; AVX1-NEXT: vmovups (%rdi), %ymm0
425 ; AVX1-NEXT: vmovups %ymm0, (%rdi)
[all …]
Dmerge-consecutive-loads-256.ll12 ; AVX-NEXT: vmovups 32(%rdi), %ymm0
18 ; X32-AVX-NEXT: vmovups 32(%eax), %ymm0
52 ; AVX-NEXT: vmovups 16(%rdi), %ymm0
58 ; X32-AVX-NEXT: vmovups 16(%eax), %ymm0
96 ; AVX-NEXT: vmovups 24(%rdi), %xmm0
102 ; X32-AVX-NEXT: vmovups 24(%eax), %xmm0
116 ; AVX-NEXT: vmovups 32(%rdi), %xmm0
124 ; X32-AVX-NEXT: vmovups 32(%eax), %xmm0
187 ; AVX-NEXT: vmovups 8(%rdi), %ymm0
193 ; X32-AVX-NEXT: vmovups 8(%eax), %ymm0
[all …]
Dvec_align_i256.ll9 ;CHECK-NEXT: vmovups
D2011-11-07-LegalizeBuildVector.ll5 ; CHECK: vmovups
Dsse-intrinsics-x86-upgrade.ll15 ; KNL-NEXT: vmovups %xmm0, (%eax)
/external/boringssl/linux-x86_64/crypto/fipsmodule/
Daesni-gcm-x86_64.S33 vmovups 16-128(%rcx),%xmm2
73 vmovups 32-128(%rcx),%xmm15
94 vmovups 48-128(%rcx),%xmm15
112 vmovups 64-128(%rcx),%xmm15
134 vmovups 80-128(%rcx),%xmm15
156 vmovups 96-128(%rcx),%xmm15
177 vmovups 112-128(%rcx),%xmm15
195 vmovups 128-128(%rcx),%xmm1
199 vmovups 144-128(%rcx),%xmm15
210 vmovups 160-128(%rcx),%xmm1
[all …]
/external/boringssl/mac-x86_64/crypto/fipsmodule/
Daesni-gcm-x86_64.S33 vmovups 16-128(%rcx),%xmm2
73 vmovups 32-128(%rcx),%xmm15
94 vmovups 48-128(%rcx),%xmm15
112 vmovups 64-128(%rcx),%xmm15
134 vmovups 80-128(%rcx),%xmm15
156 vmovups 96-128(%rcx),%xmm15
177 vmovups 112-128(%rcx),%xmm15
195 vmovups 128-128(%rcx),%xmm1
199 vmovups 144-128(%rcx),%xmm15
210 vmovups 160-128(%rcx),%xmm1
[all …]
/external/boringssl/win-x86_64/crypto/fipsmodule/
Daesni-gcm-x86_64.asm37 vmovups xmm2,XMMWORD[((16-128))+rcx]
77 vmovups xmm15,XMMWORD[((32-128))+rcx]
98 vmovups xmm15,XMMWORD[((48-128))+rcx]
116 vmovups xmm15,XMMWORD[((64-128))+rcx]
138 vmovups xmm15,XMMWORD[((80-128))+rcx]
160 vmovups xmm15,XMMWORD[((96-128))+rcx]
181 vmovups xmm15,XMMWORD[((112-128))+rcx]
199 vmovups xmm1,XMMWORD[((128-128))+rcx]
203 vmovups xmm15,XMMWORD[((144-128))+rcx]
214 vmovups xmm1,XMMWORD[((160-128))+rcx]
[all …]
/external/swiftshader/third_party/LLVM/test/CodeGen/X86/
Davx-load-store.ll50 ; CHECK: vmovups %ymm
62 ; CHECK: vmovups %ymm
/external/swiftshader/third_party/LLVM/test/MC/Disassembler/X86/
Dsimple-tests.txt201 # CHECK: vmovups %xmm1, %xmm0
204 # CHECK: vmovups %xmm0, %xmm1
225 # CHECK: vmovups %ymm1, %ymm0
228 # CHECK: vmovups %ymm0, %ymm1
Dx86-32.txt232 # CHECK: vmovups %xmm1, %xmm0
235 # CHECK: vmovups %xmm0, %xmm1
256 # CHECK: vmovups %ymm1, %ymm0
259 # CHECK: vmovups %ymm0, %ymm1

123