Lines Matching refs:tmp1
7 %tmp1 = load <8 x i8>* %B
8 %tmp2 = extractelement <8 x i8> %tmp1, i32 3
18 %tmp1 = load <8 x i8>* %B
19 %tmp2 = extractelement <8 x i8> %tmp1, i32 3
30 %tmp1 = load <4 x i16>* %B
31 %tmp2 = extractelement <4 x i16> %tmp1, i32 2
40 %tmp1 = load <2 x i32>* %B
41 %tmp2 = extractelement <2 x i32> %tmp1, i32 1
49 %tmp1 = load <2 x float>* %B
50 %tmp2 = extractelement <2 x float> %tmp1, i32 1
59 %tmp1 = load <16 x i8>* %B
60 %tmp2 = extractelement <16 x i8> %tmp1, i32 9
68 %tmp1 = load <8 x i16>* %B
69 %tmp2 = extractelement <8 x i16> %tmp1, i32 5
78 %tmp1 = load <4 x i32>* %B
79 %tmp2 = extractelement <4 x i32> %tmp1, i32 3
90 %tmp1 = load <4 x i32>* %B
91 %tmp2 = extractelement <4 x i32> %tmp1, i32 3
102 %tmp1 = load <4 x float>* %B
103 %tmp2 = extractelement <4 x float> %tmp1, i32 3
112 %tmp1 = load <8 x i8>* %B
113 call void @llvm.arm.neon.vst2lane.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, i32 1, i32 4)
122 %tmp1 = load <4 x i16>* %B
123 call void @llvm.arm.neon.vst2lane.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, i32 1, i32 8)
133 %tmp1 = load <4 x i16>* %B
134 call void @llvm.arm.neon.vst2lane.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, i32 1, i32 2)
144 %tmp1 = load <2 x i32>* %B
145 call void @llvm.arm.neon.vst2lane.v2i32(i8* %tmp0, <2 x i32> %tmp1, <2 x i32> %tmp1, i32 1, i32 1)
153 %tmp1 = load <2 x float>* %B
154 …call void @llvm.arm.neon.vst2lane.v2f32(i8* %tmp0, <2 x float> %tmp1, <2 x float> %tmp1, i32 1, i3…
163 %tmp1 = load <8 x i16>* %B
164 call void @llvm.arm.neon.vst2lane.v8i16(i8* %tmp0, <8 x i16> %tmp1, <8 x i16> %tmp1, i32 5, i32 1)
173 %tmp1 = load <4 x i32>* %B
174 call void @llvm.arm.neon.vst2lane.v4i32(i8* %tmp0, <4 x i32> %tmp1, <4 x i32> %tmp1, i32 2, i32 16)
182 %tmp1 = load <4 x float>* %B
183 …call void @llvm.arm.neon.vst2lane.v4f32(i8* %tmp0, <4 x float> %tmp1, <4 x float> %tmp1, i32 3, i3…
199 %tmp1 = load <8 x i8>* %B
200 …call void @llvm.arm.neon.vst3lane.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %tmp1, i32…
209 %tmp1 = load <4 x i16>* %B
210 …void @llvm.arm.neon.vst3lane.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, <4 x i16> %tmp1, i…
218 %tmp1 = load <2 x i32>* %B
219 …void @llvm.arm.neon.vst3lane.v2i32(i8* %tmp0, <2 x i32> %tmp1, <2 x i32> %tmp1, <2 x i32> %tmp1, i…
227 %tmp1 = load <2 x float>* %B
228 … @llvm.arm.neon.vst3lane.v2f32(i8* %tmp0, <2 x float> %tmp1, <2 x float> %tmp1, <2 x float> %tmp1,…
237 %tmp1 = load <8 x i16>* %B
238 …void @llvm.arm.neon.vst3lane.v8i16(i8* %tmp0, <8 x i16> %tmp1, <8 x i16> %tmp1, <8 x i16> %tmp1, i…
246 %tmp1 = load <4 x i32>* %B
247 …void @llvm.arm.neon.vst3lane.v4i32(i8* %tmp0, <4 x i32> %tmp1, <4 x i32> %tmp1, <4 x i32> %tmp1, i…
257 %tmp1 = load <4 x i32>* %B
258 …void @llvm.arm.neon.vst3lane.v4i32(i8* %tmp0, <4 x i32> %tmp1, <4 x i32> %tmp1, <4 x i32> %tmp1, i…
268 %tmp1 = load <4 x float>* %B
269 … @llvm.arm.neon.vst3lane.v4f32(i8* %tmp0, <4 x float> %tmp1, <4 x float> %tmp1, <4 x float> %tmp1,…
287 %tmp1 = load <8 x i8>* %B
288 …id @llvm.arm.neon.vst4lane.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %…
297 %tmp1 = load <8 x i8>* %B
298 …id @llvm.arm.neon.vst4lane.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %…
308 %tmp1 = load <4 x i16>* %B
309 …vm.arm.neon.vst4lane.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, <4 x i16> %tmp1, <4 x i16>…
318 %tmp1 = load <2 x i32>* %B
319 …vm.arm.neon.vst4lane.v2i32(i8* %tmp0, <2 x i32> %tmp1, <2 x i32> %tmp1, <2 x i32> %tmp1, <2 x i32>…
327 %tmp1 = load <2 x float>* %B
328 …m.neon.vst4lane.v2f32(i8* %tmp0, <2 x float> %tmp1, <2 x float> %tmp1, <2 x float> %tmp1, <2 x flo…
337 %tmp1 = load <8 x i16>* %B
338 …vm.arm.neon.vst4lane.v8i16(i8* %tmp0, <8 x i16> %tmp1, <8 x i16> %tmp1, <8 x i16> %tmp1, <8 x i16>…
347 %tmp1 = load <4 x i32>* %B
348 …vm.arm.neon.vst4lane.v4i32(i8* %tmp0, <4 x i32> %tmp1, <4 x i32> %tmp1, <4 x i32> %tmp1, <4 x i32>…
356 %tmp1 = load <4 x float>* %B
357 …m.neon.vst4lane.v4f32(i8* %tmp0, <4 x float> %tmp1, <4 x float> %tmp1, <4 x float> %tmp1, <4 x flo…