• Home
  • Raw
  • Download

Lines Matching refs:tmp2

7 	%tmp2 = load <8 x i8>, <8 x i8>* %B
8 %tmp3 = shl <8 x i8> %tmp1, %tmp2
16 %tmp2 = load <4 x i16>, <4 x i16>* %B
17 %tmp3 = shl <4 x i16> %tmp1, %tmp2
25 %tmp2 = load <2 x i32>, <2 x i32>* %B
26 %tmp3 = shl <2 x i32> %tmp1, %tmp2
34 %tmp2 = load <1 x i64>, <1 x i64>* %B
35 %tmp3 = shl <1 x i64> %tmp1, %tmp2
43 %tmp2 = shl <8 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 >
44 ret <8 x i8> %tmp2
51 %tmp2 = shl <4 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15 >
52 ret <4 x i16> %tmp2
59 %tmp2 = shl <2 x i32> %tmp1, < i32 31, i32 31 >
60 ret <2 x i32> %tmp2
67 %tmp2 = shl <1 x i64> %tmp1, < i64 63 >
68 ret <1 x i64> %tmp2
75 %tmp2 = load <16 x i8>, <16 x i8>* %B
76 %tmp3 = shl <16 x i8> %tmp1, %tmp2
84 %tmp2 = load <8 x i16>, <8 x i16>* %B
85 %tmp3 = shl <8 x i16> %tmp1, %tmp2
93 %tmp2 = load <4 x i32>, <4 x i32>* %B
94 %tmp3 = shl <4 x i32> %tmp1, %tmp2
102 %tmp2 = load <2 x i64>, <2 x i64>* %B
103 %tmp3 = shl <2 x i64> %tmp1, %tmp2
111 …%tmp2 = shl <16 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i…
112 ret <16 x i8> %tmp2
119 %tmp2 = shl <8 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15 >
120 ret <8 x i16> %tmp2
127 %tmp2 = shl <4 x i32> %tmp1, < i32 31, i32 31, i32 31, i32 31 >
128 ret <4 x i32> %tmp2
135 %tmp2 = shl <2 x i64> %tmp1, < i64 63, i64 63 >
136 ret <2 x i64> %tmp2
144 %tmp2 = load <8 x i8>, <8 x i8>* %B
145 %tmp3 = lshr <8 x i8> %tmp1, %tmp2
154 %tmp2 = load <4 x i16>, <4 x i16>* %B
155 %tmp3 = lshr <4 x i16> %tmp1, %tmp2
164 %tmp2 = load <2 x i32>, <2 x i32>* %B
165 %tmp3 = lshr <2 x i32> %tmp1, %tmp2
174 %tmp2 = load <1 x i64>, <1 x i64>* %B
175 %tmp3 = lshr <1 x i64> %tmp1, %tmp2
183 %tmp2 = lshr <8 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 >
184 ret <8 x i8> %tmp2
191 %tmp2 = lshr <4 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15 >
192 ret <4 x i16> %tmp2
199 %tmp2 = lshr <2 x i32> %tmp1, < i32 31, i32 31 >
200 ret <2 x i32> %tmp2
207 %tmp2 = lshr <1 x i64> %tmp1, < i64 63 >
208 ret <1 x i64> %tmp2
216 %tmp2 = load <16 x i8>, <16 x i8>* %B
217 %tmp3 = lshr <16 x i8> %tmp1, %tmp2
226 %tmp2 = load <8 x i16>, <8 x i16>* %B
227 %tmp3 = lshr <8 x i16> %tmp1, %tmp2
236 %tmp2 = load <4 x i32>, <4 x i32>* %B
237 %tmp3 = lshr <4 x i32> %tmp1, %tmp2
246 %tmp2 = load <2 x i64>, <2 x i64>* %B
247 %tmp3 = lshr <2 x i64> %tmp1, %tmp2
255 …%tmp2 = lshr <16 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, …
256 ret <16 x i8> %tmp2
263 %tmp2 = lshr <8 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15 >
264 ret <8 x i16> %tmp2
271 %tmp2 = lshr <4 x i32> %tmp1, < i32 31, i32 31, i32 31, i32 31 >
272 ret <4 x i32> %tmp2
279 %tmp2 = lshr <2 x i64> %tmp1, < i64 63, i64 63 >
280 ret <2 x i64> %tmp2
295 %tmp2 = load <8 x i8>, <8 x i8>* %B
296 %tmp3 = ashr <8 x i8> %tmp1, %tmp2
305 %tmp2 = load <4 x i16>, <4 x i16>* %B
306 %tmp3 = ashr <4 x i16> %tmp1, %tmp2
315 %tmp2 = load <2 x i32>, <2 x i32>* %B
316 %tmp3 = ashr <2 x i32> %tmp1, %tmp2
325 %tmp2 = load <1 x i64>, <1 x i64>* %B
326 %tmp3 = ashr <1 x i64> %tmp1, %tmp2
334 %tmp2 = ashr <8 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 >
335 ret <8 x i8> %tmp2
342 %tmp2 = ashr <4 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15 >
343 ret <4 x i16> %tmp2
350 %tmp2 = ashr <2 x i32> %tmp1, < i32 31, i32 31 >
351 ret <2 x i32> %tmp2
358 %tmp2 = ashr <1 x i64> %tmp1, < i64 63 >
359 ret <1 x i64> %tmp2
367 %tmp2 = load <16 x i8>, <16 x i8>* %B
368 %tmp3 = ashr <16 x i8> %tmp1, %tmp2
377 %tmp2 = load <8 x i16>, <8 x i16>* %B
378 %tmp3 = ashr <8 x i16> %tmp1, %tmp2
387 %tmp2 = load <4 x i32>, <4 x i32>* %B
388 %tmp3 = ashr <4 x i32> %tmp1, %tmp2
397 %tmp2 = load <2 x i64>, <2 x i64>* %B
398 %tmp3 = ashr <2 x i64> %tmp1, %tmp2
406 …%tmp2 = ashr <16 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, …
407 ret <16 x i8> %tmp2
414 %tmp2 = ashr <8 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15 >
415 ret <8 x i16> %tmp2
422 %tmp2 = ashr <4 x i32> %tmp1, < i32 31, i32 31, i32 31, i32 31 >
423 ret <4 x i32> %tmp2
430 %tmp2 = ashr <2 x i64> %tmp1, < i64 63, i64 63 >
431 ret <2 x i64> %tmp2