• Home
  • Raw
  • Download

Lines Matching refs:tmp1

6 	%tmp1 = load <8 x i8>, <8 x i8>* %A
8 %tmp3 = and <8 x i8> %tmp1, %tmp2
15 %tmp1 = load <4 x i16>, <4 x i16>* %A
17 %tmp3 = and <4 x i16> %tmp1, %tmp2
24 %tmp1 = load <2 x i32>, <2 x i32>* %A
26 %tmp3 = and <2 x i32> %tmp1, %tmp2
33 %tmp1 = load <1 x i64>, <1 x i64>* %A
35 %tmp3 = and <1 x i64> %tmp1, %tmp2
42 %tmp1 = load <16 x i8>, <16 x i8>* %A
44 %tmp3 = and <16 x i8> %tmp1, %tmp2
51 %tmp1 = load <8 x i16>, <8 x i16>* %A
53 %tmp3 = and <8 x i16> %tmp1, %tmp2
60 %tmp1 = load <4 x i32>, <4 x i32>* %A
62 %tmp3 = and <4 x i32> %tmp1, %tmp2
69 %tmp1 = load <2 x i64>, <2 x i64>* %A
71 %tmp3 = and <2 x i64> %tmp1, %tmp2
78 %tmp1 = load <8 x i8>, <8 x i8>* %A
81 %tmp4 = and <8 x i8> %tmp1, %tmp3
88 %tmp1 = load <4 x i16>, <4 x i16>* %A
91 %tmp4 = and <4 x i16> %tmp1, %tmp3
98 %tmp1 = load <2 x i32>, <2 x i32>* %A
101 %tmp4 = and <2 x i32> %tmp1, %tmp3
108 %tmp1 = load <1 x i64>, <1 x i64>* %A
111 %tmp4 = and <1 x i64> %tmp1, %tmp3
118 %tmp1 = load <16 x i8>, <16 x i8>* %A
121 %tmp4 = and <16 x i8> %tmp1, %tmp3
128 %tmp1 = load <8 x i16>, <8 x i16>* %A
131 %tmp4 = and <8 x i16> %tmp1, %tmp3
138 %tmp1 = load <4 x i32>, <4 x i32>* %A
141 %tmp4 = and <4 x i32> %tmp1, %tmp3
148 %tmp1 = load <2 x i64>, <2 x i64>* %A
151 %tmp4 = and <2 x i64> %tmp1, %tmp3
158 %tmp1 = load <8 x i8>, <8 x i8>* %A
160 %tmp3 = xor <8 x i8> %tmp1, %tmp2
167 %tmp1 = load <4 x i16>, <4 x i16>* %A
169 %tmp3 = xor <4 x i16> %tmp1, %tmp2
176 %tmp1 = load <2 x i32>, <2 x i32>* %A
178 %tmp3 = xor <2 x i32> %tmp1, %tmp2
185 %tmp1 = load <1 x i64>, <1 x i64>* %A
187 %tmp3 = xor <1 x i64> %tmp1, %tmp2
194 %tmp1 = load <16 x i8>, <16 x i8>* %A
196 %tmp3 = xor <16 x i8> %tmp1, %tmp2
203 %tmp1 = load <8 x i16>, <8 x i16>* %A
205 %tmp3 = xor <8 x i16> %tmp1, %tmp2
212 %tmp1 = load <4 x i32>, <4 x i32>* %A
214 %tmp3 = xor <4 x i32> %tmp1, %tmp2
221 %tmp1 = load <2 x i64>, <2 x i64>* %A
223 %tmp3 = xor <2 x i64> %tmp1, %tmp2
230 %tmp1 = load <8 x i8>, <8 x i8>* %A
231 %tmp2 = xor <8 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
238 %tmp1 = load <4 x i16>, <4 x i16>* %A
239 %tmp2 = xor <4 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1 >
246 %tmp1 = load <2 x i32>, <2 x i32>* %A
247 %tmp2 = xor <2 x i32> %tmp1, < i32 -1, i32 -1 >
254 %tmp1 = load <1 x i64>, <1 x i64>* %A
255 %tmp2 = xor <1 x i64> %tmp1, < i64 -1 >
262 %tmp1 = load <16 x i8>, <16 x i8>* %A
263 …%tmp2 = xor <16 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -…
270 %tmp1 = load <8 x i16>, <8 x i16>* %A
271 %tmp2 = xor <8 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
278 %tmp1 = load <4 x i32>, <4 x i32>* %A
279 %tmp2 = xor <4 x i32> %tmp1, < i32 -1, i32 -1, i32 -1, i32 -1 >
286 %tmp1 = load <2 x i64>, <2 x i64>* %A
287 %tmp2 = xor <2 x i64> %tmp1, < i64 -1, i64 -1 >
294 %tmp1 = load <8 x i8>, <8 x i8>* %A
296 %tmp3 = or <8 x i8> %tmp1, %tmp2
303 %tmp1 = load <4 x i16>, <4 x i16>* %A
305 %tmp3 = or <4 x i16> %tmp1, %tmp2
312 %tmp1 = load <2 x i32>, <2 x i32>* %A
314 %tmp3 = or <2 x i32> %tmp1, %tmp2
321 %tmp1 = load <1 x i64>, <1 x i64>* %A
323 %tmp3 = or <1 x i64> %tmp1, %tmp2
330 %tmp1 = load <16 x i8>, <16 x i8>* %A
332 %tmp3 = or <16 x i8> %tmp1, %tmp2
339 %tmp1 = load <8 x i16>, <8 x i16>* %A
341 %tmp3 = or <8 x i16> %tmp1, %tmp2
348 %tmp1 = load <4 x i32>, <4 x i32>* %A
350 %tmp3 = or <4 x i32> %tmp1, %tmp2
357 %tmp1 = load <2 x i64>, <2 x i64>* %A
359 %tmp3 = or <2 x i64> %tmp1, %tmp2
366 %tmp1 = load <8 x i8>, <8 x i8>* %A
369 %tmp4 = or <8 x i8> %tmp1, %tmp3
376 %tmp1 = load <4 x i16>, <4 x i16>* %A
379 %tmp4 = or <4 x i16> %tmp1, %tmp3
386 %tmp1 = load <2 x i32>, <2 x i32>* %A
389 %tmp4 = or <2 x i32> %tmp1, %tmp3
396 %tmp1 = load <1 x i64>, <1 x i64>* %A
399 %tmp4 = or <1 x i64> %tmp1, %tmp3
406 %tmp1 = load <16 x i8>, <16 x i8>* %A
409 %tmp4 = or <16 x i8> %tmp1, %tmp3
416 %tmp1 = load <8 x i16>, <8 x i16>* %A
419 %tmp4 = or <8 x i16> %tmp1, %tmp3
426 %tmp1 = load <4 x i32>, <4 x i32>* %A
429 %tmp4 = or <4 x i32> %tmp1, %tmp3
436 %tmp1 = load <2 x i64>, <2 x i64>* %A
439 %tmp4 = or <2 x i64> %tmp1, %tmp3
446 %tmp1 = load <8 x i8>, <8 x i8>* %A
448 %tmp3 = and <8 x i8> %tmp1, %tmp2
457 %tmp1 = load <4 x i16>, <4 x i16>* %A
459 %tmp3 = and <4 x i16> %tmp1, %tmp2
468 %tmp1 = load <2 x i32>, <2 x i32>* %A
470 %tmp3 = and <2 x i32> %tmp1, %tmp2
479 %tmp1 = load <16 x i8>, <16 x i8>* %A
481 %tmp3 = and <16 x i8> %tmp1, %tmp2
490 %tmp1 = load <8 x i16>, <8 x i16>* %A
492 %tmp3 = and <8 x i16> %tmp1, %tmp2
501 %tmp1 = load <4 x i32>, <4 x i32>* %A
503 %tmp3 = and <4 x i32> %tmp1, %tmp2
514 %tmp1 = load <8 x i8>, <8 x i8>* %A
515 %tmp3 = or <8 x i8> %tmp1, <i8 0, i8 0, i8 0, i8 1, i8 0, i8 0, i8 0, i8 1>
524 %tmp1 = load <16 x i8>, <16 x i8>* %A
525 …%tmp3 = or <16 x i8> %tmp1, <i8 0, i8 0, i8 0, i8 1, i8 0, i8 0, i8 0, i8 1, i8 0, i8 0, i8 0, i8 …
534 %tmp1 = load <8 x i8>, <8 x i8>* %A
535 %tmp3 = and <8 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 0, i8 -1, i8 -1, i8 -1, i8 0 >
544 %tmp1 = load <16 x i8>, <16 x i8>* %A
545 …%tmp3 = and <16 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 0, i8 -1, i8 -1, i8 -1, i8 0, i8 -1, i8 -1,…