Lines Matching refs:xmm2
14 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
16 ; AVX1-NEXT: vpsllq %xmm2, %xmm3, %xmm4
17 ; AVX1-NEXT: vpshufd {{.*#+}} xmm2 = xmm2[2,3,0,1]
18 ; AVX1-NEXT: vpsllq %xmm2, %xmm3, %xmm2
19 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm4[0,1,2,3],xmm2[4,5,6,7]
24 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
34 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
36 ; XOPAVX1-NEXT: vpshlq %xmm2, %xmm3, %xmm2
38 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
52 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
53 ; AVX1-NEXT: vpslld $23, %xmm2, %xmm2
55 ; AVX1-NEXT: vpaddd %xmm3, %xmm2, %xmm2
56 ; AVX1-NEXT: vcvttps2dq %xmm2, %xmm2
58 ; AVX1-NEXT: vpmulld %xmm4, %xmm2, %xmm2
63 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
73 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
75 ; XOPAVX1-NEXT: vpshld %xmm2, %xmm3, %xmm2
77 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
91 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
92 ; AVX1-NEXT: vpsllw $12, %xmm2, %xmm3
93 ; AVX1-NEXT: vpsllw $4, %xmm2, %xmm2
94 ; AVX1-NEXT: vpor %xmm3, %xmm2, %xmm2
95 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm3
98 ; AVX1-NEXT: vpblendvb %xmm2, %xmm5, %xmm4, %xmm2
99 ; AVX1-NEXT: vpsllw $4, %xmm2, %xmm4
100 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
101 ; AVX1-NEXT: vpsllw $2, %xmm2, %xmm4
103 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
104 ; AVX1-NEXT: vpsllw $1, %xmm2, %xmm4
106 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
121 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
140 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
142 ; XOPAVX1-NEXT: vpshlw %xmm2, %xmm3, %xmm2
144 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
149 ; XOPAVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
151 ; XOPAVX2-NEXT: vpshlw %xmm2, %xmm3, %xmm2
153 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
162 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
163 ; AVX1-NEXT: vpsllw $4, %xmm2, %xmm3
168 ; AVX1-NEXT: vpblendvb %xmm5, %xmm3, %xmm2, %xmm2
169 ; AVX1-NEXT: vpsllw $2, %xmm2, %xmm3
173 ; AVX1-NEXT: vpblendvb %xmm5, %xmm3, %xmm2, %xmm2
174 ; AVX1-NEXT: vpaddb %xmm2, %xmm2, %xmm3
176 ; AVX1-NEXT: vpblendvb %xmm5, %xmm3, %xmm2, %xmm2
188 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
208 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
210 ; XOPAVX1-NEXT: vpshlb %xmm2, %xmm3, %xmm2
212 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
217 ; XOPAVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
219 ; XOPAVX2-NEXT: vpshlb %xmm2, %xmm3, %xmm2
221 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
234 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
235 ; AVX1-NEXT: vpsllq %xmm1, %xmm2, %xmm2
237 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
247 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
248 ; XOPAVX1-NEXT: vpsllq %xmm1, %xmm2, %xmm2
250 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
265 ; AVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
266 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
267 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
268 ; AVX1-NEXT: vpslld %xmm1, %xmm2, %xmm2
270 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
275 ; AVX2-NEXT: vpxor %xmm2, %xmm2, %xmm2
276 ; AVX2-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
282 ; XOPAVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
283 ; XOPAVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
284 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
285 ; XOPAVX1-NEXT: vpslld %xmm1, %xmm2, %xmm2
287 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
292 ; XOPAVX2-NEXT: vpxor %xmm2, %xmm2, %xmm2
293 ; XOPAVX2-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
304 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
308 ; AVX1-NEXT: vpsllw %xmm1, %xmm2, %xmm2
310 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
323 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
327 ; XOPAVX1-NEXT: vpsllw %xmm1, %xmm2, %xmm2
329 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
347 ; AVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
348 ; AVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
349 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
350 ; AVX1-NEXT: vpsllw $4, %xmm2, %xmm3
354 ; AVX1-NEXT: vpblendvb %xmm1, %xmm3, %xmm2, %xmm2
355 ; AVX1-NEXT: vpsllw $2, %xmm2, %xmm3
359 ; AVX1-NEXT: vpblendvb %xmm6, %xmm3, %xmm2, %xmm2
360 ; AVX1-NEXT: vpaddb %xmm2, %xmm2, %xmm3
362 ; AVX1-NEXT: vpblendvb %xmm7, %xmm3, %xmm2, %xmm2
371 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
392 ; XOPAVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
393 ; XOPAVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
394 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
395 ; XOPAVX1-NEXT: vpshlb %xmm1, %xmm2, %xmm2
397 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
403 ; XOPAVX2-NEXT: vextracti128 $1, %ymm0, %xmm2
405 ; XOPAVX2-NEXT: vpshlb %xmm3, %xmm2, %xmm2
407 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
422 ; AVX1-NEXT: vpsllq $62, %xmm1, %xmm2
424 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1,2,3],xmm2[4,5,6,7]
425 ; AVX1-NEXT: vpsllq $7, %xmm0, %xmm2
427 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm2[4,5,6,7]
516 ; AVX1-NEXT: vpsllw $4, %xmm1, %xmm2
518 ; AVX1-NEXT: vpand %xmm3, %xmm2, %xmm2
521 ; AVX1-NEXT: vpblendvb %xmm4, %xmm2, %xmm1, %xmm1
522 ; AVX1-NEXT: vpsllw $2, %xmm1, %xmm2
524 ; AVX1-NEXT: vpand %xmm5, %xmm2, %xmm2
526 ; AVX1-NEXT: vpblendvb %xmm6, %xmm2, %xmm1, %xmm1
527 ; AVX1-NEXT: vpaddb %xmm1, %xmm1, %xmm2
529 ; AVX1-NEXT: vpblendvb %xmm7, %xmm2, %xmm1, %xmm1
530 ; AVX1-NEXT: vpsllw $4, %xmm0, %xmm2
531 ; AVX1-NEXT: vpand %xmm3, %xmm2, %xmm2
532 ; AVX1-NEXT: vpblendvb %xmm4, %xmm2, %xmm0, %xmm0
533 ; AVX1-NEXT: vpsllw $2, %xmm0, %xmm2
534 ; AVX1-NEXT: vpand %xmm5, %xmm2, %xmm2
535 ; AVX1-NEXT: vpblendvb %xmm6, %xmm2, %xmm0, %xmm0
536 ; AVX1-NEXT: vpaddb %xmm0, %xmm0, %xmm2
537 ; AVX1-NEXT: vpblendvb %xmm7, %xmm2, %xmm0, %xmm0
560 ; XOPAVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [0,1,2,3,4,5,6,7,7,6,5,4,3,2,1,0]
561 ; XOPAVX1-NEXT: vpshlb %xmm2, %xmm1, %xmm1
562 ; XOPAVX1-NEXT: vpshlb %xmm2, %xmm0, %xmm0
569 ; XOPAVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [0,1,2,3,4,5,6,7,7,6,5,4,3,2,1,0]
570 ; XOPAVX2-NEXT: vpshlb %xmm2, %xmm1, %xmm1
571 ; XOPAVX2-NEXT: vpshlb %xmm2, %xmm0, %xmm0
677 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [248,248,248,248,248,248,248,248,248,248,248,248,248,248,24…
678 ; AVX1-NEXT: vpand %xmm2, %xmm1, %xmm1
680 ; AVX1-NEXT: vpand %xmm2, %xmm0, %xmm0
693 ; XOPAVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [3,3,3,3,3,3,3,3,3,3,3,3,3,3,3,3]
694 ; XOPAVX1-NEXT: vpshlb %xmm2, %xmm1, %xmm1
695 ; XOPAVX1-NEXT: vpshlb %xmm2, %xmm0, %xmm0