• Home
  • Raw
  • Download

Lines Matching refs:xmm2

14 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
16 ; AVX1-NEXT: vpsrlq %xmm2, %xmm3, %xmm4
17 ; AVX1-NEXT: vpshufd {{.*#+}} xmm2 = xmm2[2,3,0,1]
18 ; AVX1-NEXT: vpsrlq %xmm2, %xmm3, %xmm2
19 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm4[0,1,2,3],xmm2[4,5,6,7]
24 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
34 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
36 ; XOPAVX1-NEXT: vpsubq %xmm2, %xmm3, %xmm2
38 ; XOPAVX1-NEXT: vpshlq %xmm2, %xmm4, %xmm2
41 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
60 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
63 ; AVX1-NEXT: vpsrld %xmm4, %xmm2, %xmm4
65 ; AVX1-NEXT: vpsrld %xmm5, %xmm2, %xmm5
69 ; AVX1-NEXT: vpsrld %xmm6, %xmm2, %xmm6
71 ; AVX1-NEXT: vpsrld %xmm3, %xmm2, %xmm2
72 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm2[0,1,2,3],xmm6[4,5,6,7]
73 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm2[0,1],xmm4[2,3],xmm2[4,5],xmm4[6,7]
85 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
95 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
97 ; XOPAVX1-NEXT: vpsubd %xmm2, %xmm3, %xmm2
99 ; XOPAVX1-NEXT: vpshld %xmm2, %xmm4, %xmm2
102 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
121 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
122 ; AVX1-NEXT: vpsllw $12, %xmm2, %xmm3
123 ; AVX1-NEXT: vpsllw $4, %xmm2, %xmm2
124 ; AVX1-NEXT: vpor %xmm3, %xmm2, %xmm2
125 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm3
128 ; AVX1-NEXT: vpblendvb %xmm2, %xmm5, %xmm4, %xmm2
129 ; AVX1-NEXT: vpsrlw $4, %xmm2, %xmm4
130 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
131 ; AVX1-NEXT: vpsrlw $2, %xmm2, %xmm4
133 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
134 ; AVX1-NEXT: vpsrlw $1, %xmm2, %xmm4
136 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
151 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
170 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
172 ; XOPAVX1-NEXT: vpsubw %xmm2, %xmm3, %xmm2
174 ; XOPAVX1-NEXT: vpshlw %xmm2, %xmm4, %xmm2
177 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
182 ; XOPAVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
184 ; XOPAVX2-NEXT: vpsubw %xmm2, %xmm3, %xmm2
186 ; XOPAVX2-NEXT: vpshlw %xmm2, %xmm4, %xmm2
189 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
206 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
207 ; AVX1-NEXT: vpsrlw $4, %xmm2, %xmm3
212 ; AVX1-NEXT: vpblendvb %xmm5, %xmm3, %xmm2, %xmm2
213 ; AVX1-NEXT: vpsrlw $2, %xmm2, %xmm3
217 ; AVX1-NEXT: vpblendvb %xmm5, %xmm3, %xmm2, %xmm2
218 ; AVX1-NEXT: vpsrlw $1, %xmm2, %xmm3
222 ; AVX1-NEXT: vpblendvb %xmm5, %xmm3, %xmm2, %xmm2
235 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
256 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
258 ; XOPAVX1-NEXT: vpsubb %xmm2, %xmm3, %xmm2
260 ; XOPAVX1-NEXT: vpshlb %xmm2, %xmm4, %xmm2
263 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
268 ; XOPAVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
270 ; XOPAVX2-NEXT: vpsubb %xmm2, %xmm3, %xmm2
272 ; XOPAVX2-NEXT: vpshlb %xmm2, %xmm4, %xmm2
275 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
304 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
305 ; AVX1-NEXT: vpsrlq %xmm1, %xmm2, %xmm2
307 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
317 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
318 ; XOPAVX1-NEXT: vpsrlq %xmm1, %xmm2, %xmm2
320 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
340 ; AVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
341 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
342 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
343 ; AVX1-NEXT: vpsrld %xmm1, %xmm2, %xmm2
345 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
350 ; AVX2-NEXT: vpxor %xmm2, %xmm2, %xmm2
351 ; AVX2-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
357 ; XOPAVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
358 ; XOPAVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
359 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
360 ; XOPAVX1-NEXT: vpsrld %xmm1, %xmm2, %xmm2
362 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
367 ; XOPAVX2-NEXT: vpxor %xmm2, %xmm2, %xmm2
368 ; XOPAVX2-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
374 ; AVX512-NEXT: vxorps %xmm2, %xmm2, %xmm2
375 ; AVX512-NEXT: vmovss {{.*#+}} xmm1 = xmm1[0],xmm2[1,2,3]
386 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
390 ; AVX1-NEXT: vpsrlw %xmm1, %xmm2, %xmm2
392 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
405 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
409 ; XOPAVX1-NEXT: vpsrlw %xmm1, %xmm2, %xmm2
411 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
437 ; AVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
438 ; AVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
439 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
440 ; AVX1-NEXT: vpsrlw $4, %xmm2, %xmm3
444 ; AVX1-NEXT: vpblendvb %xmm1, %xmm3, %xmm2, %xmm2
445 ; AVX1-NEXT: vpsrlw $2, %xmm2, %xmm3
449 ; AVX1-NEXT: vpblendvb %xmm6, %xmm3, %xmm2, %xmm2
450 ; AVX1-NEXT: vpsrlw $1, %xmm2, %xmm3
454 ; AVX1-NEXT: vpblendvb %xmm4, %xmm3, %xmm2, %xmm2
464 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
486 ; XOPAVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
487 ; XOPAVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
488 ; XOPAVX1-NEXT: vpsubb %xmm1, %xmm2, %xmm1
489 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
490 ; XOPAVX1-NEXT: vpshlb %xmm1, %xmm2, %xmm2
492 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
498 ; XOPAVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
500 ; XOPAVX2-NEXT: vpsubb %xmm2, %xmm3, %xmm2
502 ; XOPAVX2-NEXT: vpshlb %xmm2, %xmm4, %xmm2
505 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
537 ; AVX1-NEXT: vpsrlq $62, %xmm1, %xmm2
539 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1,2,3],xmm2[4,5,6,7]
540 ; AVX1-NEXT: vpsrlq $7, %xmm0, %xmm2
542 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm2[4,5,6,7]
554 ; XOPAVX1-NEXT: vpsubq {{.*}}(%rip), %xmm1, %xmm2
556 ; XOPAVX1-NEXT: vpshlq %xmm2, %xmm3, %xmm2
559 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
579 ; AVX1-NEXT: vpsrld $5, %xmm0, %xmm2
580 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm2[0,1,2,3],xmm1[4,5,6,7]
581 ; AVX1-NEXT: vpsrld $6, %xmm0, %xmm2
583 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
584 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm2[0,1],xmm1[2,3],xmm2[4,5],xmm1[6,7]
586 ; AVX1-NEXT: vpsrld $7, %xmm0, %xmm2
588 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
590 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1],xmm2[2,3],xmm0[4,5],xmm2[6,7]
625 ; AVX1-NEXT: vpsrlw $4, %xmm1, %xmm2
626 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1,2,3],xmm2[4,5,6,7]
627 ; AVX1-NEXT: vpsrlw $2, %xmm1, %xmm2
628 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3],xmm1[4,5],xmm2[6,7]
629 ; AVX1-NEXT: vpsrlw $1, %xmm1, %xmm2
630 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0],xmm2[1],xmm1[2],xmm2[3],xmm1[4],xmm2[5],xmm1[6],xm…
631 ; AVX1-NEXT: vpsrlw $4, %xmm0, %xmm2
632 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm2[4,5,6,7]
633 ; AVX1-NEXT: vpsrlw $2, %xmm0, %xmm2
634 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1],xmm2[2,3],xmm0[4,5],xmm2[6,7]
635 ; AVX1-NEXT: vpsrlw $1, %xmm0, %xmm2
636 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0],xmm2[1],xmm0[2],xmm2[3],xmm0[4],xmm2[5],xmm0[6],xm…
658 ; XOPAVX1-NEXT: vpsubw {{.*}}(%rip), %xmm1, %xmm2
660 ; XOPAVX1-NEXT: vpshlw %xmm2, %xmm3, %xmm2
663 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
669 ; XOPAVX2-NEXT: vpsubw {{.*}}(%rip), %xmm1, %xmm2
671 ; XOPAVX2-NEXT: vpshlw %xmm2, %xmm3, %xmm2
674 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
692 ; AVX1-NEXT: vpsrlw $4, %xmm1, %xmm2
694 ; AVX1-NEXT: vpand %xmm8, %xmm2, %xmm2
697 ; AVX1-NEXT: vpblendvb %xmm4, %xmm2, %xmm1, %xmm1
698 ; AVX1-NEXT: vpsrlw $2, %xmm1, %xmm2
700 ; AVX1-NEXT: vpand %xmm5, %xmm2, %xmm2
702 ; AVX1-NEXT: vpblendvb %xmm6, %xmm2, %xmm1, %xmm1
703 ; AVX1-NEXT: vpsrlw $1, %xmm1, %xmm2
705 ; AVX1-NEXT: vpand %xmm7, %xmm2, %xmm2
707 ; AVX1-NEXT: vpblendvb %xmm3, %xmm2, %xmm1, %xmm1
708 ; AVX1-NEXT: vpsrlw $4, %xmm0, %xmm2
709 ; AVX1-NEXT: vpand %xmm8, %xmm2, %xmm2
710 ; AVX1-NEXT: vpblendvb %xmm4, %xmm2, %xmm0, %xmm0
711 ; AVX1-NEXT: vpsrlw $2, %xmm0, %xmm2
712 ; AVX1-NEXT: vpand %xmm5, %xmm2, %xmm2
713 ; AVX1-NEXT: vpblendvb %xmm6, %xmm2, %xmm0, %xmm0
714 ; AVX1-NEXT: vpsrlw $1, %xmm0, %xmm2
715 ; AVX1-NEXT: vpand %xmm7, %xmm2, %xmm2
716 ; AVX1-NEXT: vpblendvb %xmm3, %xmm2, %xmm0, %xmm0
741 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
742 ; XOPAVX1-NEXT: vpshlb %xmm1, %xmm2, %xmm2
744 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
751 ; XOPAVX2-NEXT: vextracti128 $1, %ymm0, %xmm2
752 ; XOPAVX2-NEXT: vpshlb %xmm1, %xmm2, %xmm2
754 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
891 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [31,31,31,31,31,31,31,31,31,31,31,31,31,31,31,31]
892 ; AVX1-NEXT: vpand %xmm2, %xmm1, %xmm1
894 ; AVX1-NEXT: vpand %xmm2, %xmm0, %xmm0
908 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
909 ; XOPAVX1-NEXT: vpshlb %xmm1, %xmm2, %xmm2
911 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0