• Home
  • Raw
  • Download

Lines Matching refs:xmm2

14 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
16 ; AVX1-NEXT: vpsrlq %xmm2, %xmm3, %xmm4
17 ; AVX1-NEXT: vpshufd {{.*#+}} xmm5 = xmm2[2,3,0,1]
21 ; AVX1-NEXT: vpsrlq %xmm2, %xmm6, %xmm2
23 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm2[0,1,2,3],xmm5[4,5,6,7]
24 ; AVX1-NEXT: vpxor %xmm4, %xmm2, %xmm2
25 ; AVX1-NEXT: vpsubq %xmm4, %xmm2, %xmm2
35 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
49 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
51 ; XOPAVX1-NEXT: vpsubq %xmm2, %xmm3, %xmm2
53 ; XOPAVX1-NEXT: vpshaq %xmm2, %xmm4, %xmm2
56 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
83 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
86 ; AVX1-NEXT: vpsrad %xmm4, %xmm2, %xmm4
88 ; AVX1-NEXT: vpsrad %xmm5, %xmm2, %xmm5
92 ; AVX1-NEXT: vpsrad %xmm6, %xmm2, %xmm6
94 ; AVX1-NEXT: vpsrad %xmm3, %xmm2, %xmm2
95 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm2[0,1,2,3],xmm6[4,5,6,7]
96 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm2[0,1],xmm4[2,3],xmm2[4,5],xmm4[6,7]
108 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
118 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
120 ; XOPAVX1-NEXT: vpsubd %xmm2, %xmm3, %xmm2
122 ; XOPAVX1-NEXT: vpshad %xmm2, %xmm4, %xmm2
125 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
144 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
145 ; AVX1-NEXT: vpsllw $12, %xmm2, %xmm3
146 ; AVX1-NEXT: vpsllw $4, %xmm2, %xmm2
147 ; AVX1-NEXT: vpor %xmm3, %xmm2, %xmm2
148 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm3
151 ; AVX1-NEXT: vpblendvb %xmm2, %xmm5, %xmm4, %xmm2
152 ; AVX1-NEXT: vpsraw $4, %xmm2, %xmm4
153 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
154 ; AVX1-NEXT: vpsraw $2, %xmm2, %xmm4
156 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
157 ; AVX1-NEXT: vpsraw $1, %xmm2, %xmm4
159 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
174 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
193 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
195 ; XOPAVX1-NEXT: vpsubw %xmm2, %xmm3, %xmm2
197 ; XOPAVX1-NEXT: vpshaw %xmm2, %xmm4, %xmm2
200 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
205 ; XOPAVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
207 ; XOPAVX2-NEXT: vpsubw %xmm2, %xmm3, %xmm2
209 ; XOPAVX2-NEXT: vpshaw %xmm2, %xmm4, %xmm2
212 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
229 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
230 ; AVX1-NEXT: vpsllw $5, %xmm2, %xmm2
231 …m3 = xmm0[8],xmm2[8],xmm0[9],xmm2[9],xmm0[10],xmm2[10],xmm0[11],xmm2[11],xmm0[12],xmm2[12],xmm0[13…
243 …w {{.*#+}} xmm2 = xmm0[0],xmm2[0],xmm0[1],xmm2[1],xmm0[2],xmm2[2],xmm0[3],xmm2[3],xmm0[4],xmm2[4],…
246 ; AVX1-NEXT: vpblendvb %xmm2, %xmm5, %xmm4, %xmm4
248 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm2
249 ; AVX1-NEXT: vpblendvb %xmm2, %xmm5, %xmm4, %xmm4
251 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm2
252 ; AVX1-NEXT: vpblendvb %xmm2, %xmm5, %xmm4, %xmm2
253 ; AVX1-NEXT: vpsrlw $8, %xmm2, %xmm2
254 ; AVX1-NEXT: vpackuswb %xmm3, %xmm2, %xmm2
279 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
312 ; XOPAVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
314 ; XOPAVX1-NEXT: vpsubb %xmm2, %xmm3, %xmm2
316 ; XOPAVX1-NEXT: vpshab %xmm2, %xmm4, %xmm2
319 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
324 ; XOPAVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
326 ; XOPAVX2-NEXT: vpsubb %xmm2, %xmm3, %xmm2
328 ; XOPAVX2-NEXT: vpshab %xmm2, %xmm4, %xmm2
331 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
372 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
373 ; AVX1-NEXT: vpsrlq %xmm1, %xmm2, %xmm2
376 ; AVX1-NEXT: vpxor %xmm2, %xmm3, %xmm3
377 ; AVX1-NEXT: vpsubq %xmm2, %xmm3, %xmm3
379 ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm0
380 ; AVX1-NEXT: vpsubq %xmm2, %xmm0, %xmm0
396 ; XOPAVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
397 ; XOPAVX1-NEXT: vpsubq %xmm1, %xmm2, %xmm1
398 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
399 ; XOPAVX1-NEXT: vpshaq %xmm1, %xmm2, %xmm2
401 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
429 ; AVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
430 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
431 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
432 ; AVX1-NEXT: vpsrad %xmm1, %xmm2, %xmm2
434 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
439 ; AVX2-NEXT: vpxor %xmm2, %xmm2, %xmm2
440 ; AVX2-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
446 ; XOPAVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
447 ; XOPAVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
448 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
449 ; XOPAVX1-NEXT: vpsrad %xmm1, %xmm2, %xmm2
451 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
456 ; XOPAVX2-NEXT: vpxor %xmm2, %xmm2, %xmm2
457 ; XOPAVX2-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
463 ; AVX512-NEXT: vxorps %xmm2, %xmm2, %xmm2
464 ; AVX512-NEXT: vmovss {{.*#+}} xmm1 = xmm1[0],xmm2[1,2,3]
475 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
479 ; AVX1-NEXT: vpsraw %xmm1, %xmm2, %xmm2
481 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
494 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
498 ; XOPAVX1-NEXT: vpsraw %xmm1, %xmm2, %xmm2
500 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
526 ; AVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
527 ; AVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
529 ; AVX1-NEXT: vpunpckhbw {{.*#+}} xmm2 = xmm0[8],xmm1[8],xmm0[9],xmm1[9],xmm0[10],xmm1[10],xmm0[1…
533 ; AVX1-NEXT: vpblendvb %xmm2, %xmm5, %xmm4, %xmm4
535 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm6
555 ; AVX1-NEXT: vpblendvb %xmm2, %xmm3, %xmm5, %xmm2
556 ; AVX1-NEXT: vpsraw $2, %xmm2, %xmm3
557 ; AVX1-NEXT: vpblendvb %xmm6, %xmm3, %xmm2, %xmm2
558 ; AVX1-NEXT: vpsraw $1, %xmm2, %xmm3
559 ; AVX1-NEXT: vpblendvb %xmm9, %xmm3, %xmm2, %xmm2
560 ; AVX1-NEXT: vpsrlw $8, %xmm2, %xmm2
569 ; AVX1-NEXT: vpackuswb %xmm2, %xmm0, %xmm0
604 ; XOPAVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
605 ; XOPAVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
606 ; XOPAVX1-NEXT: vpsubb %xmm1, %xmm2, %xmm1
607 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
608 ; XOPAVX1-NEXT: vpshab %xmm1, %xmm2, %xmm2
610 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
616 ; XOPAVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
618 ; XOPAVX2-NEXT: vpsubb %xmm2, %xmm3, %xmm2
620 ; XOPAVX2-NEXT: vpshab %xmm2, %xmm4, %xmm2
623 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
667 ; AVX1-NEXT: vpsrlq $62, %xmm1, %xmm2
669 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1,2,3],xmm2[4,5,6,7]
670 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [4294967296,2]
671 ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm1
672 ; AVX1-NEXT: vpsubq %xmm2, %xmm1, %xmm1
673 ; AVX1-NEXT: vpsrlq $7, %xmm0, %xmm2
675 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm2[4,5,6,7]
676 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [4611686018427387904,72057594037927936]
677 ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm0
678 ; AVX1-NEXT: vpsubq %xmm2, %xmm0, %xmm0
693 ; XOPAVX1-NEXT: vpsubq {{.*}}(%rip), %xmm1, %xmm2
695 ; XOPAVX1-NEXT: vpshaq %xmm2, %xmm3, %xmm2
698 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
724 ; AVX1-NEXT: vpsrad $5, %xmm0, %xmm2
725 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm2[0,1,2,3],xmm1[4,5,6,7]
726 ; AVX1-NEXT: vpsrad $6, %xmm0, %xmm2
728 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
729 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm2[0,1],xmm1[2,3],xmm2[4,5],xmm1[6,7]
731 ; AVX1-NEXT: vpsrad $7, %xmm0, %xmm2
733 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
735 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1],xmm2[2,3],xmm0[4,5],xmm2[6,7]
770 ; AVX1-NEXT: vpsraw $4, %xmm1, %xmm2
771 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1,2,3],xmm2[4,5,6,7]
772 ; AVX1-NEXT: vpsraw $2, %xmm1, %xmm2
773 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3],xmm1[4,5],xmm2[6,7]
774 ; AVX1-NEXT: vpsraw $1, %xmm1, %xmm2
775 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0],xmm2[1],xmm1[2],xmm2[3],xmm1[4],xmm2[5],xmm1[6],xm…
776 ; AVX1-NEXT: vpsraw $4, %xmm0, %xmm2
777 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm2[4,5,6,7]
778 ; AVX1-NEXT: vpsraw $2, %xmm0, %xmm2
779 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1],xmm2[2,3],xmm0[4,5],xmm2[6,7]
780 ; AVX1-NEXT: vpsraw $1, %xmm0, %xmm2
781 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0],xmm2[1],xmm0[2],xmm2[3],xmm0[4],xmm2[5],xmm0[6],xm…
803 ; XOPAVX1-NEXT: vpsubw {{.*}}(%rip), %xmm1, %xmm2
805 ; XOPAVX1-NEXT: vpshaw %xmm2, %xmm3, %xmm2
808 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
814 ; XOPAVX2-NEXT: vpsubw {{.*}}(%rip), %xmm1, %xmm2
816 ; XOPAVX2-NEXT: vpshaw %xmm2, %xmm3, %xmm2
819 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
838 ; AVX1-NEXT: vpunpckhbw {{.*#+}} xmm2 = xmm0[8],xmm1[8],xmm0[9],xmm1[9],xmm0[10],xmm1[10],xmm0[1…
842 ; AVX1-NEXT: vpblendvb %xmm2, %xmm5, %xmm4, %xmm4
844 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm6
864 ; AVX1-NEXT: vpblendvb %xmm2, %xmm3, %xmm5, %xmm2
865 ; AVX1-NEXT: vpsraw $2, %xmm2, %xmm3
866 ; AVX1-NEXT: vpblendvb %xmm6, %xmm3, %xmm2, %xmm2
867 ; AVX1-NEXT: vpsraw $1, %xmm2, %xmm3
868 ; AVX1-NEXT: vpblendvb %xmm9, %xmm3, %xmm2, %xmm2
869 ; AVX1-NEXT: vpsrlw $8, %xmm2, %xmm2
878 ; AVX1-NEXT: vpackuswb %xmm2, %xmm0, %xmm0
915 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
916 ; XOPAVX1-NEXT: vpshab %xmm1, %xmm2, %xmm2
918 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
925 ; XOPAVX2-NEXT: vextracti128 $1, %ymm0, %xmm2
926 ; XOPAVX2-NEXT: vpshab %xmm1, %xmm2, %xmm2
928 ; XOPAVX2-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0
971 ; AVX1-NEXT: vpsrad $7, %xmm1, %xmm2
973 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3],xmm1[4,5],xmm2[6,7]
974 ; AVX1-NEXT: vpsrad $7, %xmm0, %xmm2
976 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1],xmm2[2,3],xmm0[4,5],xmm2[6,7]
991 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
992 ; XOPAVX1-NEXT: vpshaq %xmm1, %xmm2, %xmm2
994 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1090 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [31,31,31,31,31,31,31,31,31,31,31,31,31,31,31,31]
1091 ; AVX1-NEXT: vpand %xmm2, %xmm1, %xmm1
1096 ; AVX1-NEXT: vpand %xmm2, %xmm0, %xmm0
1115 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
1116 ; XOPAVX1-NEXT: vpshab %xmm1, %xmm2, %xmm2
1118 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0