Lines Matching refs:xmm3
15 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808]
16 ; AVX1-NEXT: vpsrlq %xmm2, %xmm3, %xmm4
18 ; AVX1-NEXT: vpsrlq %xmm5, %xmm3, %xmm6
26 ; AVX1-NEXT: vpsrlq %xmm1, %xmm3, %xmm4
28 ; AVX1-NEXT: vpsrlq %xmm5, %xmm3, %xmm3
29 ; AVX1-NEXT: vpblendw {{.*#+}} xmm3 = xmm4[0,1,2,3],xmm3[4,5,6,7]
33 ; AVX1-NEXT: vpxor %xmm3, %xmm0, %xmm0
34 ; AVX1-NEXT: vpsubq %xmm3, %xmm0, %xmm0
50 ; XOPAVX1-NEXT: vpxor %xmm3, %xmm3, %xmm3
51 ; XOPAVX1-NEXT: vpsubq %xmm2, %xmm3, %xmm2
54 ; XOPAVX1-NEXT: vpsubq %xmm1, %xmm3, %xmm1
84 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
85 ; AVX1-NEXT: vpsrldq {{.*#+}} xmm4 = xmm3[12,13,14,15],zero,zero,zero,zero,zero,zero,zero,zero,z…
87 ; AVX1-NEXT: vpsrlq $32, %xmm3, %xmm5
91 ; AVX1-NEXT: vpunpckhdq {{.*#+}} xmm6 = xmm3[2],xmm5[2],xmm3[3],xmm5[3]
93 ; AVX1-NEXT: vpmovzxdq {{.*#+}} xmm3 = xmm3[0],zero,xmm3[1],zero
94 ; AVX1-NEXT: vpsrad %xmm3, %xmm2, %xmm2
97 ; AVX1-NEXT: vpsrldq {{.*#+}} xmm3 = xmm1[12,13,14,15],zero,zero,zero,zero,zero,zero,zero,zero,z…
98 ; AVX1-NEXT: vpsrad %xmm3, %xmm0, %xmm3
101 ; AVX1-NEXT: vpblendw {{.*#+}} xmm3 = xmm4[0,1,2,3],xmm3[4,5,6,7]
107 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1],xmm3[2,3],xmm0[4,5],xmm3[6,7]
119 ; XOPAVX1-NEXT: vpxor %xmm3, %xmm3, %xmm3
120 ; XOPAVX1-NEXT: vpsubd %xmm2, %xmm3, %xmm2
123 ; XOPAVX1-NEXT: vpsubd %xmm1, %xmm3, %xmm1
145 ; AVX1-NEXT: vpsllw $12, %xmm2, %xmm3
147 ; AVX1-NEXT: vpor %xmm3, %xmm2, %xmm2
148 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm3
153 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
155 ; AVX1-NEXT: vpaddw %xmm3, %xmm3, %xmm3
156 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
158 ; AVX1-NEXT: vpaddw %xmm3, %xmm3, %xmm3
159 ; AVX1-NEXT: vpblendvb %xmm3, %xmm4, %xmm2, %xmm2
160 ; AVX1-NEXT: vpsllw $12, %xmm1, %xmm3
162 ; AVX1-NEXT: vpor %xmm3, %xmm1, %xmm1
163 ; AVX1-NEXT: vpaddw %xmm1, %xmm1, %xmm3
167 ; AVX1-NEXT: vpblendvb %xmm3, %xmm1, %xmm0, %xmm0
169 ; AVX1-NEXT: vpaddw %xmm3, %xmm3, %xmm3
170 ; AVX1-NEXT: vpblendvb %xmm3, %xmm1, %xmm0, %xmm0
172 ; AVX1-NEXT: vpaddw %xmm3, %xmm3, %xmm3
173 ; AVX1-NEXT: vpblendvb %xmm3, %xmm1, %xmm0, %xmm0
194 ; XOPAVX1-NEXT: vpxor %xmm3, %xmm3, %xmm3
195 ; XOPAVX1-NEXT: vpsubw %xmm2, %xmm3, %xmm2
198 ; XOPAVX1-NEXT: vpsubw %xmm1, %xmm3, %xmm1
206 ; XOPAVX2-NEXT: vpxor %xmm3, %xmm3, %xmm3
207 ; XOPAVX2-NEXT: vpsubw %xmm2, %xmm3, %xmm2
210 ; XOPAVX2-NEXT: vpsubw %xmm1, %xmm3, %xmm1
231 ; AVX1-NEXT: vpunpckhbw {{.*#+}} xmm3 = xmm0[8],xmm2[8],xmm0[9],xmm2[9],xmm0[10],xmm2[10],xmm0[1…
235 ; AVX1-NEXT: vpblendvb %xmm3, %xmm6, %xmm5, %xmm5
237 ; AVX1-NEXT: vpaddw %xmm3, %xmm3, %xmm3
238 ; AVX1-NEXT: vpblendvb %xmm3, %xmm6, %xmm5, %xmm5
240 ; AVX1-NEXT: vpaddw %xmm3, %xmm3, %xmm3
241 ; AVX1-NEXT: vpblendvb %xmm3, %xmm6, %xmm5, %xmm3
242 ; AVX1-NEXT: vpsrlw $8, %xmm3, %xmm3
254 ; AVX1-NEXT: vpackuswb %xmm3, %xmm2, %xmm2
256 ; AVX1-NEXT: vpunpckhbw {{.*#+}} xmm3 = xmm0[8],xmm1[8],xmm0[9],xmm1[9],xmm0[10],xmm1[10],xmm0[1…
259 ; AVX1-NEXT: vpblendvb %xmm3, %xmm5, %xmm4, %xmm4
261 ; AVX1-NEXT: vpaddw %xmm3, %xmm3, %xmm3
262 ; AVX1-NEXT: vpblendvb %xmm3, %xmm5, %xmm4, %xmm4
264 ; AVX1-NEXT: vpaddw %xmm3, %xmm3, %xmm3
265 ; AVX1-NEXT: vpblendvb %xmm3, %xmm5, %xmm4, %xmm3
266 ; AVX1-NEXT: vpsrlw $8, %xmm3, %xmm3
278 ; AVX1-NEXT: vpackuswb %xmm3, %xmm0, %xmm0
313 ; XOPAVX1-NEXT: vpxor %xmm3, %xmm3, %xmm3
314 ; XOPAVX1-NEXT: vpsubb %xmm2, %xmm3, %xmm2
317 ; XOPAVX1-NEXT: vpsubb %xmm1, %xmm3, %xmm1
325 ; XOPAVX2-NEXT: vpxor %xmm3, %xmm3, %xmm3
326 ; XOPAVX2-NEXT: vpsubb %xmm2, %xmm3, %xmm2
329 ; XOPAVX2-NEXT: vpsubb %xmm1, %xmm3, %xmm1
374 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
375 ; AVX1-NEXT: vpsrlq %xmm1, %xmm3, %xmm3
376 ; AVX1-NEXT: vpxor %xmm2, %xmm3, %xmm3
377 ; AVX1-NEXT: vpsubq %xmm2, %xmm3, %xmm3
381 ; AVX1-NEXT: vinsertf128 $1, %xmm3, %ymm0, %ymm0
530 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
531 …m4 = xmm0[8],xmm3[8],xmm0[9],xmm3[9],xmm0[10],xmm3[10],xmm0[11],xmm3[11],xmm0[12],xmm3[12],xmm0[13…
542 …w {{.*#+}} xmm3 = xmm0[0],xmm3[0],xmm0[1],xmm3[1],xmm0[2],xmm3[2],xmm0[3],xmm3[3],xmm0[4],xmm3[4],…
543 ; AVX1-NEXT: vpsraw $4, %xmm3, %xmm5
544 ; AVX1-NEXT: vpblendvb %xmm1, %xmm5, %xmm3, %xmm3
545 ; AVX1-NEXT: vpsraw $2, %xmm3, %xmm5
547 ; AVX1-NEXT: vpblendvb %xmm4, %xmm5, %xmm3, %xmm3
548 ; AVX1-NEXT: vpsraw $1, %xmm3, %xmm5
550 ; AVX1-NEXT: vpblendvb %xmm7, %xmm5, %xmm3, %xmm3
551 ; AVX1-NEXT: vpsrlw $8, %xmm3, %xmm3
552 ; AVX1-NEXT: vpackuswb %xmm8, %xmm3, %xmm8
554 ; AVX1-NEXT: vpsraw $4, %xmm5, %xmm3
555 ; AVX1-NEXT: vpblendvb %xmm2, %xmm3, %xmm5, %xmm2
556 ; AVX1-NEXT: vpsraw $2, %xmm2, %xmm3
557 ; AVX1-NEXT: vpblendvb %xmm6, %xmm3, %xmm2, %xmm2
558 ; AVX1-NEXT: vpsraw $1, %xmm2, %xmm3
559 ; AVX1-NEXT: vpblendvb %xmm9, %xmm3, %xmm2, %xmm2
562 ; AVX1-NEXT: vpsraw $4, %xmm0, %xmm3
563 ; AVX1-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
617 ; XOPAVX2-NEXT: vpxor %xmm3, %xmm3, %xmm3
618 ; XOPAVX2-NEXT: vpsubb %xmm2, %xmm3, %xmm2
621 ; XOPAVX2-NEXT: vpsubb %xmm1, %xmm3, %xmm1
694 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
695 ; XOPAVX1-NEXT: vpshaq %xmm2, %xmm3, %xmm2
727 ; AVX1-NEXT: vpsrad $4, %xmm0, %xmm3
728 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
732 ; AVX1-NEXT: vpsrad $9, %xmm0, %xmm3
733 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
804 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
805 ; XOPAVX1-NEXT: vpshaw %xmm2, %xmm3, %xmm2
815 ; XOPAVX2-NEXT: vextracti128 $1, %ymm0, %xmm3
816 ; XOPAVX2-NEXT: vpshaw %xmm2, %xmm3, %xmm2
839 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
840 …m4 = xmm0[8],xmm3[8],xmm0[9],xmm3[9],xmm0[10],xmm3[10],xmm0[11],xmm3[11],xmm0[12],xmm3[12],xmm0[13…
851 …w {{.*#+}} xmm3 = xmm0[0],xmm3[0],xmm0[1],xmm3[1],xmm0[2],xmm3[2],xmm0[3],xmm3[3],xmm0[4],xmm3[4],…
852 ; AVX1-NEXT: vpsraw $4, %xmm3, %xmm5
853 ; AVX1-NEXT: vpblendvb %xmm1, %xmm5, %xmm3, %xmm3
854 ; AVX1-NEXT: vpsraw $2, %xmm3, %xmm5
856 ; AVX1-NEXT: vpblendvb %xmm4, %xmm5, %xmm3, %xmm3
857 ; AVX1-NEXT: vpsraw $1, %xmm3, %xmm5
859 ; AVX1-NEXT: vpblendvb %xmm7, %xmm5, %xmm3, %xmm3
860 ; AVX1-NEXT: vpsrlw $8, %xmm3, %xmm3
861 ; AVX1-NEXT: vpackuswb %xmm8, %xmm3, %xmm8
863 ; AVX1-NEXT: vpsraw $4, %xmm5, %xmm3
864 ; AVX1-NEXT: vpblendvb %xmm2, %xmm3, %xmm5, %xmm2
865 ; AVX1-NEXT: vpsraw $2, %xmm2, %xmm3
866 ; AVX1-NEXT: vpblendvb %xmm6, %xmm3, %xmm2, %xmm2
867 ; AVX1-NEXT: vpsraw $1, %xmm2, %xmm3
868 ; AVX1-NEXT: vpblendvb %xmm9, %xmm3, %xmm2, %xmm2
871 ; AVX1-NEXT: vpsraw $4, %xmm0, %xmm3
872 ; AVX1-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
1092 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [16,16,16,16,16,16,16,16,16,16,16,16,16,16,16,16]
1093 ; AVX1-NEXT: vpxor %xmm3, %xmm1, %xmm1
1094 ; AVX1-NEXT: vpsubb %xmm3, %xmm1, %xmm1
1097 ; AVX1-NEXT: vpxor %xmm3, %xmm0, %xmm0
1098 ; AVX1-NEXT: vpsubb %xmm3, %xmm0, %xmm0