Lines Matching refs:xmm2
22 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
23 ; SSE2-NEXT: movdqa %xmm2, %xmm4
25 ; SSE2-NEXT: psrlq %xmm1, %xmm2
26 ; SSE2-NEXT: movsd {{.*#+}} xmm4 = xmm2[0],xmm4[1]
27 ; SSE2-NEXT: movdqa %xmm0, %xmm2
28 ; SSE2-NEXT: psrlq %xmm3, %xmm2
30 ; SSE2-NEXT: movsd {{.*#+}} xmm2 = xmm0[0],xmm2[1]
31 ; SSE2-NEXT: xorpd %xmm4, %xmm2
32 ; SSE2-NEXT: psubq %xmm4, %xmm2
33 ; SSE2-NEXT: movdqa %xmm2, %xmm0
38 ; SSE41-NEXT: movdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
39 ; SSE41-NEXT: movdqa %xmm2, %xmm3
42 ; SSE41-NEXT: psrlq %xmm4, %xmm2
43 ; SSE41-NEXT: pblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
48 ; SSE41-NEXT: pxor %xmm2, %xmm0
49 ; SSE41-NEXT: psubq %xmm2, %xmm0
54 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
55 ; AVX1-NEXT: vpsrlq %xmm1, %xmm2, %xmm3
57 ; AVX1-NEXT: vpsrlq %xmm4, %xmm2, %xmm2
58 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
62 ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm0
63 ; AVX1-NEXT: vpsubq %xmm2, %xmm0, %xmm0
68 ; AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
69 ; AVX2-NEXT: vpsrlvq %xmm1, %xmm2, %xmm3
70 ; AVX2-NEXT: vpxor %xmm2, %xmm0, %xmm0
77 ; XOP-NEXT: vpxor %xmm2, %xmm2, %xmm2
78 ; XOP-NEXT: vpsubq %xmm1, %xmm2, %xmm1
84 ; AVX512-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
85 ; AVX512-NEXT: vpsrlvq %xmm1, %xmm2, %xmm3
86 ; AVX512-NEXT: vpxor %xmm2, %xmm0, %xmm0
93 ; X32-SSE-NEXT: pshufd {{.*#+}} xmm2 = xmm1[2,3,0,1]
96 ; X32-SSE-NEXT: psrlq %xmm2, %xmm4
101 ; X32-SSE-NEXT: psrlq %xmm2, %xmm1
115 ; SSE2-NEXT: movdqa %xmm1, %xmm2
116 ; SSE2-NEXT: psrldq {{.*#+}} xmm2 = xmm2[12,13,14,15],zero,zero,zero,zero,zero,zero,zero,zero,ze…
118 ; SSE2-NEXT: psrad %xmm2, %xmm3
119 ; SSE2-NEXT: movdqa %xmm1, %xmm2
120 ; SSE2-NEXT: psrlq $32, %xmm2
122 ; SSE2-NEXT: psrad %xmm2, %xmm4
124 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm3[1,3,2,3]
134 ; SSE2-NEXT: punpckldq {{.*#+}} xmm0 = xmm0[0],xmm2[0],xmm0[1],xmm2[1]
139 ; SSE41-NEXT: movdqa %xmm1, %xmm2
140 ; SSE41-NEXT: psrldq {{.*#+}} xmm2 = xmm2[12,13,14,15],zero,zero,zero,zero,zero,zero,zero,zero,z…
142 ; SSE41-NEXT: psrad %xmm2, %xmm3
143 ; SSE41-NEXT: movdqa %xmm1, %xmm2
144 ; SSE41-NEXT: psrlq $32, %xmm2
146 ; SSE41-NEXT: psrad %xmm2, %xmm4
148 ; SSE41-NEXT: pxor %xmm2, %xmm2
150 ; SSE41-NEXT: punpckhdq {{.*#+}} xmm1 = xmm1[2],xmm2[2],xmm1[3],xmm2[3]
151 ; SSE41-NEXT: movdqa %xmm0, %xmm2
152 ; SSE41-NEXT: psrad %xmm1, %xmm2
154 ; SSE41-NEXT: pblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm2[4,5,6,7]
160 ; AVX1-NEXT: vpsrldq {{.*#+}} xmm2 = xmm1[12,13,14,15],zero,zero,zero,zero,zero,zero,zero,zero,z…
161 ; AVX1-NEXT: vpsrad %xmm2, %xmm0, %xmm2
164 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
171 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1],xmm2[2,3],xmm0[4,5],xmm2[6,7]
181 ; XOPAVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
182 ; XOPAVX1-NEXT: vpsubd %xmm1, %xmm2, %xmm1
198 ; X32-SSE-NEXT: movdqa %xmm1, %xmm2
199 ; X32-SSE-NEXT: psrldq {{.*#+}} xmm2 = xmm2[12,13,14,15],zero,zero,zero,zero,zero,zero,zero,zero…
201 ; X32-SSE-NEXT: psrad %xmm2, %xmm3
202 ; X32-SSE-NEXT: movdqa %xmm1, %xmm2
203 ; X32-SSE-NEXT: psrlq $32, %xmm2
205 ; X32-SSE-NEXT: psrad %xmm2, %xmm4
207 ; X32-SSE-NEXT: pshufd {{.*#+}} xmm2 = xmm3[1,3,2,3]
217 ; X32-SSE-NEXT: punpckldq {{.*#+}} xmm0 = xmm0[0],xmm2[0],xmm0[1],xmm2[1]
227 ; SSE2-NEXT: movdqa %xmm1, %xmm2
228 ; SSE2-NEXT: psraw $15, %xmm2
229 ; SSE2-NEXT: movdqa %xmm2, %xmm3
232 ; SSE2-NEXT: pand %xmm2, %xmm0
235 ; SSE2-NEXT: movdqa %xmm1, %xmm2
236 ; SSE2-NEXT: psraw $15, %xmm2
237 ; SSE2-NEXT: movdqa %xmm2, %xmm3
240 ; SSE2-NEXT: pand %xmm2, %xmm0
243 ; SSE2-NEXT: movdqa %xmm1, %xmm2
244 ; SSE2-NEXT: psraw $15, %xmm2
245 ; SSE2-NEXT: movdqa %xmm2, %xmm3
248 ; SSE2-NEXT: pand %xmm2, %xmm0
252 ; SSE2-NEXT: movdqa %xmm1, %xmm2
253 ; SSE2-NEXT: pandn %xmm0, %xmm2
256 ; SSE2-NEXT: por %xmm2, %xmm0
261 ; SSE41-NEXT: movdqa %xmm0, %xmm2
268 ; SSE41-NEXT: movdqa %xmm2, %xmm4
271 ; SSE41-NEXT: pblendvb %xmm4, %xmm2
272 ; SSE41-NEXT: movdqa %xmm2, %xmm1
275 ; SSE41-NEXT: pblendvb %xmm1, %xmm2
276 ; SSE41-NEXT: movdqa %xmm2, %xmm1
280 ; SSE41-NEXT: pblendvb %xmm1, %xmm2
281 ; SSE41-NEXT: movdqa %xmm2, %xmm1
285 ; SSE41-NEXT: pblendvb %xmm1, %xmm2
286 ; SSE41-NEXT: movdqa %xmm2, %xmm0
291 ; AVX1-NEXT: vpsllw $12, %xmm1, %xmm2
293 ; AVX1-NEXT: vpor %xmm2, %xmm1, %xmm1
294 ; AVX1-NEXT: vpaddw %xmm1, %xmm1, %xmm2
298 ; AVX1-NEXT: vpblendvb %xmm2, %xmm1, %xmm0, %xmm0
300 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm2
301 ; AVX1-NEXT: vpblendvb %xmm2, %xmm1, %xmm0, %xmm0
303 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm2
304 ; AVX1-NEXT: vpblendvb %xmm2, %xmm1, %xmm0, %xmm0
320 ; XOP-NEXT: vpxor %xmm2, %xmm2, %xmm2
321 ; XOP-NEXT: vpsubw %xmm1, %xmm2, %xmm1
336 ; X32-SSE-NEXT: movdqa %xmm1, %xmm2
337 ; X32-SSE-NEXT: psraw $15, %xmm2
338 ; X32-SSE-NEXT: movdqa %xmm2, %xmm3
341 ; X32-SSE-NEXT: pand %xmm2, %xmm0
344 ; X32-SSE-NEXT: movdqa %xmm1, %xmm2
345 ; X32-SSE-NEXT: psraw $15, %xmm2
346 ; X32-SSE-NEXT: movdqa %xmm2, %xmm3
349 ; X32-SSE-NEXT: pand %xmm2, %xmm0
352 ; X32-SSE-NEXT: movdqa %xmm1, %xmm2
353 ; X32-SSE-NEXT: psraw $15, %xmm2
354 ; X32-SSE-NEXT: movdqa %xmm2, %xmm3
357 ; X32-SSE-NEXT: pand %xmm2, %xmm0
361 ; X32-SSE-NEXT: movdqa %xmm1, %xmm2
362 ; X32-SSE-NEXT: pandn %xmm0, %xmm2
365 ; X32-SSE-NEXT: por %xmm2, %xmm0
374 … {{.*#+}} xmm2 = xmm2[8],xmm0[8],xmm2[9],xmm0[9],xmm2[10],xmm0[10],xmm2[11],xmm0[11],xmm2[12],xmm0…
381 ; SSE2-NEXT: pandn %xmm2, %xmm6
382 ; SSE2-NEXT: psraw $4, %xmm2
383 ; SSE2-NEXT: pand %xmm5, %xmm2
384 ; SSE2-NEXT: por %xmm6, %xmm2
389 ; SSE2-NEXT: pandn %xmm2, %xmm6
390 ; SSE2-NEXT: psraw $2, %xmm2
391 ; SSE2-NEXT: pand %xmm5, %xmm2
392 ; SSE2-NEXT: por %xmm6, %xmm2
397 ; SSE2-NEXT: pandn %xmm2, %xmm4
398 ; SSE2-NEXT: psraw $1, %xmm2
399 ; SSE2-NEXT: pand %xmm5, %xmm2
400 ; SSE2-NEXT: por %xmm4, %xmm2
401 ; SSE2-NEXT: psrlw $8, %xmm2
427 ; SSE2-NEXT: packuswb %xmm2, %xmm0
432 ; SSE41-NEXT: movdqa %xmm0, %xmm2
435 …m3 = xmm3[8],xmm2[8],xmm3[9],xmm2[9],xmm3[10],xmm2[10],xmm3[11],xmm2[11],xmm3[12],xmm2[12],xmm3[13…
449 …}} xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1],xmm1[2],xmm2[2],xmm1[3],xmm2[3],xmm1[4],xmm2[4],xmm1[5],…
450 ; SSE41-NEXT: movdqa %xmm1, %xmm2
451 ; SSE41-NEXT: psraw $4, %xmm2
452 ; SSE41-NEXT: pblendvb %xmm2, %xmm1
453 ; SSE41-NEXT: movdqa %xmm1, %xmm2
454 ; SSE41-NEXT: psraw $2, %xmm2
456 ; SSE41-NEXT: pblendvb %xmm2, %xmm1
457 ; SSE41-NEXT: movdqa %xmm1, %xmm2
458 ; SSE41-NEXT: psraw $1, %xmm2
460 ; SSE41-NEXT: pblendvb %xmm2, %xmm1
469 ; AVX-NEXT: vpunpckhbw {{.*#+}} xmm2 = xmm0[8],xmm1[8],xmm0[9],xmm1[9],xmm0[10],xmm1[10],xmm0[11…
472 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
474 ; AVX-NEXT: vpaddw %xmm2, %xmm2, %xmm2
475 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
477 ; AVX-NEXT: vpaddw %xmm2, %xmm2, %xmm2
478 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
479 ; AVX-NEXT: vpsrlw $8, %xmm2, %xmm2
491 ; AVX-NEXT: vpackuswb %xmm2, %xmm0, %xmm0
496 ; XOP-NEXT: vpxor %xmm2, %xmm2, %xmm2
497 ; XOP-NEXT: vpsubb %xmm1, %xmm2, %xmm1
504 ; AVX512-NEXT: vpunpckhbw {{.*#+}} xmm2 = xmm0[8],xmm1[8],xmm0[9],xmm1[9],xmm0[10],xmm1[10],xmm0…
507 ; AVX512-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
509 ; AVX512-NEXT: vpaddw %xmm2, %xmm2, %xmm2
510 ; AVX512-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
512 ; AVX512-NEXT: vpaddw %xmm2, %xmm2, %xmm2
513 ; AVX512-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
514 ; AVX512-NEXT: vpsrlw $8, %xmm2, %xmm2
526 ; AVX512-NEXT: vpackuswb %xmm2, %xmm0, %xmm0
531 … {{.*#+}} xmm2 = xmm2[8],xmm0[8],xmm2[9],xmm0[9],xmm2[10],xmm0[10],xmm2[11],xmm0[11],xmm2[12],xmm0…
538 ; X32-SSE-NEXT: pandn %xmm2, %xmm6
539 ; X32-SSE-NEXT: psraw $4, %xmm2
540 ; X32-SSE-NEXT: pand %xmm5, %xmm2
541 ; X32-SSE-NEXT: por %xmm6, %xmm2
546 ; X32-SSE-NEXT: pandn %xmm2, %xmm6
547 ; X32-SSE-NEXT: psraw $2, %xmm2
548 ; X32-SSE-NEXT: pand %xmm5, %xmm2
549 ; X32-SSE-NEXT: por %xmm6, %xmm2
554 ; X32-SSE-NEXT: pandn %xmm2, %xmm4
555 ; X32-SSE-NEXT: psraw $1, %xmm2
556 ; X32-SSE-NEXT: pand %xmm5, %xmm2
557 ; X32-SSE-NEXT: por %xmm4, %xmm2
558 ; X32-SSE-NEXT: psrlw $8, %xmm2
584 ; X32-SSE-NEXT: packuswb %xmm2, %xmm0
597 ; SSE-NEXT: movdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
598 ; SSE-NEXT: psrlq %xmm1, %xmm2
600 ; SSE-NEXT: pxor %xmm2, %xmm0
601 ; SSE-NEXT: psubq %xmm2, %xmm0
606 ; AVX-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
607 ; AVX-NEXT: vpsrlq %xmm1, %xmm2, %xmm2
609 ; AVX-NEXT: vpxor %xmm2, %xmm0, %xmm0
610 ; AVX-NEXT: vpsubq %xmm2, %xmm0, %xmm0
616 ; XOPAVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
617 ; XOPAVX1-NEXT: vpsubq %xmm1, %xmm2, %xmm1
624 ; XOPAVX2-NEXT: vpxor %xmm2, %xmm2, %xmm2
625 ; XOPAVX2-NEXT: vpsubq %xmm1, %xmm2, %xmm1
631 ; AVX512-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
632 ; AVX512-NEXT: vpsrlq %xmm1, %xmm2, %xmm2
634 ; AVX512-NEXT: vpxor %xmm2, %xmm0, %xmm0
635 ; AVX512-NEXT: vpsubq %xmm2, %xmm0, %xmm0
641 ; X32-SSE-NEXT: movdqa {{.*#+}} xmm2 = [0,2147483648,0,2147483648]
642 ; X32-SSE-NEXT: psrlq %xmm1, %xmm2
644 ; X32-SSE-NEXT: pxor %xmm2, %xmm0
645 ; X32-SSE-NEXT: psubq %xmm2, %xmm0
655 ; SSE2-NEXT: xorps %xmm2, %xmm2
656 ; SSE2-NEXT: movss {{.*#+}} xmm2 = xmm1[0],xmm2[1,2,3]
657 ; SSE2-NEXT: psrad %xmm2, %xmm0
662 ; SSE41-NEXT: pxor %xmm2, %xmm2
663 ; SSE41-NEXT: pblendw {{.*#+}} xmm2 = xmm1[0,1],xmm2[2,3,4,5,6,7]
664 ; SSE41-NEXT: psrad %xmm2, %xmm0
669 ; AVX-NEXT: vpxor %xmm2, %xmm2, %xmm2
670 ; AVX-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
676 ; XOP-NEXT: vpxor %xmm2, %xmm2, %xmm2
677 ; XOP-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
683 ; AVX512-NEXT: vxorps %xmm2, %xmm2, %xmm2
684 ; AVX512-NEXT: vmovss {{.*#+}} xmm1 = xmm1[0],xmm2[1,2,3]
690 ; X32-SSE-NEXT: xorps %xmm2, %xmm2
691 ; X32-SSE-NEXT: movss {{.*#+}} xmm2 = xmm1[0],xmm2[1,2,3]
692 ; X32-SSE-NEXT: psrad %xmm2, %xmm0
710 ; SSE41-NEXT: pxor %xmm2, %xmm2
711 ; SSE41-NEXT: pblendw {{.*#+}} xmm2 = xmm1[0],xmm2[1,2,3,4,5,6,7]
712 ; SSE41-NEXT: psraw %xmm2, %xmm0
717 ; AVX-NEXT: vpxor %xmm2, %xmm2, %xmm2
718 ; AVX-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0],xmm2[1,2,3,4,5,6,7]
724 ; XOP-NEXT: vpxor %xmm2, %xmm2, %xmm2
725 ; XOP-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0],xmm2[1,2,3,4,5,6,7]
731 ; AVX512-NEXT: vpxor %xmm2, %xmm2, %xmm2
732 ; AVX512-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0],xmm2[1,2,3,4,5,6,7]
757 ; SSE2-NEXT: pxor %xmm2, %xmm2
800 ; SSE2-NEXT: pcmpgtw %xmm3, %xmm2
801 ; SSE2-NEXT: movdqa %xmm2, %xmm3
804 ; SSE2-NEXT: pand %xmm2, %xmm0
812 ; SSE41-NEXT: movdqa %xmm0, %xmm2
817 …m3 = xmm3[8],xmm2[8],xmm3[9],xmm2[9],xmm3[10],xmm2[10],xmm3[11],xmm2[11],xmm3[12],xmm2[12],xmm3[13…
831 …}} xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1],xmm1[2],xmm2[2],xmm1[3],xmm2[3],xmm1[4],xmm2[4],xmm1[5],…
832 ; SSE41-NEXT: movdqa %xmm1, %xmm2
833 ; SSE41-NEXT: psraw $4, %xmm2
834 ; SSE41-NEXT: pblendvb %xmm2, %xmm1
835 ; SSE41-NEXT: movdqa %xmm1, %xmm2
836 ; SSE41-NEXT: psraw $2, %xmm2
838 ; SSE41-NEXT: pblendvb %xmm2, %xmm1
839 ; SSE41-NEXT: movdqa %xmm1, %xmm2
840 ; SSE41-NEXT: psraw $1, %xmm2
842 ; SSE41-NEXT: pblendvb %xmm2, %xmm1
850 ; AVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
851 ; AVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
853 ; AVX1-NEXT: vpunpckhbw {{.*#+}} xmm2 = xmm0[8],xmm1[8],xmm0[9],xmm1[9],xmm0[10],xmm1[10],xmm0[1…
856 ; AVX1-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
858 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm2
859 ; AVX1-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
861 ; AVX1-NEXT: vpaddw %xmm2, %xmm2, %xmm2
862 ; AVX1-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
863 ; AVX1-NEXT: vpsrlw $8, %xmm2, %xmm2
875 ; AVX1-NEXT: vpackuswb %xmm2, %xmm0, %xmm0
882 ; AVX2-NEXT: vpunpckhbw {{.*#+}} xmm2 = xmm0[8],xmm1[8],xmm0[9],xmm1[9],xmm0[10],xmm1[10],xmm0[1…
885 ; AVX2-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
887 ; AVX2-NEXT: vpaddw %xmm2, %xmm2, %xmm2
888 ; AVX2-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
890 ; AVX2-NEXT: vpaddw %xmm2, %xmm2, %xmm2
891 ; AVX2-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
892 ; AVX2-NEXT: vpsrlw $8, %xmm2, %xmm2
904 ; AVX2-NEXT: vpackuswb %xmm2, %xmm0, %xmm0
909 ; XOPAVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
910 ; XOPAVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
911 ; XOPAVX1-NEXT: vpsubb %xmm1, %xmm2, %xmm1
918 ; XOPAVX2-NEXT: vpxor %xmm2, %xmm2, %xmm2
919 ; XOPAVX2-NEXT: vpsubb %xmm1, %xmm2, %xmm1
927 ; AVX512-NEXT: vpunpckhbw {{.*#+}} xmm2 = xmm0[8],xmm1[8],xmm0[9],xmm1[9],xmm0[10],xmm1[10],xmm0…
930 ; AVX512-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
932 ; AVX512-NEXT: vpaddw %xmm2, %xmm2, %xmm2
933 ; AVX512-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
935 ; AVX512-NEXT: vpaddw %xmm2, %xmm2, %xmm2
936 ; AVX512-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
937 ; AVX512-NEXT: vpsrlw $8, %xmm2, %xmm2
949 ; AVX512-NEXT: vpackuswb %xmm2, %xmm0, %xmm0
960 ; X32-SSE-NEXT: pxor %xmm2, %xmm2
1003 ; X32-SSE-NEXT: pcmpgtw %xmm3, %xmm2
1004 ; X32-SSE-NEXT: movdqa %xmm2, %xmm3
1007 ; X32-SSE-NEXT: pand %xmm2, %xmm0
1081 ; X32-SSE-NEXT: movdqa %xmm1, %xmm2
1082 ; X32-SSE-NEXT: psrlq $7, %xmm2
1084 ; X32-SSE-NEXT: movsd {{.*#+}} xmm2 = xmm1[0],xmm2[1]
1089 ; X32-SSE-NEXT: xorpd %xmm2, %xmm1
1090 ; X32-SSE-NEXT: psubq %xmm2, %xmm1
1102 ; SSE2-NEXT: movdqa %xmm0, %xmm2
1103 ; SSE2-NEXT: psrad $5, %xmm2
1104 ; SSE2-NEXT: movsd {{.*#+}} xmm1 = xmm2[0],xmm1[1]
1106 ; SSE2-NEXT: movdqa %xmm0, %xmm2
1107 ; SSE2-NEXT: psrad $6, %xmm2
1109 ; SSE2-NEXT: movsd {{.*#+}} xmm2 = xmm0[0],xmm2[1]
1110 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm2[0,2,2,3]
1118 ; SSE41-NEXT: movdqa %xmm0, %xmm2
1119 ; SSE41-NEXT: psrad $5, %xmm2
1120 ; SSE41-NEXT: pblendw {{.*#+}} xmm2 = xmm2[0,1,2,3],xmm1[4,5,6,7]
1125 ; SSE41-NEXT: pblendw {{.*#+}} xmm0 = xmm0[0,1],xmm2[2,3],xmm0[4,5],xmm2[6,7]
1131 ; AVX1-NEXT: vpsrad $5, %xmm0, %xmm2
1132 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm2[0,1,2,3],xmm1[4,5,6,7]
1133 ; AVX1-NEXT: vpsrad $6, %xmm0, %xmm2
1135 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm2[4,5,6,7]
1163 ; X32-SSE-NEXT: movdqa %xmm0, %xmm2
1164 ; X32-SSE-NEXT: psrad $5, %xmm2
1165 ; X32-SSE-NEXT: movsd {{.*#+}} xmm1 = xmm2[0],xmm1[1]
1167 ; X32-SSE-NEXT: movdqa %xmm0, %xmm2
1168 ; X32-SSE-NEXT: psrad $6, %xmm2
1170 ; X32-SSE-NEXT: movsd {{.*#+}} xmm2 = xmm0[0],xmm2[1]
1171 ; X32-SSE-NEXT: pshufd {{.*#+}} xmm0 = xmm2[0,2,2,3]
1184 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm1[0,2,2,3]
1187 ; SSE2-NEXT: punpckldq {{.*#+}} xmm2 = xmm2[0],xmm0[0],xmm2[1],xmm0[1]
1189 ; SSE2-NEXT: movdqa %xmm2, %xmm1
1191 ; SSE2-NEXT: psraw $1, %xmm2
1192 ; SSE2-NEXT: pandn %xmm2, %xmm0
1201 ; SSE41-NEXT: movdqa %xmm1, %xmm2
1202 ; SSE41-NEXT: psraw $2, %xmm2
1203 ; SSE41-NEXT: pblendw {{.*#+}} xmm2 = xmm1[0,1],xmm2[2,3],xmm1[4,5],xmm2[6,7]
1204 ; SSE41-NEXT: movdqa %xmm2, %xmm0
1206 ; SSE41-NEXT: pblendw {{.*#+}} xmm0 = xmm2[0],xmm0[1],xmm2[2],xmm0[3],xmm2[4],xmm0[5],xmm2[6],xm…
1249 ; X32-SSE-NEXT: pshufd {{.*#+}} xmm2 = xmm1[0,2,2,3]
1252 ; X32-SSE-NEXT: punpckldq {{.*#+}} xmm2 = xmm2[0],xmm0[0],xmm2[1],xmm0[1]
1254 ; X32-SSE-NEXT: movdqa %xmm2, %xmm1
1256 ; X32-SSE-NEXT: psraw $1, %xmm2
1257 ; X32-SSE-NEXT: pandn %xmm2, %xmm0
1271 ; SSE2-NEXT: pxor %xmm2, %xmm2
1314 ; SSE2-NEXT: pcmpgtw %xmm3, %xmm2
1315 ; SSE2-NEXT: movdqa %xmm2, %xmm3
1318 ; SSE2-NEXT: pand %xmm2, %xmm0
1330 … {{.*#+}} xmm2 = xmm2[8],xmm1[8],xmm2[9],xmm1[9],xmm2[10],xmm1[10],xmm2[11],xmm1[11],xmm2[12],xmm1…
1331 ; SSE41-NEXT: movdqa %xmm2, %xmm4
1333 ; SSE41-NEXT: pblendvb %xmm4, %xmm2
1334 ; SSE41-NEXT: movdqa %xmm2, %xmm4
1337 ; SSE41-NEXT: pblendvb %xmm4, %xmm2
1338 ; SSE41-NEXT: movdqa %xmm2, %xmm4
1341 ; SSE41-NEXT: pblendvb %xmm4, %xmm2
1342 ; SSE41-NEXT: psrlw $8, %xmm2
1357 ; SSE41-NEXT: packuswb %xmm2, %xmm1
1365 ; AVX-NEXT: vpunpckhbw {{.*#+}} xmm2 = xmm0[8],xmm1[8],xmm0[9],xmm1[9],xmm0[10],xmm1[10],xmm0[11…
1368 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
1370 ; AVX-NEXT: vpaddw %xmm2, %xmm2, %xmm2
1371 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
1373 ; AVX-NEXT: vpaddw %xmm2, %xmm2, %xmm2
1374 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
1375 ; AVX-NEXT: vpsrlw $8, %xmm2, %xmm2
1387 ; AVX-NEXT: vpackuswb %xmm2, %xmm0, %xmm0
1401 ; AVX512-NEXT: vpunpckhbw {{.*#+}} xmm2 = xmm0[8],xmm1[8],xmm0[9],xmm1[9],xmm0[10],xmm1[10],xmm0…
1404 ; AVX512-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
1406 ; AVX512-NEXT: vpaddw %xmm2, %xmm2, %xmm2
1407 ; AVX512-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
1409 ; AVX512-NEXT: vpaddw %xmm2, %xmm2, %xmm2
1410 ; AVX512-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
1411 ; AVX512-NEXT: vpsrlw $8, %xmm2, %xmm2
1423 ; AVX512-NEXT: vpackuswb %xmm2, %xmm0, %xmm0
1432 ; X32-SSE-NEXT: pxor %xmm2, %xmm2
1475 ; X32-SSE-NEXT: pcmpgtw %xmm3, %xmm2
1476 ; X32-SSE-NEXT: movdqa %xmm2, %xmm3
1479 ; X32-SSE-NEXT: pand %xmm2, %xmm0