Lines Matching refs:xmm1
12 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm1[0,2,2,3]
14 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
16 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm2[0,2,2,3]
17 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm3[0]
22 ; SSSE3-NEXT: pshufd {{.*#+}} xmm1 = xmm1[0,2,2,3]
24 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
26 ; SSSE3-NEXT: pshufd {{.*#+}} xmm1 = xmm2[0,2,2,3]
27 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm3[0]
32 ; SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm1[0,1,0,2]
34 ; SSE41-NEXT: pblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm1[4,5,6,7]
36 ; SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm2[0,2,2,3]
37 ; SSE41-NEXT: pblendw {{.*#+}} xmm1 = xmm1[0,1,2,3],xmm3[4,5,6,7]
44 ; AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm1[0,2,2,3]
45 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1,2,3],xmm2[4,5,6,7]
50 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
58 ; AVX2-NEXT: vinserti128 $1, %xmm1, %ymm0, %ymm0
73 ; SSE2-NEXT: pextrw $4, %xmm1, %eax
74 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm1 = xmm1[0],xmm3[0],xmm1[1],xmm3[1],xmm1[2],xmm3[2],xmm1[3],x…
77 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1],xmm0[2],xmm1[2],xmm0[3],x…
79 ; SSE2-NEXT: movd %edx, %xmm1
81 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm3 = xmm3[0],xmm1[0],xmm3[1],xmm1[1],xmm3[2],xmm1[2],xmm3[3],x…
83 ; SSE2-NEXT: movd %eax, %xmm1
85 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm2 = xmm2[0],xmm1[0],xmm2[1],xmm1[1],xmm2[2],xmm1[2],xmm2[3],x…
92 ; SSSE3-NEXT: pextrw $4, %xmm1, %eax
93 ; SSSE3-NEXT: punpcklwd {{.*#+}} xmm1 = xmm1[0],xmm3[0],xmm1[1],xmm3[1],xmm1[2],xmm3[2],xmm1[3],…
96 … SSSE3-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1],xmm0[2],xmm1[2],xmm0[3],…
98 ; SSSE3-NEXT: movd %edx, %xmm1
100 … SSSE3-NEXT: punpcklwd {{.*#+}} xmm3 = xmm3[0],xmm1[0],xmm3[1],xmm1[1],xmm3[2],xmm1[2],xmm3[3],…
102 ; SSSE3-NEXT: movd %eax, %xmm1
104 … SSSE3-NEXT: punpcklwd {{.*#+}} xmm2 = xmm2[0],xmm1[0],xmm2[1],xmm1[1],xmm2[2],xmm1[2],xmm2[3],…
115 ; SSE41-NEXT: pblendw {{.*#+}} xmm1 = xmm1[0],xmm4[1,2,3],xmm1[4],xmm4[5,6,7]
117 ; SSE41-NEXT: packusdw %xmm1, %xmm0
126 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0],xmm3[1,2,3],xmm1[4],xmm3[5,6,7]
127 ; AVX1-NEXT: vpackusdw %xmm2, %xmm1, %xmm1
132 ; AVX1-NEXT: vpackusdw %xmm1, %xmm0, %xmm0
141 ; AVX2-NEXT: vinserti128 $1, %xmm1, %ymm0, %ymm0
163 ; SSE-NEXT: pand %xmm4, %xmm1
165 ; SSE-NEXT: packuswb %xmm1, %xmm0
176 ; AVX1-NEXT: vandps %xmm3, %xmm1, %xmm1
177 ; AVX1-NEXT: vpackuswb %xmm2, %xmm1, %xmm1
182 ; AVX1-NEXT: vpackuswb %xmm1, %xmm0, %xmm0
194 ; AVX2-NEXT: vpshufb %xmm2, %xmm1, %xmm1
196 ; AVX2-NEXT: vpunpckldq {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
214 ; SSE2-NEXT: pslld $16, %xmm1
215 ; SSE2-NEXT: psrad $16, %xmm1
218 ; SSE2-NEXT: packssdw %xmm1, %xmm0
224 ; SSSE3-NEXT: pshufb %xmm2, %xmm1
226 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
232 ; SSE41-NEXT: pshufb %xmm2, %xmm1
234 ; SSE41-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
239 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1
241 ; AVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
243 ; AVX1-NEXT: vpunpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
267 ; SSE2-NEXT: pand %xmm2, %xmm1
269 ; SSE2-NEXT: packuswb %xmm1, %xmm0
277 ; SSSE3-NEXT: pshufb %xmm2, %xmm1
279 ; SSSE3-NEXT: punpckldq {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
286 ; SSE41-NEXT: pshufb %xmm2, %xmm1
288 ; SSE41-NEXT: punpckldq {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
294 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1
296 ; AVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
298 ; AVX1-NEXT: vpunpckldq {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
331 ; SSE-NEXT: pand %xmm4, %xmm1
333 ; SSE-NEXT: packuswb %xmm1, %xmm0
343 ; AVX1-NEXT: vandps %xmm3, %xmm1, %xmm1
344 ; AVX1-NEXT: vpackuswb %xmm2, %xmm1, %xmm1
349 ; AVX1-NEXT: vpackuswb %xmm1, %xmm0, %xmm0
360 ; AVX2-NEXT: vpshufb %xmm3, %xmm1, %xmm1
364 ; AVX2-NEXT: vpunpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
382 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm1[0,2,2,3]
384 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
386 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm2[0,2,2,3]
387 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm3[0]
392 ; SSSE3-NEXT: pshufd {{.*#+}} xmm1 = xmm1[0,2,2,3]
394 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
396 ; SSSE3-NEXT: pshufd {{.*#+}} xmm1 = xmm2[0,2,2,3]
397 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm3[0]
402 ; SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm1[0,1,0,2]
404 ; SSE41-NEXT: pblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm1[4,5,6,7]
406 ; SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm2[0,2,2,3]
407 ; SSE41-NEXT: pblendw {{.*#+}} xmm1 = xmm1[0,1,2,3],xmm3[4,5,6,7]
418 ; AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm1[0,2,2,3]
419 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1,2,3],xmm2[4,5,6,7]
420 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
428 ; AVX2-NEXT: vinserti128 $1, %xmm1, %ymm0, %ymm0
435 ; AVX512BW-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
447 ; SSE2-NEXT: pextrw $4, %xmm1, %eax
448 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm1 = xmm1[0],xmm3[0],xmm1[1],xmm3[1],xmm1[2],xmm3[2],xmm1[3],x…
451 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1],xmm0[2],xmm1[2],xmm0[3],x…
453 ; SSE2-NEXT: movd %edx, %xmm1
455 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm3 = xmm3[0],xmm1[0],xmm3[1],xmm1[1],xmm3[2],xmm1[2],xmm3[3],x…
457 ; SSE2-NEXT: movd %eax, %xmm1
459 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm2 = xmm2[0],xmm1[0],xmm2[1],xmm1[1],xmm2[2],xmm1[2],xmm2[3],x…
466 ; SSSE3-NEXT: pextrw $4, %xmm1, %eax
467 ; SSSE3-NEXT: punpcklwd {{.*#+}} xmm1 = xmm1[0],xmm3[0],xmm1[1],xmm3[1],xmm1[2],xmm3[2],xmm1[3],…
470 … SSSE3-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1],xmm0[2],xmm1[2],xmm0[3],…
472 ; SSSE3-NEXT: movd %edx, %xmm1
474 … SSSE3-NEXT: punpcklwd {{.*#+}} xmm3 = xmm3[0],xmm1[0],xmm3[1],xmm1[1],xmm3[2],xmm1[2],xmm3[3],…
476 ; SSSE3-NEXT: movd %eax, %xmm1
478 … SSSE3-NEXT: punpcklwd {{.*#+}} xmm2 = xmm2[0],xmm1[0],xmm2[1],xmm1[1],xmm2[2],xmm1[2],xmm2[3],…
487 ; SSE41-NEXT: movd %xmm1, %eax
489 ; SSE41-NEXT: pextrw $4, %xmm1, %eax
509 ; AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm1[0,2,2,3]
510 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1,2,3],xmm2[4,5,6,7]
512 ; AVX1-NEXT: vpshufb %xmm2, %xmm1, %xmm1
514 ; AVX1-NEXT: vpunpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
524 ; AVX2-NEXT: vpshufb %xmm2, %xmm1, %xmm1
526 ; AVX2-NEXT: vpunpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
535 ; AVX512BW-NEXT: vpshufb %xmm2, %xmm1, %xmm1
537 ; AVX512BW-NEXT: vpunpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
549 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm1[0,2,2,3]
551 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
556 ; SSSE3-NEXT: pshufd {{.*#+}} xmm1 = xmm1[0,2,2,3]
558 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
563 ; SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm1[0,1,0,2]
565 ; SSE41-NEXT: pblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm1[4,5,6,7]
570 ; AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm1[0,1,0,2]
572 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm1[4,5,6,7]
577 ; AVX2-NEXT: vpshufd {{.*#+}} xmm1 = xmm1[0,1,0,2]
579 ; AVX2-NEXT: vpblendd {{.*#+}} xmm0 = xmm0[0,1],xmm1[2,3]
584 ; AVX512BW-NEXT: vpshufd {{.*#+}} xmm1 = xmm1[0,1,0,2]
586 ; AVX512BW-NEXT: vpblendd {{.*#+}} xmm0 = xmm0[0,1],xmm1[2,3]
622 ; SSE2-NEXT: pshuflw {{.*#+}} xmm1 = xmm1[0,2,2,3,4,5,6,7]
623 ; SSE2-NEXT: pshufhw {{.*#+}} xmm1 = xmm1[0,1,2,3,4,6,6,7]
624 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm1[0,2,2,3]
628 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
634 ; SSSE3-NEXT: pshufb %xmm2, %xmm1
636 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
642 ; SSE41-NEXT: pshufb %xmm2, %xmm1
644 ; SSE41-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
650 ; AVX-NEXT: vpshufb %xmm2, %xmm1, %xmm1
652 ; AVX-NEXT: vpunpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
658 ; AVX512BW-NEXT: vpshufb %xmm2, %xmm1, %xmm1
660 ; AVX512BW-NEXT: vpunpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
712 ; SSE2-NEXT: pand %xmm2, %xmm1
714 ; SSE2-NEXT: packuswb %xmm1, %xmm0
720 ; SSSE3-NEXT: pshufb %xmm2, %xmm1
722 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
728 ; SSE41-NEXT: pshufb %xmm2, %xmm1
730 ; SSE41-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
736 ; AVX-NEXT: vpshufb %xmm2, %xmm1, %xmm1
738 ; AVX-NEXT: vpunpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
744 ; AVX512BW-NEXT: vpshufb %xmm2, %xmm1, %xmm1
746 ; AVX512BW-NEXT: vpunpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]