• Home
  • Raw
  • Download

Lines Matching refs:xmm2

81 ; SSE2-NEXT:    movdqa %xmm0, %xmm2
82 ; SSE2-NEXT: psrad $31, %xmm2
83 ; SSE2-NEXT: pand %xmm1, %xmm2
89 ; SSE2-NEXT: paddd %xmm1, %xmm2
95 ; SSE2-NEXT: psubd %xmm2, %xmm1
107 ; SSE41-NEXT: pshufd {{.*#+}} xmm2 = xmm1[1,1,3,3]
109 ; SSE41-NEXT: pmuldq %xmm2, %xmm3
124 ; AVX1-NEXT: vpshufd {{.*#+}} xmm2 = xmm1[1,1,3,3]
126 ; AVX1-NEXT: vpmuldq %xmm2, %xmm3, %xmm2
129 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3],xmm1[4,5],xmm2[6,7]
139 ; AVX2-NEXT: vpshufd {{.*#+}} xmm2 = xmm1[1,1,3,3]
141 ; AVX2-NEXT: vpmuldq %xmm2, %xmm3, %xmm2
144 ; AVX2-NEXT: vpblendd {{.*#+}} xmm1 = xmm1[0],xmm2[1],xmm1[2],xmm2[3]
178 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [147,147,147,147,147,147,147,147,147,147,147,147,147,147,147…
179 ; SSE2-NEXT: psraw $8, %xmm2
183 ; SSE2-NEXT: pmullw %xmm2, %xmm3
188 ; SSE2-NEXT: pmullw %xmm2, %xmm1
195 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [32,32,32,32,32,32,32,32,32,32,32,32,32,32,32,32]
196 ; SSE2-NEXT: pxor %xmm2, %xmm0
197 ; SSE2-NEXT: psubb %xmm2, %xmm0
207 ; SSE41-NEXT: pmovsxbw {{.*}}(%rip), %xmm2
208 ; SSE41-NEXT: pmullw %xmm2, %xmm1
212 ; SSE41-NEXT: pmullw %xmm2, %xmm3
219 ; SSE41-NEXT: movdqa {{.*#+}} xmm2 = [32,32,32,32,32,32,32,32,32,32,32,32,32,32,32,32]
220 ; SSE41-NEXT: pxor %xmm2, %xmm0
221 ; SSE41-NEXT: psubb %xmm2, %xmm0
231 ; AVX1-NEXT: vpmovsxbw {{.*}}(%rip), %xmm2
232 ; AVX1-NEXT: vpmullw %xmm2, %xmm1, %xmm1
236 ; AVX1-NEXT: vpmullw %xmm2, %xmm3, %xmm2
237 ; AVX1-NEXT: vpsrlw $8, %xmm2, %xmm2
238 ; AVX1-NEXT: vpackuswb %xmm2, %xmm1, %xmm1
242 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [32,32,32,32,32,32,32,32,32,32,32,32,32,32,32,32]
243 ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm1
244 ; AVX1-NEXT: vpsubb %xmm2, %xmm1, %xmm1
256 ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
257 ; AVX2-NEXT: vpackuswb %xmm2, %xmm1, %xmm1
261 ; AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [32,32,32,32,32,32,32,32,32,32,32,32,32,32,32,32]
262 ; AVX2-NEXT: vpxor %xmm2, %xmm1, %xmm1
263 ; AVX2-NEXT: vpsubb %xmm2, %xmm1, %xmm1
371 ; SSE2-NEXT: movdqa %xmm0, %xmm2
372 ; SSE2-NEXT: psrad $31, %xmm2
373 ; SSE2-NEXT: pand %xmm1, %xmm2
379 ; SSE2-NEXT: paddd %xmm1, %xmm2
385 ; SSE2-NEXT: psubd %xmm2, %xmm1
387 ; SSE2-NEXT: movdqa %xmm1, %xmm2
388 ; SSE2-NEXT: psrld $31, %xmm2
390 ; SSE2-NEXT: paddd %xmm2, %xmm1
391 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [7,7,7,7]
393 ; SSE2-NEXT: pmuludq %xmm2, %xmm1
395 ; SSE2-NEXT: pmuludq %xmm2, %xmm3
396 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm3[0,2,2,3]
397 ; SSE2-NEXT: punpckldq {{.*#+}} xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1]
404 ; SSE41-NEXT: pshufd {{.*#+}} xmm2 = xmm1[1,1,3,3]
406 ; SSE41-NEXT: pmuldq %xmm2, %xmm3
411 ; SSE41-NEXT: movdqa %xmm1, %xmm2
412 ; SSE41-NEXT: psrld $31, %xmm2
414 ; SSE41-NEXT: paddd %xmm2, %xmm1
422 ; AVX1-NEXT: vpshufd {{.*#+}} xmm2 = xmm1[1,1,3,3]
424 ; AVX1-NEXT: vpmuldq %xmm2, %xmm3, %xmm2
427 ; AVX1-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3],xmm1[4,5],xmm2[6,7]
429 ; AVX1-NEXT: vpsrld $31, %xmm1, %xmm2
431 ; AVX1-NEXT: vpaddd %xmm2, %xmm1, %xmm1
439 ; AVX2-NEXT: vpshufd {{.*#+}} xmm2 = xmm1[1,1,3,3]
441 ; AVX2-NEXT: vpmuldq %xmm2, %xmm3, %xmm2
444 ; AVX2-NEXT: vpblendd {{.*#+}} xmm1 = xmm1[0],xmm2[1],xmm1[2],xmm2[3]
446 ; AVX2-NEXT: vpsrld $31, %xmm1, %xmm2
448 ; AVX2-NEXT: vpaddd %xmm2, %xmm1, %xmm1
449 ; AVX2-NEXT: vpbroadcastd {{.*}}(%rip), %xmm2
450 ; AVX2-NEXT: vpmulld %xmm2, %xmm1, %xmm1
462 ; SSE-NEXT: movdqa %xmm1, %xmm2
463 ; SSE-NEXT: psrlw $15, %xmm2
465 ; SSE-NEXT: paddw %xmm2, %xmm1
473 ; AVX-NEXT: vpsrlw $15, %xmm1, %xmm2
475 ; AVX-NEXT: vpaddw %xmm2, %xmm1, %xmm1
486 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [147,147,147,147,147,147,147,147,147,147,147,147,147,147,147…
487 ; SSE2-NEXT: psraw $8, %xmm2
491 ; SSE2-NEXT: pmullw %xmm2, %xmm3
496 ; SSE2-NEXT: pmullw %xmm2, %xmm1
500 ; SSE2-NEXT: movdqa %xmm1, %xmm2
501 ; SSE2-NEXT: psrlw $2, %xmm2
502 ; SSE2-NEXT: pand {{.*}}(%rip), %xmm2
504 ; SSE2-NEXT: pxor %xmm3, %xmm2
505 ; SSE2-NEXT: psubb %xmm3, %xmm2
508 ; SSE2-NEXT: paddb %xmm2, %xmm1
509 ; SSE2-NEXT: movdqa %xmm1, %xmm2
510 ; SSE2-NEXT: punpckhbw {{.*#+}} xmm2 = xmm2[8,8,9,9,10,10,11,11,12,12,13,13,14,14,15,15]
511 ; SSE2-NEXT: psraw $8, %xmm2
514 ; SSE2-NEXT: pmullw %xmm3, %xmm2
516 ; SSE2-NEXT: pand %xmm4, %xmm2
521 ; SSE2-NEXT: packuswb %xmm2, %xmm1
528 ; SSE41-NEXT: pmovsxbw {{.*}}(%rip), %xmm2
529 ; SSE41-NEXT: pmullw %xmm2, %xmm1
533 ; SSE41-NEXT: pmullw %xmm2, %xmm3
537 ; SSE41-NEXT: movdqa %xmm1, %xmm2
538 ; SSE41-NEXT: psrlw $2, %xmm2
539 ; SSE41-NEXT: pand {{.*}}(%rip), %xmm2
541 ; SSE41-NEXT: pxor %xmm3, %xmm2
542 ; SSE41-NEXT: psubb %xmm3, %xmm2
545 ; SSE41-NEXT: paddb %xmm2, %xmm1
546 ; SSE41-NEXT: pmovsxbw %xmm1, %xmm2
548 ; SSE41-NEXT: pmullw %xmm3, %xmm2
550 ; SSE41-NEXT: pand %xmm4, %xmm2
555 ; SSE41-NEXT: packuswb %xmm1, %xmm2
556 ; SSE41-NEXT: psubb %xmm2, %xmm0
562 ; AVX1-NEXT: vpmovsxbw {{.*}}(%rip), %xmm2
563 ; AVX1-NEXT: vpmullw %xmm2, %xmm1, %xmm1
567 ; AVX1-NEXT: vpmullw %xmm2, %xmm3, %xmm2
568 ; AVX1-NEXT: vpsrlw $8, %xmm2, %xmm2
569 ; AVX1-NEXT: vpackuswb %xmm2, %xmm1, %xmm1
571 ; AVX1-NEXT: vpsrlw $2, %xmm1, %xmm2
572 ; AVX1-NEXT: vpand {{.*}}(%rip), %xmm2, %xmm2
574 ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2
575 ; AVX1-NEXT: vpsubb %xmm3, %xmm2, %xmm2
578 ; AVX1-NEXT: vpaddb %xmm1, %xmm2, %xmm1
579 ; AVX1-NEXT: vpmovsxbw %xmm1, %xmm2
581 ; AVX1-NEXT: vpmullw %xmm3, %xmm2, %xmm2
583 ; AVX1-NEXT: vpand %xmm4, %xmm2, %xmm2
588 ; AVX1-NEXT: vpackuswb %xmm1, %xmm2, %xmm1
598 ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
599 ; AVX2-NEXT: vpackuswb %xmm2, %xmm1, %xmm1
601 ; AVX2-NEXT: vpsrlw $2, %xmm1, %xmm2
602 ; AVX2-NEXT: vpand {{.*}}(%rip), %xmm2, %xmm2
604 ; AVX2-NEXT: vpxor %xmm3, %xmm2, %xmm2
605 ; AVX2-NEXT: vpsubb %xmm3, %xmm2, %xmm2
608 ; AVX2-NEXT: vpaddb %xmm1, %xmm2, %xmm1
612 ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
614 ; AVX2-NEXT: vpshufb %xmm3, %xmm2, %xmm2
616 ; AVX2-NEXT: vpunpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm2[0]