• Home
  • Raw
  • Download

Lines Matching refs:xmm2

5           vaddss  %xmm4, %xmm6, %xmm2
9 vmulss %xmm4, %xmm6, %xmm2
13 vsubss %xmm4, %xmm6, %xmm2
17 vdivss %xmm4, %xmm6, %xmm2
21 vaddsd %xmm4, %xmm6, %xmm2
25 vmulsd %xmm4, %xmm6, %xmm2
29 vsubsd %xmm4, %xmm6, %xmm2
33 vdivsd %xmm4, %xmm6, %xmm2
37 vaddss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
41 vsubss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
45 vmulss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
49 vdivss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
53 vaddsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
57 vsubsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
61 vmulsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
65 vdivsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
69 vaddps %xmm4, %xmm6, %xmm2
73 vsubps %xmm4, %xmm6, %xmm2
77 vmulps %xmm4, %xmm6, %xmm2
81 vdivps %xmm4, %xmm6, %xmm2
85 vaddpd %xmm4, %xmm6, %xmm2
89 vsubpd %xmm4, %xmm6, %xmm2
93 vmulpd %xmm4, %xmm6, %xmm2
97 vdivpd %xmm4, %xmm6, %xmm2
101 vaddps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
105 vsubps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
109 vmulps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
113 vdivps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
117 vaddpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
121 vsubpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
125 vmulpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
129 vdivpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
132 vmaxss %xmm2, %xmm4, %xmm6
136 vmaxsd %xmm2, %xmm4, %xmm6
140 vminss %xmm2, %xmm4, %xmm6
144 vminsd %xmm2, %xmm4, %xmm6
148 vmaxss -4(%ebx,%ecx,8), %xmm2, %xmm5
152 vmaxsd -4(%ebx,%ecx,8), %xmm2, %xmm5
156 vminss -4(%ebx,%ecx,8), %xmm2, %xmm5
160 vminsd -4(%ebx,%ecx,8), %xmm2, %xmm5
164 vmaxps %xmm2, %xmm4, %xmm6
168 vmaxpd %xmm2, %xmm4, %xmm6
172 vminps %xmm2, %xmm4, %xmm6
176 vminpd %xmm2, %xmm4, %xmm6
180 vmaxps -4(%ebx,%ecx,8), %xmm2, %xmm5
184 vmaxpd -4(%ebx,%ecx,8), %xmm2, %xmm5
188 vminps -4(%ebx,%ecx,8), %xmm2, %xmm5
192 vminpd -4(%ebx,%ecx,8), %xmm2, %xmm5
196 vandps %xmm2, %xmm4, %xmm6
200 vandpd %xmm2, %xmm4, %xmm6
204 vandps -4(%ebx,%ecx,8), %xmm2, %xmm5
208 vandpd -4(%ebx,%ecx,8), %xmm2, %xmm5
212 vorps %xmm2, %xmm4, %xmm6
216 vorpd %xmm2, %xmm4, %xmm6
220 vorps -4(%ebx,%ecx,8), %xmm2, %xmm5
224 vorpd -4(%ebx,%ecx,8), %xmm2, %xmm5
228 vxorps %xmm2, %xmm4, %xmm6
232 vxorpd %xmm2, %xmm4, %xmm6
236 vxorps -4(%ebx,%ecx,8), %xmm2, %xmm5
240 vxorpd -4(%ebx,%ecx,8), %xmm2, %xmm5
244 vandnps %xmm2, %xmm4, %xmm6
248 vandnpd %xmm2, %xmm4, %xmm6
252 vandnps -4(%ebx,%ecx,8), %xmm2, %xmm5
256 vandnpd -4(%ebx,%ecx,8), %xmm2, %xmm5
264 vmovss %xmm4, %xmm2, %xmm5
272 vmovsd %xmm4, %xmm2, %xmm5
276 vunpckhps %xmm1, %xmm2, %xmm4
280 vunpckhpd %xmm1, %xmm2, %xmm4
284 vunpcklps %xmm1, %xmm2, %xmm4
288 vunpcklpd %xmm1, %xmm2, %xmm4
292 vunpckhps -4(%ebx,%ecx,8), %xmm2, %xmm5
296 vunpckhpd -4(%ebx,%ecx,8), %xmm2, %xmm5
300 vunpcklps -4(%ebx,%ecx,8), %xmm2, %xmm5
304 vunpcklpd -4(%ebx,%ecx,8), %xmm2, %xmm5
332 vshufps $8, %xmm1, %xmm2, %xmm3
336 vshufps $8, -4(%ebx,%ecx,8), %xmm2, %xmm3
340 vshufpd $8, %xmm1, %xmm2, %xmm3
344 vshufpd $8, -4(%ebx,%ecx,8), %xmm2, %xmm3
348 vcmpeqps %xmm1, %xmm2, %xmm3
352 vcmpleps %xmm1, %xmm2, %xmm3
356 vcmpltps %xmm1, %xmm2, %xmm3
360 vcmpneqps %xmm1, %xmm2, %xmm3
364 vcmpnleps %xmm1, %xmm2, %xmm3
368 vcmpnltps %xmm1, %xmm2, %xmm3
372 vcmpordps %xmm1, %xmm2, %xmm3
376 vcmpunordps %xmm1, %xmm2, %xmm3
380 vcmpeqps -4(%ebx,%ecx,8), %xmm2, %xmm3
384 vcmpleps -4(%ebx,%ecx,8), %xmm2, %xmm3
388 vcmpltps -4(%ebx,%ecx,8), %xmm2, %xmm3
392 vcmpneqps -4(%ebx,%ecx,8), %xmm2, %xmm3
396 vcmpnleps -4(%ebx,%ecx,8), %xmm2, %xmm3
400 vcmpnltps -4(%ebx,%ecx,8), %xmm2, %xmm3
404 vcmpordps -4(%ebx,%ecx,8), %xmm6, %xmm2
408 vcmpunordps -4(%ebx,%ecx,8), %xmm2, %xmm3
412 vcmpeqpd %xmm1, %xmm2, %xmm3
416 vcmplepd %xmm1, %xmm2, %xmm3
420 vcmpltpd %xmm1, %xmm2, %xmm3
424 vcmpneqpd %xmm1, %xmm2, %xmm3
428 vcmpnlepd %xmm1, %xmm2, %xmm3
432 vcmpnltpd %xmm1, %xmm2, %xmm3
436 vcmpordpd %xmm1, %xmm2, %xmm3
440 vcmpunordpd %xmm1, %xmm2, %xmm3
444 vcmpeqpd -4(%ebx,%ecx,8), %xmm2, %xmm3
448 vcmplepd -4(%ebx,%ecx,8), %xmm2, %xmm3
452 vcmpltpd -4(%ebx,%ecx,8), %xmm2, %xmm3
456 vcmpneqpd -4(%ebx,%ecx,8), %xmm2, %xmm3
460 vcmpnlepd -4(%ebx,%ecx,8), %xmm2, %xmm3
464 vcmpnltpd -4(%ebx,%ecx,8), %xmm2, %xmm3
468 vcmpordpd -4(%ebx,%ecx,8), %xmm6, %xmm2
472 vcmpunordpd -4(%ebx,%ecx,8), %xmm2, %xmm3
476 vmovmskps %xmm2, %eax
480 vmovmskpd %xmm2, %eax
492 vcmpeqss %xmm1, %xmm2, %xmm3
496 vcmpless %xmm1, %xmm2, %xmm3
500 vcmpltss %xmm1, %xmm2, %xmm3
504 vcmpneqss %xmm1, %xmm2, %xmm3
508 vcmpnless %xmm1, %xmm2, %xmm3
512 vcmpnltss %xmm1, %xmm2, %xmm3
516 vcmpordss %xmm1, %xmm2, %xmm3
520 vcmpunordss %xmm1, %xmm2, %xmm3
524 vcmpeqss -4(%ebx,%ecx,8), %xmm2, %xmm3
528 vcmpless -4(%ebx,%ecx,8), %xmm2, %xmm3
532 vcmpltss -4(%ebx,%ecx,8), %xmm2, %xmm3
536 vcmpneqss -4(%ebx,%ecx,8), %xmm2, %xmm3
540 vcmpnless -4(%ebx,%ecx,8), %xmm2, %xmm3
544 vcmpnltss -4(%ebx,%ecx,8), %xmm2, %xmm3
548 vcmpordss -4(%ebx,%ecx,8), %xmm6, %xmm2
552 vcmpunordss -4(%ebx,%ecx,8), %xmm2, %xmm3
556 vcmpeqsd %xmm1, %xmm2, %xmm3
560 vcmplesd %xmm1, %xmm2, %xmm3
564 vcmpltsd %xmm1, %xmm2, %xmm3
568 vcmpneqsd %xmm1, %xmm2, %xmm3
572 vcmpnlesd %xmm1, %xmm2, %xmm3
576 vcmpnltsd %xmm1, %xmm2, %xmm3
580 vcmpordsd %xmm1, %xmm2, %xmm3
584 vcmpunordsd %xmm1, %xmm2, %xmm3
588 vcmpeqsd -4(%ebx,%ecx,8), %xmm2, %xmm3
592 vcmplesd -4(%ebx,%ecx,8), %xmm2, %xmm3
596 vcmpltsd -4(%ebx,%ecx,8), %xmm2, %xmm3
600 vcmpneqsd -4(%ebx,%ecx,8), %xmm2, %xmm3
604 vcmpnlesd -4(%ebx,%ecx,8), %xmm2, %xmm3
608 vcmpnltsd -4(%ebx,%ecx,8), %xmm2, %xmm3
612 vcmpordsd -4(%ebx,%ecx,8), %xmm6, %xmm2
616 vcmpunordsd -4(%ebx,%ecx,8), %xmm2, %xmm3
620 vucomiss %xmm1, %xmm2
624 vucomiss (%eax), %xmm2
628 vcomiss %xmm1, %xmm2
632 vcomiss (%eax), %xmm2
636 vucomisd %xmm1, %xmm2
640 vucomisd (%eax), %xmm2
644 vcomisd %xmm1, %xmm2
648 vcomisd (%eax), %xmm2
660 vcvtsi2ss (%eax), %xmm1, %xmm2
664 vcvtsi2ss (%eax), %xmm1, %xmm2
668 vcvtsi2ssl (%eax), %xmm1, %xmm2
672 vcvtsi2ssl (%eax), %xmm1, %xmm2
684 vcvtsi2sd (%eax), %xmm1, %xmm2
688 vcvtsi2sd (%eax), %xmm1, %xmm2
692 vcvtsi2sdl (%eax), %xmm1, %xmm2
696 vcvtsi2sdl (%eax), %xmm1, %xmm2
700 vmovaps (%eax), %xmm2
704 vmovaps %xmm1, %xmm2
712 vmovapd (%eax), %xmm2
716 vmovapd %xmm1, %xmm2
724 vmovups (%eax), %xmm2
728 vmovups %xmm1, %xmm2
736 vmovupd (%eax), %xmm2
740 vmovupd %xmm1, %xmm2
752 vmovlps (%eax), %xmm2, %xmm3
760 vmovlpd (%eax), %xmm2, %xmm3
768 vmovhps (%eax), %xmm2, %xmm3
776 vmovhpd (%eax), %xmm2, %xmm3
780 vmovlhps %xmm1, %xmm2, %xmm3
784 vmovhlps %xmm1, %xmm2, %xmm3
812 vcvtsd2ss %xmm2, %xmm4, %xmm6
820 vcvtps2dq %xmm2, %xmm3
828 vcvtss2sd %xmm2, %xmm4, %xmm6
844 vcvttps2dq %xmm2, %xmm3
852 vcvtps2pd %xmm2, %xmm3
860 vcvtpd2ps %xmm2, %xmm3
864 vsqrtpd %xmm1, %xmm2
868 vsqrtpd (%eax), %xmm2
872 vsqrtps %xmm1, %xmm2
876 vsqrtps (%eax), %xmm2
880 vsqrtsd %xmm1, %xmm2, %xmm3
884 vsqrtsd (%eax), %xmm2, %xmm3
888 vsqrtss %xmm1, %xmm2, %xmm3
892 vsqrtss (%eax), %xmm2, %xmm3
896 vrsqrtps %xmm1, %xmm2
900 vrsqrtps (%eax), %xmm2
904 vrsqrtss %xmm1, %xmm2, %xmm3
908 vrsqrtss (%eax), %xmm2, %xmm3
912 vrcpps %xmm1, %xmm2
916 vrcpps (%eax), %xmm2
920 vrcpss %xmm1, %xmm2, %xmm3
924 vrcpss (%eax), %xmm2, %xmm3
956 vpsubb %xmm1, %xmm2, %xmm3
960 vpsubb (%eax), %xmm2, %xmm3
964 vpsubw %xmm1, %xmm2, %xmm3
968 vpsubw (%eax), %xmm2, %xmm3
972 vpsubd %xmm1, %xmm2, %xmm3
976 vpsubd (%eax), %xmm2, %xmm3
980 vpsubq %xmm1, %xmm2, %xmm3
984 vpsubq (%eax), %xmm2, %xmm3
988 vpsubsb %xmm1, %xmm2, %xmm3
992 vpsubsb (%eax), %xmm2, %xmm3
996 vpsubsw %xmm1, %xmm2, %xmm3
1000 vpsubsw (%eax), %xmm2, %xmm3
1004 vpsubusb %xmm1, %xmm2, %xmm3
1008 vpsubusb (%eax), %xmm2, %xmm3
1012 vpsubusw %xmm1, %xmm2, %xmm3
1016 vpsubusw (%eax), %xmm2, %xmm3
1020 vpaddb %xmm1, %xmm2, %xmm3
1024 vpaddb (%eax), %xmm2, %xmm3
1028 vpaddw %xmm1, %xmm2, %xmm3
1032 vpaddw (%eax), %xmm2, %xmm3
1036 vpaddd %xmm1, %xmm2, %xmm3
1040 vpaddd (%eax), %xmm2, %xmm3
1044 vpaddq %xmm1, %xmm2, %xmm3
1048 vpaddq (%eax), %xmm2, %xmm3
1052 vpaddsb %xmm1, %xmm2, %xmm3
1056 vpaddsb (%eax), %xmm2, %xmm3
1060 vpaddsw %xmm1, %xmm2, %xmm3
1064 vpaddsw (%eax), %xmm2, %xmm3
1068 vpaddusb %xmm1, %xmm2, %xmm3
1072 vpaddusb (%eax), %xmm2, %xmm3
1076 vpaddusw %xmm1, %xmm2, %xmm3
1080 vpaddusw (%eax), %xmm2, %xmm3
1084 vpmulhuw %xmm1, %xmm2, %xmm3
1088 vpmulhuw (%eax), %xmm2, %xmm3
1092 vpmulhw %xmm1, %xmm2, %xmm3
1096 vpmulhw (%eax), %xmm2, %xmm3
1100 vpmullw %xmm1, %xmm2, %xmm3
1104 vpmullw (%eax), %xmm2, %xmm3
1108 vpmuludq %xmm1, %xmm2, %xmm3
1112 vpmuludq (%eax), %xmm2, %xmm3
1116 vpavgb %xmm1, %xmm2, %xmm3
1120 vpavgb (%eax), %xmm2, %xmm3
1124 vpavgw %xmm1, %xmm2, %xmm3
1128 vpavgw (%eax), %xmm2, %xmm3
1132 vpminsw %xmm1, %xmm2, %xmm3
1136 vpminsw (%eax), %xmm2, %xmm3
1140 vpminub %xmm1, %xmm2, %xmm3
1144 vpminub (%eax), %xmm2, %xmm3
1148 vpmaxsw %xmm1, %xmm2, %xmm3
1152 vpmaxsw (%eax), %xmm2, %xmm3
1156 vpmaxub %xmm1, %xmm2, %xmm3
1160 vpmaxub (%eax), %xmm2, %xmm3
1164 vpsadbw %xmm1, %xmm2, %xmm3
1168 vpsadbw (%eax), %xmm2, %xmm3
1172 vpsllw %xmm1, %xmm2, %xmm3
1176 vpsllw (%eax), %xmm2, %xmm3
1180 vpslld %xmm1, %xmm2, %xmm3
1184 vpslld (%eax), %xmm2, %xmm3
1188 vpsllq %xmm1, %xmm2, %xmm3
1192 vpsllq (%eax), %xmm2, %xmm3
1196 vpsraw %xmm1, %xmm2, %xmm3
1200 vpsraw (%eax), %xmm2, %xmm3
1204 vpsrad %xmm1, %xmm2, %xmm3
1208 vpsrad (%eax), %xmm2, %xmm3
1212 vpsrlw %xmm1, %xmm2, %xmm3
1216 vpsrlw (%eax), %xmm2, %xmm3
1220 vpsrld %xmm1, %xmm2, %xmm3
1224 vpsrld (%eax), %xmm2, %xmm3
1228 vpsrlq %xmm1, %xmm2, %xmm3
1232 vpsrlq (%eax), %xmm2, %xmm3
1236 vpslld $10, %xmm2, %xmm3
1240 vpslldq $10, %xmm2, %xmm3
1244 vpsllq $10, %xmm2, %xmm3
1248 vpsllw $10, %xmm2, %xmm3
1252 vpsrad $10, %xmm2, %xmm3
1256 vpsraw $10, %xmm2, %xmm3
1260 vpsrld $10, %xmm2, %xmm3
1264 vpsrldq $10, %xmm2, %xmm3
1268 vpsrlq $10, %xmm2, %xmm3
1272 vpsrlw $10, %xmm2, %xmm3
1276 vpslld $10, %xmm2, %xmm3
1280 vpand %xmm1, %xmm2, %xmm3
1284 vpand (%eax), %xmm2, %xmm3
1288 vpor %xmm1, %xmm2, %xmm3
1292 vpor (%eax), %xmm2, %xmm3
1296 vpxor %xmm1, %xmm2, %xmm3
1300 vpxor (%eax), %xmm2, %xmm3
1304 vpandn %xmm1, %xmm2, %xmm3
1308 vpandn (%eax), %xmm2, %xmm3
1312 vpcmpeqb %xmm1, %xmm2, %xmm3
1316 vpcmpeqb (%eax), %xmm2, %xmm3
1320 vpcmpeqw %xmm1, %xmm2, %xmm3
1324 vpcmpeqw (%eax), %xmm2, %xmm3
1328 vpcmpeqd %xmm1, %xmm2, %xmm3
1332 vpcmpeqd (%eax), %xmm2, %xmm3
1336 vpcmpgtb %xmm1, %xmm2, %xmm3
1340 vpcmpgtb (%eax), %xmm2, %xmm3
1344 vpcmpgtw %xmm1, %xmm2, %xmm3
1348 vpcmpgtw (%eax), %xmm2, %xmm3
1352 vpcmpgtd %xmm1, %xmm2, %xmm3
1356 vpcmpgtd (%eax), %xmm2, %xmm3
1360 vpacksswb %xmm1, %xmm2, %xmm3
1364 vpacksswb (%eax), %xmm2, %xmm3
1368 vpackssdw %xmm1, %xmm2, %xmm3
1372 vpackssdw (%eax), %xmm2, %xmm3
1376 vpackuswb %xmm1, %xmm2, %xmm3
1380 vpackuswb (%eax), %xmm2, %xmm3
1384 vpshufd $4, %xmm2, %xmm3
1392 vpshufhw $4, %xmm2, %xmm3
1400 vpshuflw $4, %xmm2, %xmm3
1408 vpunpcklbw %xmm1, %xmm2, %xmm3
1412 vpunpcklbw (%eax), %xmm2, %xmm3
1416 vpunpcklwd %xmm1, %xmm2, %xmm3
1420 vpunpcklwd (%eax), %xmm2, %xmm3
1424 vpunpckldq %xmm1, %xmm2, %xmm3
1428 vpunpckldq (%eax), %xmm2, %xmm3
1432 vpunpcklqdq %xmm1, %xmm2, %xmm3
1436 vpunpcklqdq (%eax), %xmm2, %xmm3
1440 vpunpckhbw %xmm1, %xmm2, %xmm3
1444 vpunpckhbw (%eax), %xmm2, %xmm3
1448 vpunpckhwd %xmm1, %xmm2, %xmm3
1452 vpunpckhwd (%eax), %xmm2, %xmm3
1456 vpunpckhdq %xmm1, %xmm2, %xmm3
1460 vpunpckhdq (%eax), %xmm2, %xmm3
1464 vpunpckhqdq %xmm1, %xmm2, %xmm3
1468 vpunpckhqdq (%eax), %xmm2, %xmm3
1472 vpinsrw $7, %eax, %xmm2, %xmm3
1476 vpinsrw $7, (%eax), %xmm2, %xmm3
1480 vpextrw $7, %xmm2, %eax
1488 vmaskmovdqu %xmm1, %xmm2
1512 vmovq %xmm1, %xmm2
1520 vcvtpd2dq %xmm1, %xmm2
1524 vcvtdq2pd %xmm1, %xmm2
1528 vcvtdq2pd (%eax), %xmm2
1532 vmovshdup %xmm1, %xmm2
1536 vmovshdup (%eax), %xmm2
1540 vmovsldup %xmm1, %xmm2
1544 vmovsldup (%eax), %xmm2
1548 vmovddup %xmm1, %xmm2
1552 vmovddup (%eax), %xmm2
1556 vaddsubps %xmm1, %xmm2, %xmm3
1560 vaddsubps (%eax), %xmm1, %xmm2
1564 vaddsubpd %xmm1, %xmm2, %xmm3
1568 vaddsubpd (%eax), %xmm1, %xmm2
1572 vhaddps %xmm1, %xmm2, %xmm3
1576 vhaddps (%eax), %xmm2, %xmm3
1580 vhaddpd %xmm1, %xmm2, %xmm3
1584 vhaddpd (%eax), %xmm2, %xmm3
1588 vhsubps %xmm1, %xmm2, %xmm3
1592 vhsubps (%eax), %xmm2, %xmm3
1596 vhsubpd %xmm1, %xmm2, %xmm3
1600 vhsubpd (%eax), %xmm2, %xmm3
1604 vpabsb %xmm1, %xmm2
1608 vpabsb (%eax), %xmm2
1612 vpabsw %xmm1, %xmm2
1616 vpabsw (%eax), %xmm2
1620 vpabsd %xmm1, %xmm2
1624 vpabsd (%eax), %xmm2
1628 vphaddw %xmm1, %xmm2, %xmm3
1632 vphaddw (%eax), %xmm2, %xmm3
1636 vphaddd %xmm1, %xmm2, %xmm3
1640 vphaddd (%eax), %xmm2, %xmm3
1644 vphaddsw %xmm1, %xmm2, %xmm3
1648 vphaddsw (%eax), %xmm2, %xmm3
1652 vphsubw %xmm1, %xmm2, %xmm3
1656 vphsubw (%eax), %xmm2, %xmm3
1660 vphsubd %xmm1, %xmm2, %xmm3
1664 vphsubd (%eax), %xmm2, %xmm3
1668 vphsubsw %xmm1, %xmm2, %xmm3
1672 vphsubsw (%eax), %xmm2, %xmm3
1676 vpmaddubsw %xmm1, %xmm2, %xmm3
1680 vpmaddubsw (%eax), %xmm2, %xmm3
1684 vpshufb %xmm1, %xmm2, %xmm3
1688 vpshufb (%eax), %xmm2, %xmm3
1692 vpsignb %xmm1, %xmm2, %xmm3
1696 vpsignb (%eax), %xmm2, %xmm3
1700 vpsignw %xmm1, %xmm2, %xmm3
1704 vpsignw (%eax), %xmm2, %xmm3
1708 vpsignd %xmm1, %xmm2, %xmm3
1712 vpsignd (%eax), %xmm2, %xmm3
1716 vpmulhrsw %xmm1, %xmm2, %xmm3
1720 vpmulhrsw (%eax), %xmm2, %xmm3
1724 vpalignr $7, %xmm1, %xmm2, %xmm3
1728 vpalignr $7, (%eax), %xmm2, %xmm3
1732 vroundsd $7, %xmm1, %xmm2, %xmm3
1736 vroundsd $7, (%eax), %xmm2, %xmm3
1740 vroundss $7, %xmm1, %xmm2, %xmm3
1744 vroundss $7, (%eax), %xmm2, %xmm3
1748 vroundpd $7, %xmm2, %xmm3
1756 vroundps $7, %xmm2, %xmm3
1764 vphminposuw %xmm2, %xmm3
1768 vphminposuw (%eax), %xmm2
1772 vpackusdw %xmm2, %xmm3, %xmm1
1776 vpackusdw (%eax), %xmm2, %xmm3
1780 vpcmpeqq %xmm2, %xmm3, %xmm1
1784 vpcmpeqq (%eax), %xmm2, %xmm3
1788 vpminsb %xmm2, %xmm3, %xmm1
1792 vpminsb (%eax), %xmm2, %xmm3
1796 vpminsd %xmm2, %xmm3, %xmm1
1800 vpminsd (%eax), %xmm2, %xmm3
1804 vpminud %xmm2, %xmm3, %xmm1
1808 vpminud (%eax), %xmm2, %xmm3
1812 vpminuw %xmm2, %xmm3, %xmm1
1816 vpminuw (%eax), %xmm2, %xmm3
1820 vpmaxsb %xmm2, %xmm3, %xmm1
1824 vpmaxsb (%eax), %xmm2, %xmm3
1828 vpmaxsd %xmm2, %xmm3, %xmm1
1832 vpmaxsd (%eax), %xmm2, %xmm3
1836 vpmaxud %xmm2, %xmm3, %xmm1
1840 vpmaxud (%eax), %xmm2, %xmm3
1844 vpmaxuw %xmm2, %xmm3, %xmm1
1848 vpmaxuw (%eax), %xmm2, %xmm3
1852 vpmuldq %xmm2, %xmm3, %xmm1
1856 vpmuldq (%eax), %xmm2, %xmm3
1860 vpmulld %xmm2, %xmm5, %xmm1
1868 vblendps $3, %xmm2, %xmm5, %xmm1
1876 vblendpd $3, %xmm2, %xmm5, %xmm1
1884 vpblendw $3, %xmm2, %xmm5, %xmm1
1892 vmpsadbw $3, %xmm2, %xmm5, %xmm1
1900 vdpps $3, %xmm2, %xmm5, %xmm1
1908 vdppd $3, %xmm2, %xmm5, %xmm1
1916 vblendvpd %xmm2, %xmm5, %xmm1, %xmm3
1920 vblendvpd %xmm2, (%eax), %xmm1, %xmm3
1924 vblendvps %xmm2, %xmm5, %xmm1, %xmm3
1928 vblendvps %xmm2, (%eax), %xmm1, %xmm3
1932 vpblendvb %xmm2, %xmm5, %xmm1, %xmm3
1936 vpblendvb %xmm2, (%eax), %xmm1, %xmm3
1940 vpmovsxbw %xmm2, %xmm5
1944 vpmovsxbw (%eax), %xmm2
1948 vpmovsxwd %xmm2, %xmm5
1952 vpmovsxwd (%eax), %xmm2
1956 vpmovsxdq %xmm2, %xmm5
1960 vpmovsxdq (%eax), %xmm2
1964 vpmovzxbw %xmm2, %xmm5
1968 vpmovzxbw (%eax), %xmm2
1972 vpmovzxwd %xmm2, %xmm5
1976 vpmovzxwd (%eax), %xmm2
1980 vpmovzxdq %xmm2, %xmm5
1984 vpmovzxdq (%eax), %xmm2
1988 vpmovsxbq %xmm2, %xmm5
1992 vpmovsxbq (%eax), %xmm2
1996 vpmovzxbq %xmm2, %xmm5
2000 vpmovzxbq (%eax), %xmm2
2004 vpmovsxbd %xmm2, %xmm5
2008 vpmovsxbd (%eax), %xmm2
2012 vpmovsxwq %xmm2, %xmm5
2016 vpmovsxwq (%eax), %xmm2
2020 vpmovzxbd %xmm2, %xmm5
2024 vpmovzxbd (%eax), %xmm2
2028 vpmovzxwq %xmm2, %xmm5
2032 vpmovzxwq (%eax), %xmm2
2036 vpextrw $7, %xmm2, %eax
2040 vpextrw $7, %xmm2, (%eax)
2044 vpextrd $7, %xmm2, %eax
2048 vpextrd $7, %xmm2, (%eax)
2052 vpextrb $7, %xmm2, %eax
2056 vpextrb $7, %xmm2, (%eax)
2060 vextractps $7, %xmm2, (%eax)
2064 vextractps $7, %xmm2, %eax
2068 vpinsrw $7, %eax, %xmm2, %xmm5
2072 vpinsrw $7, (%eax), %xmm2, %xmm5
2076 vpinsrb $7, %eax, %xmm2, %xmm5
2080 vpinsrb $7, (%eax), %xmm2, %xmm5
2084 vpinsrd $7, %eax, %xmm2, %xmm5
2088 vpinsrd $7, (%eax), %xmm2, %xmm5
2092 vinsertps $7, %xmm2, %xmm5, %xmm1
2100 vptest %xmm2, %xmm5
2104 vptest (%eax), %xmm2
2108 vmovntdqa (%eax), %xmm2
2112 vpcmpgtq %xmm2, %xmm5, %xmm1
2120 vpcmpistrm $7, %xmm2, %xmm5
2128 vpcmpestrm $7, %xmm2, %xmm5
2136 vpcmpistri $7, %xmm2, %xmm5
2144 vpcmpestri $7, %xmm2, %xmm5
2152 vaesimc %xmm2, %xmm5
2156 vaesimc (%eax), %xmm2
2160 vaesenc %xmm2, %xmm5, %xmm1
2168 vaesenclast %xmm2, %xmm5, %xmm1
2176 vaesdec %xmm2, %xmm5, %xmm1
2184 vaesdeclast %xmm2, %xmm5, %xmm1
2192 vaeskeygenassist $7, %xmm2, %xmm5
2200 vcmpeq_uqps %xmm1, %xmm2, %xmm3
2204 vcmpngeps %xmm1, %xmm2, %xmm3
2208 vcmpngtps %xmm1, %xmm2, %xmm3
2212 vcmpfalseps %xmm1, %xmm2, %xmm3
2216 vcmpneq_oqps %xmm1, %xmm2, %xmm3
2220 vcmpgeps %xmm1, %xmm2, %xmm3
2224 vcmpgtps %xmm1, %xmm2, %xmm3
2228 vcmptrueps %xmm1, %xmm2, %xmm3
2232 vcmpeq_osps %xmm1, %xmm2, %xmm3
2236 vcmplt_oqps %xmm1, %xmm2, %xmm3
2240 vcmple_oqps %xmm1, %xmm2, %xmm3
2244 vcmpunord_sps %xmm1, %xmm2, %xmm3
2248 vcmpneq_usps %xmm1, %xmm2, %xmm3
2252 vcmpnlt_uqps %xmm1, %xmm2, %xmm3
2256 vcmpnle_uqps %xmm1, %xmm2, %xmm3
2260 vcmpord_sps %xmm1, %xmm2, %xmm3
2264 vcmpeq_usps %xmm1, %xmm2, %xmm3
2268 vcmpnge_uqps %xmm1, %xmm2, %xmm3
2272 vcmpngt_uqps %xmm1, %xmm2, %xmm3
2276 vcmpfalse_osps %xmm1, %xmm2, %xmm3
2280 vcmpneq_osps %xmm1, %xmm2, %xmm3
2284 vcmpge_oqps %xmm1, %xmm2, %xmm3
2288 vcmpgt_oqps %xmm1, %xmm2, %xmm3
2292 vcmptrue_usps %xmm1, %xmm2, %xmm3
2388 vmovmskps %xmm2, %eax
2392 vmovmskpd %xmm2, %eax
2996 vbroadcastss (%eax), %xmm2
3004 vinsertf128 $7, %xmm2, %ymm2, %ymm5
3012 vextractf128 $7, %ymm2, %xmm2
3020 vmaskmovpd %xmm2, %xmm5, (%eax)
3028 vmaskmovpd (%eax), %xmm2, %xmm5
3036 vmaskmovps %xmm2, %xmm5, (%eax)
3044 vmaskmovps (%eax), %xmm2, %xmm5
3256 vtestpd %xmm2, %xmm5
3264 vtestpd (%eax), %xmm2
3272 vtestps %xmm2, %xmm5
3280 vtestps (%eax), %xmm2
3294 vpclmulhqhqdq %xmm2, %xmm5, %xmm1
3302 vpclmulhqlqdq %xmm2, %xmm5, %xmm1
3310 vpclmullqhqdq %xmm2, %xmm5, %xmm1
3318 vpclmullqlqdq %xmm2, %xmm5, %xmm1
3326 vpclmulqdq $17, %xmm2, %xmm5, %xmm1
3343 vpblendw $0x81, %xmm2, %xmm5, %xmm1
3345 vmpsadbw $0x81, %xmm2, %xmm5, %xmm1
3351 vdppd $0x81, %xmm2, %xmm5, %xmm1
3353 vinsertps $0x81, %xmm3, %xmm2, %xmm1
3357 vcmpps $-128, %xmm2, %xmm1, %xmm0
3361 vcmpps $128, %xmm2, %xmm1, %xmm0
3365 vcmpps $255, %xmm2, %xmm1, %xmm0