• Home
  • Raw
  • Download

Lines Matching refs:edx

5 vfrczpd -485498096(%edx,%eax,4), %xmm1
9 vfrczpd 485498096(%edx,%eax,4), %xmm1
13 vfrczpd -485498096(%edx,%eax,4), %ymm4
17 vfrczpd 485498096(%edx,%eax,4), %ymm4
21 vfrczpd 485498096(%edx), %xmm1
25 vfrczpd 485498096(%edx), %ymm4
37 vfrczpd 64(%edx,%eax), %xmm1
41 vfrczpd 64(%edx,%eax), %ymm4
45 vfrczpd (%edx), %xmm1
49 vfrczpd (%edx), %ymm4
61 vfrczps -485498096(%edx,%eax,4), %xmm1
65 vfrczps 485498096(%edx,%eax,4), %xmm1
69 vfrczps -485498096(%edx,%eax,4), %ymm4
73 vfrczps 485498096(%edx,%eax,4), %ymm4
77 vfrczps 485498096(%edx), %xmm1
81 vfrczps 485498096(%edx), %ymm4
93 vfrczps 64(%edx,%eax), %xmm1
97 vfrczps 64(%edx,%eax), %ymm4
101 vfrczps (%edx), %xmm1
105 vfrczps (%edx), %ymm4
117 vfrczsd -485498096(%edx,%eax,4), %xmm1
121 vfrczsd 485498096(%edx,%eax,4), %xmm1
125 vfrczsd 485498096(%edx), %xmm1
133 vfrczsd 64(%edx,%eax), %xmm1
137 vfrczsd (%edx), %xmm1
145 vfrczss -485498096(%edx,%eax,4), %xmm1
149 vfrczss 485498096(%edx,%eax,4), %xmm1
153 vfrczss 485498096(%edx), %xmm1
161 vfrczss 64(%edx,%eax), %xmm1
165 vfrczss (%edx), %xmm1
173 vpcmov -485498096(%edx,%eax,4), %xmm1, %xmm1, %xmm1
177 vpcmov 485498096(%edx,%eax,4), %xmm1, %xmm1, %xmm1
181 vpcmov -485498096(%edx,%eax,4), %ymm4, %ymm4, %ymm4
185 vpcmov 485498096(%edx,%eax,4), %ymm4, %ymm4, %ymm4
189 vpcmov 485498096(%edx), %xmm1, %xmm1, %xmm1
193 vpcmov 485498096(%edx), %ymm4, %ymm4, %ymm4
205 vpcmov 64(%edx,%eax), %xmm1, %xmm1, %xmm1
209 vpcmov 64(%edx,%eax), %ymm4, %ymm4, %ymm4
213 vpcmov (%edx), %xmm1, %xmm1, %xmm1
217 vpcmov (%edx), %ymm4, %ymm4, %ymm4
221 vpcmov %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
225 vpcmov %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
229 vpcmov %xmm1, 485498096(%edx), %xmm1, %xmm1
237 vpcmov %xmm1, 64(%edx,%eax), %xmm1, %xmm1
241 vpcmov %xmm1, (%edx), %xmm1, %xmm1
249 vpcmov %ymm4, -485498096(%edx,%eax,4), %ymm4, %ymm4
253 vpcmov %ymm4, 485498096(%edx,%eax,4), %ymm4, %ymm4
257 vpcmov %ymm4, 485498096(%edx), %ymm4, %ymm4
265 vpcmov %ymm4, 64(%edx,%eax), %ymm4, %ymm4
269 vpcmov %ymm4, (%edx), %ymm4, %ymm4
277 vpcomltb -485498096(%edx,%eax,4), %xmm1, %xmm1
281 vpcomltb 485498096(%edx,%eax,4), %xmm1, %xmm1
285 vpcomltb 485498096(%edx), %xmm1, %xmm1
293 vpcomltb 64(%edx,%eax), %xmm1, %xmm1
297 vpcomltb (%edx), %xmm1, %xmm1
305 vpcomltd -485498096(%edx,%eax,4), %xmm1, %xmm1
309 vpcomltd 485498096(%edx,%eax,4), %xmm1, %xmm1
313 vpcomltd 485498096(%edx), %xmm1, %xmm1
321 vpcomltd 64(%edx,%eax), %xmm1, %xmm1
325 vpcomltd (%edx), %xmm1, %xmm1
333 vpcomltq -485498096(%edx,%eax,4), %xmm1, %xmm1
337 vpcomltq 485498096(%edx,%eax,4), %xmm1, %xmm1
341 vpcomltq 485498096(%edx), %xmm1, %xmm1
349 vpcomltq 64(%edx,%eax), %xmm1, %xmm1
353 vpcomltq (%edx), %xmm1, %xmm1
361 vpcomltub -485498096(%edx,%eax,4), %xmm1, %xmm1
365 vpcomltub 485498096(%edx,%eax,4), %xmm1, %xmm1
369 vpcomltub 485498096(%edx), %xmm1, %xmm1
377 vpcomltub 64(%edx,%eax), %xmm1, %xmm1
381 vpcomltub (%edx), %xmm1, %xmm1
389 vpcomltud -485498096(%edx,%eax,4), %xmm1, %xmm1
393 vpcomltud 485498096(%edx,%eax,4), %xmm1, %xmm1
397 vpcomltud 485498096(%edx), %xmm1, %xmm1
405 vpcomltud 64(%edx,%eax), %xmm1, %xmm1
409 vpcomltud (%edx), %xmm1, %xmm1
417 vpcomltuq -485498096(%edx,%eax,4), %xmm1, %xmm1
421 vpcomltuq 485498096(%edx,%eax,4), %xmm1, %xmm1
425 vpcomltuq 485498096(%edx), %xmm1, %xmm1
433 vpcomltuq 64(%edx,%eax), %xmm1, %xmm1
437 vpcomltuq (%edx), %xmm1, %xmm1
445 vpcomltuw -485498096(%edx,%eax,4), %xmm1, %xmm1
449 vpcomltuw 485498096(%edx,%eax,4), %xmm1, %xmm1
453 vpcomltuw 485498096(%edx), %xmm1, %xmm1
461 vpcomltuw 64(%edx,%eax), %xmm1, %xmm1
465 vpcomltuw (%edx), %xmm1, %xmm1
473 vpcomltw -485498096(%edx,%eax,4), %xmm1, %xmm1
477 vpcomltw 485498096(%edx,%eax,4), %xmm1, %xmm1
481 vpcomltw 485498096(%edx), %xmm1, %xmm1
489 vpcomltw 64(%edx,%eax), %xmm1, %xmm1
493 vpcomltw (%edx), %xmm1, %xmm1
501 vpermil2pd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1, %xmm1
505 vpermil2pd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1, %xmm1
509 vpermil2pd $0, -485498096(%edx,%eax,4), %ymm4, %ymm4, %ymm4
513 vpermil2pd $0, 485498096(%edx,%eax,4), %ymm4, %ymm4, %ymm4
517 vpermil2pd $0, 485498096(%edx), %xmm1, %xmm1, %xmm1
521 vpermil2pd $0, 485498096(%edx), %ymm4, %ymm4, %ymm4
533 vpermil2pd $0, 64(%edx,%eax), %xmm1, %xmm1, %xmm1
537 vpermil2pd $0, 64(%edx,%eax), %ymm4, %ymm4, %ymm4
541 vpermil2pd $0, (%edx), %xmm1, %xmm1, %xmm1
545 vpermil2pd $0, (%edx), %ymm4, %ymm4, %ymm4
549 vpermil2pd $0, %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
553 vpermil2pd $0, %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
557 vpermil2pd $0, %xmm1, 485498096(%edx), %xmm1, %xmm1
565 vpermil2pd $0, %xmm1, 64(%edx,%eax), %xmm1, %xmm1
569 vpermil2pd $0, %xmm1, (%edx), %xmm1, %xmm1
577 vpermil2pd $0, %ymm4, -485498096(%edx,%eax,4), %ymm4, %ymm4
581 vpermil2pd $0, %ymm4, 485498096(%edx,%eax,4), %ymm4, %ymm4
585 vpermil2pd $0, %ymm4, 485498096(%edx), %ymm4, %ymm4
593 vpermil2pd $0, %ymm4, 64(%edx,%eax), %ymm4, %ymm4
597 vpermil2pd $0, %ymm4, (%edx), %ymm4, %ymm4
605 vpermil2ps $0, -485498096(%edx,%eax,4), %xmm1, %xmm1, %xmm1
609 vpermil2ps $0, 485498096(%edx,%eax,4), %xmm1, %xmm1, %xmm1
613 vpermil2ps $0, -485498096(%edx,%eax,4), %ymm4, %ymm4, %ymm4
617 vpermil2ps $0, 485498096(%edx,%eax,4), %ymm4, %ymm4, %ymm4
621 vpermil2ps $0, 485498096(%edx), %xmm1, %xmm1, %xmm1
625 vpermil2ps $0, 485498096(%edx), %ymm4, %ymm4, %ymm4
637 vpermil2ps $0, 64(%edx,%eax), %xmm1, %xmm1, %xmm1
641 vpermil2ps $0, 64(%edx,%eax), %ymm4, %ymm4, %ymm4
645 vpermil2ps $0, (%edx), %xmm1, %xmm1, %xmm1
649 vpermil2ps $0, (%edx), %ymm4, %ymm4, %ymm4
653 vpermil2ps $0, %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
657 vpermil2ps $0, %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
661 vpermil2ps $0, %xmm1, 485498096(%edx), %xmm1, %xmm1
669 vpermil2ps $0, %xmm1, 64(%edx,%eax), %xmm1, %xmm1
673 vpermil2ps $0, %xmm1, (%edx), %xmm1, %xmm1
681 vpermil2ps $0, %ymm4, -485498096(%edx,%eax,4), %ymm4, %ymm4
685 vpermil2ps $0, %ymm4, 485498096(%edx,%eax,4), %ymm4, %ymm4
689 vpermil2ps $0, %ymm4, 485498096(%edx), %ymm4, %ymm4
697 vpermil2ps $0, %ymm4, 64(%edx,%eax), %ymm4, %ymm4
701 vpermil2ps $0, %ymm4, (%edx), %ymm4, %ymm4
709 vphaddbd -485498096(%edx,%eax,4), %xmm1
713 vphaddbd 485498096(%edx,%eax,4), %xmm1
717 vphaddbd 485498096(%edx), %xmm1
725 vphaddbd 64(%edx,%eax), %xmm1
729 vphaddbd (%edx), %xmm1
737 vphaddbq -485498096(%edx,%eax,4), %xmm1
741 vphaddbq 485498096(%edx,%eax,4), %xmm1
745 vphaddbq 485498096(%edx), %xmm1
753 vphaddbq 64(%edx,%eax), %xmm1
757 vphaddbq (%edx), %xmm1
765 vphaddbw -485498096(%edx,%eax,4), %xmm1
769 vphaddbw 485498096(%edx,%eax,4), %xmm1
773 vphaddbw 485498096(%edx), %xmm1
781 vphaddbw 64(%edx,%eax), %xmm1
785 vphaddbw (%edx), %xmm1
793 vphadddq -485498096(%edx,%eax,4), %xmm1
797 vphadddq 485498096(%edx,%eax,4), %xmm1
801 vphadddq 485498096(%edx), %xmm1
809 vphadddq 64(%edx,%eax), %xmm1
813 vphadddq (%edx), %xmm1
821 vphaddubd -485498096(%edx,%eax,4), %xmm1
825 vphaddubd 485498096(%edx,%eax,4), %xmm1
829 vphaddubd 485498096(%edx), %xmm1
837 vphaddubd 64(%edx,%eax), %xmm1
841 vphaddubd (%edx), %xmm1
849 vphaddubq -485498096(%edx,%eax,4), %xmm1
853 vphaddubq 485498096(%edx,%eax,4), %xmm1
857 vphaddubq 485498096(%edx), %xmm1
865 vphaddubq 64(%edx,%eax), %xmm1
869 vphaddubq (%edx), %xmm1
877 vphaddubw -485498096(%edx,%eax,4), %xmm1
881 vphaddubw 485498096(%edx,%eax,4), %xmm1
885 vphaddubw 485498096(%edx), %xmm1
893 vphaddubw 64(%edx,%eax), %xmm1
897 vphaddubw (%edx), %xmm1
905 vphaddudq -485498096(%edx,%eax,4), %xmm1
909 vphaddudq 485498096(%edx,%eax,4), %xmm1
913 vphaddudq 485498096(%edx), %xmm1
921 vphaddudq 64(%edx,%eax), %xmm1
925 vphaddudq (%edx), %xmm1
933 vphadduwd -485498096(%edx,%eax,4), %xmm1
937 vphadduwd 485498096(%edx,%eax,4), %xmm1
941 vphadduwd 485498096(%edx), %xmm1
949 vphadduwd 64(%edx,%eax), %xmm1
953 vphadduwd (%edx), %xmm1
961 vphadduwq -485498096(%edx,%eax,4), %xmm1
965 vphadduwq 485498096(%edx,%eax,4), %xmm1
969 vphadduwq 485498096(%edx), %xmm1
977 vphadduwq 64(%edx,%eax), %xmm1
981 vphadduwq (%edx), %xmm1
989 vphaddwd -485498096(%edx,%eax,4), %xmm1
993 vphaddwd 485498096(%edx,%eax,4), %xmm1
997 vphaddwd 485498096(%edx), %xmm1
1005 vphaddwd 64(%edx,%eax), %xmm1
1009 vphaddwd (%edx), %xmm1
1017 vphaddwq -485498096(%edx,%eax,4), %xmm1
1021 vphaddwq 485498096(%edx,%eax,4), %xmm1
1025 vphaddwq 485498096(%edx), %xmm1
1033 vphaddwq 64(%edx,%eax), %xmm1
1037 vphaddwq (%edx), %xmm1
1045 vphsubbw -485498096(%edx,%eax,4), %xmm1
1049 vphsubbw 485498096(%edx,%eax,4), %xmm1
1053 vphsubbw 485498096(%edx), %xmm1
1061 vphsubbw 64(%edx,%eax), %xmm1
1065 vphsubbw (%edx), %xmm1
1073 vphsubdq -485498096(%edx,%eax,4), %xmm1
1077 vphsubdq 485498096(%edx,%eax,4), %xmm1
1081 vphsubdq 485498096(%edx), %xmm1
1089 vphsubdq 64(%edx,%eax), %xmm1
1093 vphsubdq (%edx), %xmm1
1101 vphsubwd -485498096(%edx,%eax,4), %xmm1
1105 vphsubwd 485498096(%edx,%eax,4), %xmm1
1109 vphsubwd 485498096(%edx), %xmm1
1117 vphsubwd 64(%edx,%eax), %xmm1
1121 vphsubwd (%edx), %xmm1
1129 vpmacsdd %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1133 vpmacsdd %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1137 vpmacsdd %xmm1, 485498096(%edx), %xmm1, %xmm1
1145 vpmacsdd %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1149 vpmacsdd %xmm1, (%edx), %xmm1, %xmm1
1157 vpmacsdqh %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1161 vpmacsdqh %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1165 vpmacsdqh %xmm1, 485498096(%edx), %xmm1, %xmm1
1173 vpmacsdqh %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1177 vpmacsdqh %xmm1, (%edx), %xmm1, %xmm1
1185 vpmacsdql %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1189 vpmacsdql %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1193 vpmacsdql %xmm1, 485498096(%edx), %xmm1, %xmm1
1201 vpmacsdql %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1205 vpmacsdql %xmm1, (%edx), %xmm1, %xmm1
1213 vpmacssdd %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1217 vpmacssdd %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1221 vpmacssdd %xmm1, 485498096(%edx), %xmm1, %xmm1
1229 vpmacssdd %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1233 vpmacssdd %xmm1, (%edx), %xmm1, %xmm1
1241 vpmacssdqh %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1245 vpmacssdqh %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1249 vpmacssdqh %xmm1, 485498096(%edx), %xmm1, %xmm1
1257 vpmacssdqh %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1261 vpmacssdqh %xmm1, (%edx), %xmm1, %xmm1
1269 vpmacssdql %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1273 vpmacssdql %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1277 vpmacssdql %xmm1, 485498096(%edx), %xmm1, %xmm1
1285 vpmacssdql %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1289 vpmacssdql %xmm1, (%edx), %xmm1, %xmm1
1297 vpmacsswd %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1301 vpmacsswd %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1305 vpmacsswd %xmm1, 485498096(%edx), %xmm1, %xmm1
1313 vpmacsswd %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1317 vpmacsswd %xmm1, (%edx), %xmm1, %xmm1
1325 vpmacssww %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1329 vpmacssww %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1333 vpmacssww %xmm1, 485498096(%edx), %xmm1, %xmm1
1341 vpmacssww %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1345 vpmacssww %xmm1, (%edx), %xmm1, %xmm1
1353 vpmacswd %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1357 vpmacswd %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1361 vpmacswd %xmm1, 485498096(%edx), %xmm1, %xmm1
1369 vpmacswd %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1373 vpmacswd %xmm1, (%edx), %xmm1, %xmm1
1381 vpmacsww %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1385 vpmacsww %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1389 vpmacsww %xmm1, 485498096(%edx), %xmm1, %xmm1
1397 vpmacsww %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1401 vpmacsww %xmm1, (%edx), %xmm1, %xmm1
1409 vpmadcsswd %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1413 vpmadcsswd %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1417 vpmadcsswd %xmm1, 485498096(%edx), %xmm1, %xmm1
1425 vpmadcsswd %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1429 vpmadcsswd %xmm1, (%edx), %xmm1, %xmm1
1437 vpmadcswd %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1441 vpmadcswd %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1445 vpmadcswd %xmm1, 485498096(%edx), %xmm1, %xmm1
1453 vpmadcswd %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1457 vpmadcswd %xmm1, (%edx), %xmm1, %xmm1
1465 vpperm -485498096(%edx,%eax,4), %xmm1, %xmm1, %xmm1
1469 vpperm 485498096(%edx,%eax,4), %xmm1, %xmm1, %xmm1
1473 vpperm 485498096(%edx), %xmm1, %xmm1, %xmm1
1481 vpperm 64(%edx,%eax), %xmm1, %xmm1, %xmm1
1485 vpperm (%edx), %xmm1, %xmm1, %xmm1
1489 vpperm %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
1493 vpperm %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
1497 vpperm %xmm1, 485498096(%edx), %xmm1, %xmm1
1505 vpperm %xmm1, 64(%edx,%eax), %xmm1, %xmm1
1509 vpperm %xmm1, (%edx), %xmm1, %xmm1
1517 vprotb $0, -485498096(%edx,%eax,4), %xmm1
1521 vprotb $0, 485498096(%edx,%eax,4), %xmm1
1525 vprotb $0, 485498096(%edx), %xmm1
1533 vprotb $0, 64(%edx,%eax), %xmm1
1537 vprotb $0, (%edx), %xmm1
1545 vprotb -485498096(%edx,%eax,4), %xmm1, %xmm1
1549 vprotb 485498096(%edx,%eax,4), %xmm1, %xmm1
1553 vprotb 485498096(%edx), %xmm1, %xmm1
1561 vprotb 64(%edx,%eax), %xmm1, %xmm1
1565 vprotb (%edx), %xmm1, %xmm1
1569 vprotb %xmm1, -485498096(%edx,%eax,4), %xmm1
1573 vprotb %xmm1, 485498096(%edx,%eax,4), %xmm1
1577 vprotb %xmm1, 485498096(%edx), %xmm1
1585 vprotb %xmm1, 64(%edx,%eax), %xmm1
1589 vprotb %xmm1, (%edx), %xmm1
1597 vprotd $0, -485498096(%edx,%eax,4), %xmm1
1601 vprotd $0, 485498096(%edx,%eax,4), %xmm1
1605 vprotd $0, 485498096(%edx), %xmm1
1613 vprotd $0, 64(%edx,%eax), %xmm1
1617 vprotd $0, (%edx), %xmm1
1625 vprotd -485498096(%edx,%eax,4), %xmm1, %xmm1
1629 vprotd 485498096(%edx,%eax,4), %xmm1, %xmm1
1633 vprotd 485498096(%edx), %xmm1, %xmm1
1641 vprotd 64(%edx,%eax), %xmm1, %xmm1
1645 vprotd (%edx), %xmm1, %xmm1
1649 vprotd %xmm1, -485498096(%edx,%eax,4), %xmm1
1653 vprotd %xmm1, 485498096(%edx,%eax,4), %xmm1
1657 vprotd %xmm1, 485498096(%edx), %xmm1
1665 vprotd %xmm1, 64(%edx,%eax), %xmm1
1669 vprotd %xmm1, (%edx), %xmm1
1677 vprotq $0, -485498096(%edx,%eax,4), %xmm1
1681 vprotq $0, 485498096(%edx,%eax,4), %xmm1
1685 vprotq $0, 485498096(%edx), %xmm1
1693 vprotq $0, 64(%edx,%eax), %xmm1
1697 vprotq $0, (%edx), %xmm1
1705 vprotq -485498096(%edx,%eax,4), %xmm1, %xmm1
1709 vprotq 485498096(%edx,%eax,4), %xmm1, %xmm1
1713 vprotq 485498096(%edx), %xmm1, %xmm1
1721 vprotq 64(%edx,%eax), %xmm1, %xmm1
1725 vprotq (%edx), %xmm1, %xmm1
1729 vprotq %xmm1, -485498096(%edx,%eax,4), %xmm1
1733 vprotq %xmm1, 485498096(%edx,%eax,4), %xmm1
1737 vprotq %xmm1, 485498096(%edx), %xmm1
1745 vprotq %xmm1, 64(%edx,%eax), %xmm1
1749 vprotq %xmm1, (%edx), %xmm1
1757 vprotw $0, -485498096(%edx,%eax,4), %xmm1
1761 vprotw $0, 485498096(%edx,%eax,4), %xmm1
1765 vprotw $0, 485498096(%edx), %xmm1
1773 vprotw $0, 64(%edx,%eax), %xmm1
1777 vprotw $0, (%edx), %xmm1
1785 vprotw -485498096(%edx,%eax,4), %xmm1, %xmm1
1789 vprotw 485498096(%edx,%eax,4), %xmm1, %xmm1
1793 vprotw 485498096(%edx), %xmm1, %xmm1
1801 vprotw 64(%edx,%eax), %xmm1, %xmm1
1805 vprotw (%edx), %xmm1, %xmm1
1809 vprotw %xmm1, -485498096(%edx,%eax,4), %xmm1
1813 vprotw %xmm1, 485498096(%edx,%eax,4), %xmm1
1817 vprotw %xmm1, 485498096(%edx), %xmm1
1825 vprotw %xmm1, 64(%edx,%eax), %xmm1
1829 vprotw %xmm1, (%edx), %xmm1
1837 vpshab -485498096(%edx,%eax,4), %xmm1, %xmm1
1841 vpshab 485498096(%edx,%eax,4), %xmm1, %xmm1
1845 vpshab 485498096(%edx), %xmm1, %xmm1
1853 vpshab 64(%edx,%eax), %xmm1, %xmm1
1857 vpshab (%edx), %xmm1, %xmm1
1861 vpshab %xmm1, -485498096(%edx,%eax,4), %xmm1
1865 vpshab %xmm1, 485498096(%edx,%eax,4), %xmm1
1869 vpshab %xmm1, 485498096(%edx), %xmm1
1877 vpshab %xmm1, 64(%edx,%eax), %xmm1
1881 vpshab %xmm1, (%edx), %xmm1
1889 vpshad -485498096(%edx,%eax,4), %xmm1, %xmm1
1893 vpshad 485498096(%edx,%eax,4), %xmm1, %xmm1
1897 vpshad 485498096(%edx), %xmm1, %xmm1
1905 vpshad 64(%edx,%eax), %xmm1, %xmm1
1909 vpshad (%edx), %xmm1, %xmm1
1913 vpshad %xmm1, -485498096(%edx,%eax,4), %xmm1
1917 vpshad %xmm1, 485498096(%edx,%eax,4), %xmm1
1921 vpshad %xmm1, 485498096(%edx), %xmm1
1929 vpshad %xmm1, 64(%edx,%eax), %xmm1
1933 vpshad %xmm1, (%edx), %xmm1
1941 vpshaq -485498096(%edx,%eax,4), %xmm1, %xmm1
1945 vpshaq 485498096(%edx,%eax,4), %xmm1, %xmm1
1949 vpshaq 485498096(%edx), %xmm1, %xmm1
1957 vpshaq 64(%edx,%eax), %xmm1, %xmm1
1961 vpshaq (%edx), %xmm1, %xmm1
1965 vpshaq %xmm1, -485498096(%edx,%eax,4), %xmm1
1969 vpshaq %xmm1, 485498096(%edx,%eax,4), %xmm1
1973 vpshaq %xmm1, 485498096(%edx), %xmm1
1981 vpshaq %xmm1, 64(%edx,%eax), %xmm1
1985 vpshaq %xmm1, (%edx), %xmm1
1993 vpshaw -485498096(%edx,%eax,4), %xmm1, %xmm1
1997 vpshaw 485498096(%edx,%eax,4), %xmm1, %xmm1
2001 vpshaw 485498096(%edx), %xmm1, %xmm1
2009 vpshaw 64(%edx,%eax), %xmm1, %xmm1
2013 vpshaw (%edx), %xmm1, %xmm1
2017 vpshaw %xmm1, -485498096(%edx,%eax,4), %xmm1
2021 vpshaw %xmm1, 485498096(%edx,%eax,4), %xmm1
2025 vpshaw %xmm1, 485498096(%edx), %xmm1
2033 vpshaw %xmm1, 64(%edx,%eax), %xmm1
2037 vpshaw %xmm1, (%edx), %xmm1
2045 vpshlb -485498096(%edx,%eax,4), %xmm1, %xmm1
2049 vpshlb 485498096(%edx,%eax,4), %xmm1, %xmm1
2053 vpshlb 485498096(%edx), %xmm1, %xmm1
2061 vpshlb 64(%edx,%eax), %xmm1, %xmm1
2065 vpshlb (%edx), %xmm1, %xmm1
2069 vpshlb %xmm1, -485498096(%edx,%eax,4), %xmm1
2073 vpshlb %xmm1, 485498096(%edx,%eax,4), %xmm1
2077 vpshlb %xmm1, 485498096(%edx), %xmm1
2085 vpshlb %xmm1, 64(%edx,%eax), %xmm1
2089 vpshlb %xmm1, (%edx), %xmm1
2097 vpshld -485498096(%edx,%eax,4), %xmm1, %xmm1
2101 vpshld 485498096(%edx,%eax,4), %xmm1, %xmm1
2105 vpshld 485498096(%edx), %xmm1, %xmm1
2113 vpshld 64(%edx,%eax), %xmm1, %xmm1
2117 vpshld (%edx), %xmm1, %xmm1
2121 vpshld %xmm1, -485498096(%edx,%eax,4), %xmm1
2125 vpshld %xmm1, 485498096(%edx,%eax,4), %xmm1
2129 vpshld %xmm1, 485498096(%edx), %xmm1
2137 vpshld %xmm1, 64(%edx,%eax), %xmm1
2141 vpshld %xmm1, (%edx), %xmm1
2149 vpshlq -485498096(%edx,%eax,4), %xmm1, %xmm1
2153 vpshlq 485498096(%edx,%eax,4), %xmm1, %xmm1
2157 vpshlq 485498096(%edx), %xmm1, %xmm1
2165 vpshlq 64(%edx,%eax), %xmm1, %xmm1
2169 vpshlq (%edx), %xmm1, %xmm1
2173 vpshlq %xmm1, -485498096(%edx,%eax,4), %xmm1
2177 vpshlq %xmm1, 485498096(%edx,%eax,4), %xmm1
2181 vpshlq %xmm1, 485498096(%edx), %xmm1
2189 vpshlq %xmm1, 64(%edx,%eax), %xmm1
2193 vpshlq %xmm1, (%edx), %xmm1
2201 vpshlw -485498096(%edx,%eax,4), %xmm1, %xmm1
2205 vpshlw 485498096(%edx,%eax,4), %xmm1, %xmm1
2209 vpshlw 485498096(%edx), %xmm1, %xmm1
2217 vpshlw 64(%edx,%eax), %xmm1, %xmm1
2221 vpshlw (%edx), %xmm1, %xmm1
2225 vpshlw %xmm1, -485498096(%edx,%eax,4), %xmm1
2229 vpshlw %xmm1, 485498096(%edx,%eax,4), %xmm1
2233 vpshlw %xmm1, 485498096(%edx), %xmm1
2241 vpshlw %xmm1, 64(%edx,%eax), %xmm1
2245 vpshlw %xmm1, (%edx), %xmm1