Lines Matching refs:xmm1
5 vaddpd -485498096(%edx,%eax,4), %xmm1, %xmm1
9 {vex3} vaddpd -485498096(%edx,%eax,4), %xmm1, %xmm1
13 vaddpd 485498096(%edx,%eax,4), %xmm1, %xmm1
25 vaddpd 485498096(%edx), %xmm1, %xmm1
33 vaddpd 485498096, %xmm1, %xmm1
41 vaddpd 64(%edx,%eax), %xmm1, %xmm1
49 vaddpd (%edx), %xmm1, %xmm1
57 vaddpd %xmm1, %xmm1, %xmm1
65 vaddps -485498096(%edx,%eax,4), %xmm1, %xmm1
69 vaddps 485498096(%edx,%eax,4), %xmm1, %xmm1
81 vaddps 485498096(%edx), %xmm1, %xmm1
89 vaddps 485498096, %xmm1, %xmm1
97 vaddps 64(%edx,%eax), %xmm1, %xmm1
105 vaddps (%edx), %xmm1, %xmm1
113 vaddps %xmm1, %xmm1, %xmm1
121 vaddsd -485498096(%edx,%eax,4), %xmm1, %xmm1
125 vaddsd 485498096(%edx,%eax,4), %xmm1, %xmm1
129 vaddsd 485498096(%edx), %xmm1, %xmm1
133 vaddsd 485498096, %xmm1, %xmm1
137 vaddsd 64(%edx,%eax), %xmm1, %xmm1
141 vaddsd (%edx), %xmm1, %xmm1
145 vaddsd %xmm1, %xmm1, %xmm1
149 vaddss -485498096(%edx,%eax,4), %xmm1, %xmm1
153 vaddss 485498096(%edx,%eax,4), %xmm1, %xmm1
157 vaddss 485498096(%edx), %xmm1, %xmm1
161 vaddss 485498096, %xmm1, %xmm1
165 vaddss 64(%edx,%eax), %xmm1, %xmm1
169 vaddss (%edx), %xmm1, %xmm1
173 vaddss %xmm1, %xmm1, %xmm1
177 vaddsubpd -485498096(%edx,%eax,4), %xmm1, %xmm1
181 vaddsubpd 485498096(%edx,%eax,4), %xmm1, %xmm1
193 vaddsubpd 485498096(%edx), %xmm1, %xmm1
201 vaddsubpd 485498096, %xmm1, %xmm1
209 vaddsubpd 64(%edx,%eax), %xmm1, %xmm1
217 vaddsubpd (%edx), %xmm1, %xmm1
225 vaddsubpd %xmm1, %xmm1, %xmm1
233 vaddsubps -485498096(%edx,%eax,4), %xmm1, %xmm1
237 vaddsubps 485498096(%edx,%eax,4), %xmm1, %xmm1
249 vaddsubps 485498096(%edx), %xmm1, %xmm1
257 vaddsubps 485498096, %xmm1, %xmm1
265 vaddsubps 64(%edx,%eax), %xmm1, %xmm1
273 vaddsubps (%edx), %xmm1, %xmm1
281 vaddsubps %xmm1, %xmm1, %xmm1
289 vandnpd -485498096(%edx,%eax,4), %xmm1, %xmm1
293 vandnpd 485498096(%edx,%eax,4), %xmm1, %xmm1
305 vandnpd 485498096(%edx), %xmm1, %xmm1
313 vandnpd 485498096, %xmm1, %xmm1
321 vandnpd 64(%edx,%eax), %xmm1, %xmm1
329 vandnpd (%edx), %xmm1, %xmm1
337 vandnpd %xmm1, %xmm1, %xmm1
345 vandnps -485498096(%edx,%eax,4), %xmm1, %xmm1
349 vandnps 485498096(%edx,%eax,4), %xmm1, %xmm1
361 vandnps 485498096(%edx), %xmm1, %xmm1
369 vandnps 485498096, %xmm1, %xmm1
377 vandnps 64(%edx,%eax), %xmm1, %xmm1
385 vandnps (%edx), %xmm1, %xmm1
393 vandnps %xmm1, %xmm1, %xmm1
401 vandpd -485498096(%edx,%eax,4), %xmm1, %xmm1
405 vandpd 485498096(%edx,%eax,4), %xmm1, %xmm1
417 vandpd 485498096(%edx), %xmm1, %xmm1
425 vandpd 485498096, %xmm1, %xmm1
433 vandpd 64(%edx,%eax), %xmm1, %xmm1
441 vandpd (%edx), %xmm1, %xmm1
449 vandpd %xmm1, %xmm1, %xmm1
457 vandps -485498096(%edx,%eax,4), %xmm1, %xmm1
461 vandps 485498096(%edx,%eax,4), %xmm1, %xmm1
473 vandps 485498096(%edx), %xmm1, %xmm1
481 vandps 485498096, %xmm1, %xmm1
489 vandps 64(%edx,%eax), %xmm1, %xmm1
497 vandps (%edx), %xmm1, %xmm1
505 vandps %xmm1, %xmm1, %xmm1
513 vblendpd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
517 vblendpd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
529 vblendpd $0, 485498096(%edx), %xmm1, %xmm1
537 vblendpd $0, 485498096, %xmm1, %xmm1
545 vblendpd $0, 64(%edx,%eax), %xmm1, %xmm1
553 vblendpd $0, (%edx), %xmm1, %xmm1
561 vblendpd $0, %xmm1, %xmm1, %xmm1
569 vblendps $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
573 vblendps $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
585 vblendps $0, 485498096(%edx), %xmm1, %xmm1
593 vblendps $0, 485498096, %xmm1, %xmm1
601 vblendps $0, 64(%edx,%eax), %xmm1, %xmm1
609 vblendps $0, (%edx), %xmm1, %xmm1
617 vblendps $0, %xmm1, %xmm1, %xmm1
625 vblendvpd %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
629 vblendvpd %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
633 vblendvpd %xmm1, 485498096(%edx), %xmm1, %xmm1
637 vblendvpd %xmm1, 485498096, %xmm1, %xmm1
641 vblendvpd %xmm1, 64(%edx,%eax), %xmm1, %xmm1
645 vblendvpd %xmm1, (%edx), %xmm1, %xmm1
649 vblendvpd %xmm1, %xmm1, %xmm1, %xmm1
681 vblendvps %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
685 vblendvps %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
689 vblendvps %xmm1, 485498096(%edx), %xmm1, %xmm1
693 vblendvps %xmm1, 485498096, %xmm1, %xmm1
697 vblendvps %xmm1, 64(%edx,%eax), %xmm1, %xmm1
701 vblendvps %xmm1, (%edx), %xmm1, %xmm1
705 vblendvps %xmm1, %xmm1, %xmm1, %xmm1
785 vbroadcastss -485498096(%edx,%eax,4), %xmm1
789 vbroadcastss 485498096(%edx,%eax,4), %xmm1
801 vbroadcastss 485498096(%edx), %xmm1
809 vbroadcastss 485498096, %xmm1
817 vbroadcastss 64(%edx,%eax), %xmm1
825 vbroadcastss (%edx), %xmm1
833 vcmpeqpd -485498096(%edx,%eax,4), %xmm1, %xmm1
837 vcmpeqpd 485498096(%edx,%eax,4), %xmm1, %xmm1
849 vcmpeqpd 485498096(%edx), %xmm1, %xmm1
857 vcmpeqpd 485498096, %xmm1, %xmm1
865 vcmpeqpd 64(%edx,%eax), %xmm1, %xmm1
873 vcmpeqpd (%edx), %xmm1, %xmm1
881 vcmpeqpd %xmm1, %xmm1, %xmm1
889 vcmpeqps -485498096(%edx,%eax,4), %xmm1, %xmm1
893 vcmpeqps 485498096(%edx,%eax,4), %xmm1, %xmm1
905 vcmpeqps 485498096(%edx), %xmm1, %xmm1
913 vcmpeqps 485498096, %xmm1, %xmm1
921 vcmpeqps 64(%edx,%eax), %xmm1, %xmm1
929 vcmpeqps (%edx), %xmm1, %xmm1
937 vcmpeqps %xmm1, %xmm1, %xmm1
945 vcmpeqsd -485498096(%edx,%eax,4), %xmm1, %xmm1
949 vcmpeqsd 485498096(%edx,%eax,4), %xmm1, %xmm1
953 vcmpeqsd 485498096(%edx), %xmm1, %xmm1
957 vcmpeqsd 485498096, %xmm1, %xmm1
961 vcmpeqsd 64(%edx,%eax), %xmm1, %xmm1
965 vcmpeqsd (%edx), %xmm1, %xmm1
969 vcmpeqsd %xmm1, %xmm1, %xmm1
973 vcmpeqss -485498096(%edx,%eax,4), %xmm1, %xmm1
977 vcmpeqss 485498096(%edx,%eax,4), %xmm1, %xmm1
981 vcmpeqss 485498096(%edx), %xmm1, %xmm1
985 vcmpeqss 485498096, %xmm1, %xmm1
989 vcmpeqss 64(%edx,%eax), %xmm1, %xmm1
993 vcmpeqss (%edx), %xmm1, %xmm1
997 vcmpeqss %xmm1, %xmm1, %xmm1
1001 vcomisd -485498096(%edx,%eax,4), %xmm1
1005 vcomisd 485498096(%edx,%eax,4), %xmm1
1009 vcomisd 485498096(%edx), %xmm1
1013 vcomisd 485498096, %xmm1
1017 vcomisd 64(%edx,%eax), %xmm1
1021 vcomisd (%edx), %xmm1
1025 vcomisd %xmm1, %xmm1
1029 vcomiss -485498096(%edx,%eax,4), %xmm1
1033 vcomiss 485498096(%edx,%eax,4), %xmm1
1037 vcomiss 485498096(%edx), %xmm1
1041 vcomiss 485498096, %xmm1
1045 vcomiss 64(%edx,%eax), %xmm1
1049 vcomiss (%edx), %xmm1
1053 vcomiss %xmm1, %xmm1
1057 vcvtdq2pd -485498096(%edx,%eax,4), %xmm1
1061 vcvtdq2pd 485498096(%edx,%eax,4), %xmm1
1073 vcvtdq2pd 485498096(%edx), %xmm1
1081 vcvtdq2pd 485498096, %xmm1
1089 vcvtdq2pd 64(%edx,%eax), %xmm1
1097 vcvtdq2pd (%edx), %xmm1
1105 vcvtdq2pd %xmm1, %xmm1
1109 vcvtdq2pd %xmm1, %ymm4
1113 vcvtdq2ps -485498096(%edx,%eax,4), %xmm1
1117 vcvtdq2ps 485498096(%edx,%eax,4), %xmm1
1129 vcvtdq2ps 485498096(%edx), %xmm1
1137 vcvtdq2ps 485498096, %xmm1
1145 vcvtdq2ps 64(%edx,%eax), %xmm1
1153 vcvtdq2ps (%edx), %xmm1
1161 vcvtdq2ps %xmm1, %xmm1
1169 vcvtpd2dqx -485498096(%edx,%eax,4), %xmm1
1173 vcvtpd2dqx 485498096(%edx,%eax,4), %xmm1
1177 vcvtpd2dqx 485498096(%edx), %xmm1
1181 vcvtpd2dqx 485498096, %xmm1
1185 vcvtpd2dqx 64(%edx,%eax), %xmm1
1189 vcvtpd2dqx (%edx), %xmm1
1193 vcvtpd2dq %xmm1, %xmm1
1197 vcvtpd2dqy -485498096(%edx,%eax,4), %xmm1
1201 vcvtpd2dqy 485498096(%edx,%eax,4), %xmm1
1205 vcvtpd2dqy 485498096(%edx), %xmm1
1209 vcvtpd2dqy 485498096, %xmm1
1213 vcvtpd2dqy 64(%edx,%eax), %xmm1
1217 vcvtpd2dqy (%edx), %xmm1
1221 vcvtpd2dq %ymm4, %xmm1
1225 vcvtpd2psx -485498096(%edx,%eax,4), %xmm1
1229 vcvtpd2psx 485498096(%edx,%eax,4), %xmm1
1233 vcvtpd2psx 485498096(%edx), %xmm1
1237 vcvtpd2psx 485498096, %xmm1
1241 vcvtpd2psx 64(%edx,%eax), %xmm1
1245 vcvtpd2psx (%edx), %xmm1
1249 vcvtpd2ps %xmm1, %xmm1
1253 vcvtpd2psy -485498096(%edx,%eax,4), %xmm1
1257 vcvtpd2psy 485498096(%edx,%eax,4), %xmm1
1261 vcvtpd2psy 485498096(%edx), %xmm1
1265 vcvtpd2psy 485498096, %xmm1
1269 vcvtpd2psy 64(%edx,%eax), %xmm1
1273 vcvtpd2psy (%edx), %xmm1
1277 vcvtpd2ps %ymm4, %xmm1
1281 vcvtps2dq -485498096(%edx,%eax,4), %xmm1
1285 vcvtps2dq 485498096(%edx,%eax,4), %xmm1
1297 vcvtps2dq 485498096(%edx), %xmm1
1305 vcvtps2dq 485498096, %xmm1
1313 vcvtps2dq 64(%edx,%eax), %xmm1
1321 vcvtps2dq (%edx), %xmm1
1329 vcvtps2dq %xmm1, %xmm1
1337 vcvtps2pd -485498096(%edx,%eax,4), %xmm1
1341 vcvtps2pd 485498096(%edx,%eax,4), %xmm1
1353 vcvtps2pd 485498096(%edx), %xmm1
1361 vcvtps2pd 485498096, %xmm1
1369 vcvtps2pd 64(%edx,%eax), %xmm1
1377 vcvtps2pd (%edx), %xmm1
1385 vcvtps2pd %xmm1, %xmm1
1389 vcvtps2pd %xmm1, %ymm4
1393 vcvtsd2ss -485498096(%edx,%eax,4), %xmm1, %xmm1
1397 vcvtsd2ss 485498096(%edx,%eax,4), %xmm1, %xmm1
1401 vcvtsd2ss 485498096(%edx), %xmm1, %xmm1
1405 vcvtsd2ss 485498096, %xmm1, %xmm1
1409 vcvtsd2ss 64(%edx,%eax), %xmm1, %xmm1
1413 vcvtsd2ss (%edx), %xmm1, %xmm1
1417 vcvtsd2ss %xmm1, %xmm1, %xmm1
1421 vcvtsi2sdl -485498096(%edx,%eax,4), %xmm1, %xmm1
1425 vcvtsi2sdl 485498096(%edx,%eax,4), %xmm1, %xmm1
1429 vcvtsi2sdl 485498096(%edx), %xmm1, %xmm1
1433 vcvtsi2sdl 485498096, %xmm1, %xmm1
1437 vcvtsi2sdl 64(%edx,%eax), %xmm1, %xmm1
1441 vcvtsi2sdl (%edx), %xmm1, %xmm1
1445 vcvtsi2ssl -485498096(%edx,%eax,4), %xmm1, %xmm1
1449 vcvtsi2ssl 485498096(%edx,%eax,4), %xmm1, %xmm1
1453 vcvtsi2ssl 485498096(%edx), %xmm1, %xmm1
1457 vcvtsi2ssl 485498096, %xmm1, %xmm1
1461 vcvtsi2ssl 64(%edx,%eax), %xmm1, %xmm1
1465 vcvtsi2ssl (%edx), %xmm1, %xmm1
1469 vcvtss2sd -485498096(%edx,%eax,4), %xmm1, %xmm1
1473 vcvtss2sd 485498096(%edx,%eax,4), %xmm1, %xmm1
1477 vcvtss2sd 485498096(%edx), %xmm1, %xmm1
1481 vcvtss2sd 485498096, %xmm1, %xmm1
1485 vcvtss2sd 64(%edx,%eax), %xmm1, %xmm1
1489 vcvtss2sd (%edx), %xmm1, %xmm1
1493 vcvtss2sd %xmm1, %xmm1, %xmm1
1497 vcvttpd2dqx -485498096(%edx,%eax,4), %xmm1
1501 vcvttpd2dqx 485498096(%edx,%eax,4), %xmm1
1505 vcvttpd2dqx 485498096(%edx), %xmm1
1509 vcvttpd2dqx 485498096, %xmm1
1513 vcvttpd2dqx 64(%edx,%eax), %xmm1
1517 vcvttpd2dqx (%edx), %xmm1
1521 vcvttpd2dq %xmm1, %xmm1
1525 vcvttpd2dqy -485498096(%edx,%eax,4), %xmm1
1529 vcvttpd2dqy 485498096(%edx,%eax,4), %xmm1
1533 vcvttpd2dqy 485498096(%edx), %xmm1
1537 vcvttpd2dqy 485498096, %xmm1
1541 vcvttpd2dqy 64(%edx,%eax), %xmm1
1545 vcvttpd2dqy (%edx), %xmm1
1549 vcvttpd2dq %ymm4, %xmm1
1553 vcvttps2dq -485498096(%edx,%eax,4), %xmm1
1557 vcvttps2dq 485498096(%edx,%eax,4), %xmm1
1569 vcvttps2dq 485498096(%edx), %xmm1
1577 vcvttps2dq 485498096, %xmm1
1585 vcvttps2dq 64(%edx,%eax), %xmm1
1593 vcvttps2dq (%edx), %xmm1
1601 vcvttps2dq %xmm1, %xmm1
1609 vdivpd -485498096(%edx,%eax,4), %xmm1, %xmm1
1613 vdivpd 485498096(%edx,%eax,4), %xmm1, %xmm1
1625 vdivpd 485498096(%edx), %xmm1, %xmm1
1633 vdivpd 485498096, %xmm1, %xmm1
1641 vdivpd 64(%edx,%eax), %xmm1, %xmm1
1649 vdivpd (%edx), %xmm1, %xmm1
1657 vdivpd %xmm1, %xmm1, %xmm1
1665 vdivps -485498096(%edx,%eax,4), %xmm1, %xmm1
1669 vdivps 485498096(%edx,%eax,4), %xmm1, %xmm1
1681 vdivps 485498096(%edx), %xmm1, %xmm1
1689 vdivps 485498096, %xmm1, %xmm1
1697 vdivps 64(%edx,%eax), %xmm1, %xmm1
1705 vdivps (%edx), %xmm1, %xmm1
1713 vdivps %xmm1, %xmm1, %xmm1
1721 vdivsd -485498096(%edx,%eax,4), %xmm1, %xmm1
1725 vdivsd 485498096(%edx,%eax,4), %xmm1, %xmm1
1729 vdivsd 485498096(%edx), %xmm1, %xmm1
1733 vdivsd 485498096, %xmm1, %xmm1
1737 vdivsd 64(%edx,%eax), %xmm1, %xmm1
1741 vdivsd (%edx), %xmm1, %xmm1
1745 vdivsd %xmm1, %xmm1, %xmm1
1749 vdivss -485498096(%edx,%eax,4), %xmm1, %xmm1
1753 vdivss 485498096(%edx,%eax,4), %xmm1, %xmm1
1757 vdivss 485498096(%edx), %xmm1, %xmm1
1761 vdivss 485498096, %xmm1, %xmm1
1765 vdivss 64(%edx,%eax), %xmm1, %xmm1
1769 vdivss (%edx), %xmm1, %xmm1
1773 vdivss %xmm1, %xmm1, %xmm1
1777 vdppd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
1781 vdppd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
1785 vdppd $0, 485498096(%edx), %xmm1, %xmm1
1789 vdppd $0, 485498096, %xmm1, %xmm1
1793 vdppd $0, 64(%edx,%eax), %xmm1, %xmm1
1797 vdppd $0, (%edx), %xmm1, %xmm1
1801 vdppd $0, %xmm1, %xmm1, %xmm1
1805 vdpps $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
1809 vdpps $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
1821 vdpps $0, 485498096(%edx), %xmm1, %xmm1
1829 vdpps $0, 485498096, %xmm1, %xmm1
1837 vdpps $0, 64(%edx,%eax), %xmm1, %xmm1
1845 vdpps $0, (%edx), %xmm1, %xmm1
1853 vdpps $0, %xmm1, %xmm1, %xmm1
1885 vextractf128 $0, %ymm4, %xmm1
1889 vextractps $0, %xmm1, 485498096
1893 vextractps $0, %xmm1, 485498096(%edx)
1897 vextractps $0, %xmm1, -485498096(%edx,%eax,4)
1901 vextractps $0, %xmm1, 485498096(%edx,%eax,4)
1905 vextractps $0, %xmm1, 64(%edx,%eax)
1909 vextractps $0, %xmm1, (%edx)
1913 vhaddpd -485498096(%edx,%eax,4), %xmm1, %xmm1
1917 vhaddpd 485498096(%edx,%eax,4), %xmm1, %xmm1
1929 vhaddpd 485498096(%edx), %xmm1, %xmm1
1937 vhaddpd 485498096, %xmm1, %xmm1
1945 vhaddpd 64(%edx,%eax), %xmm1, %xmm1
1953 vhaddpd (%edx), %xmm1, %xmm1
1961 vhaddpd %xmm1, %xmm1, %xmm1
1969 vhaddps -485498096(%edx,%eax,4), %xmm1, %xmm1
1973 vhaddps 485498096(%edx,%eax,4), %xmm1, %xmm1
1985 vhaddps 485498096(%edx), %xmm1, %xmm1
1993 vhaddps 485498096, %xmm1, %xmm1
2001 vhaddps 64(%edx,%eax), %xmm1, %xmm1
2009 vhaddps (%edx), %xmm1, %xmm1
2017 vhaddps %xmm1, %xmm1, %xmm1
2025 vhsubpd -485498096(%edx,%eax,4), %xmm1, %xmm1
2029 vhsubpd 485498096(%edx,%eax,4), %xmm1, %xmm1
2041 vhsubpd 485498096(%edx), %xmm1, %xmm1
2049 vhsubpd 485498096, %xmm1, %xmm1
2057 vhsubpd 64(%edx,%eax), %xmm1, %xmm1
2065 vhsubpd (%edx), %xmm1, %xmm1
2073 vhsubpd %xmm1, %xmm1, %xmm1
2081 vhsubps -485498096(%edx,%eax,4), %xmm1, %xmm1
2085 vhsubps 485498096(%edx,%eax,4), %xmm1, %xmm1
2097 vhsubps 485498096(%edx), %xmm1, %xmm1
2105 vhsubps 485498096, %xmm1, %xmm1
2113 vhsubps 64(%edx,%eax), %xmm1, %xmm1
2121 vhsubps (%edx), %xmm1, %xmm1
2129 vhsubps %xmm1, %xmm1, %xmm1
2161 vinsertf128 $0, %xmm1, %ymm4, %ymm4
2165 vinsertps $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
2169 vinsertps $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
2173 vinsertps $0, 485498096(%edx), %xmm1, %xmm1
2177 vinsertps $0, 485498096, %xmm1, %xmm1
2181 vinsertps $0, 64(%edx,%eax), %xmm1, %xmm1
2185 vinsertps $0, (%edx), %xmm1, %xmm1
2189 vinsertps $0, %xmm1, %xmm1, %xmm1
2193 vlddqu -485498096(%edx,%eax,4), %xmm1
2197 vlddqu 485498096(%edx,%eax,4), %xmm1
2209 vlddqu 485498096(%edx), %xmm1
2217 vlddqu 485498096, %xmm1
2225 vlddqu 64(%edx,%eax), %xmm1
2233 vlddqu (%edx), %xmm1
2265 vmaskmovdqu %xmm1, %xmm1
2269 vmaskmovpd -485498096(%edx,%eax,4), %xmm1, %xmm1
2273 vmaskmovpd 485498096(%edx,%eax,4), %xmm1, %xmm1
2285 vmaskmovpd 485498096(%edx), %xmm1, %xmm1
2293 vmaskmovpd 485498096, %xmm1, %xmm1
2301 vmaskmovpd 64(%edx,%eax), %xmm1, %xmm1
2309 vmaskmovpd (%edx), %xmm1, %xmm1
2317 vmaskmovpd %xmm1, %xmm1, 485498096
2321 vmaskmovpd %xmm1, %xmm1, 485498096(%edx)
2325 vmaskmovpd %xmm1, %xmm1, -485498096(%edx,%eax,4)
2329 vmaskmovpd %xmm1, %xmm1, 485498096(%edx,%eax,4)
2333 vmaskmovpd %xmm1, %xmm1, 64(%edx,%eax)
2337 vmaskmovpd %xmm1, %xmm1, (%edx)
2365 vmaskmovps -485498096(%edx,%eax,4), %xmm1, %xmm1
2369 vmaskmovps 485498096(%edx,%eax,4), %xmm1, %xmm1
2381 vmaskmovps 485498096(%edx), %xmm1, %xmm1
2389 vmaskmovps 485498096, %xmm1, %xmm1
2397 vmaskmovps 64(%edx,%eax), %xmm1, %xmm1
2405 vmaskmovps (%edx), %xmm1, %xmm1
2413 vmaskmovps %xmm1, %xmm1, 485498096
2417 vmaskmovps %xmm1, %xmm1, 485498096(%edx)
2421 vmaskmovps %xmm1, %xmm1, -485498096(%edx,%eax,4)
2425 vmaskmovps %xmm1, %xmm1, 485498096(%edx,%eax,4)
2429 vmaskmovps %xmm1, %xmm1, 64(%edx,%eax)
2433 vmaskmovps %xmm1, %xmm1, (%edx)
2461 vmaxpd -485498096(%edx,%eax,4), %xmm1, %xmm1
2465 vmaxpd 485498096(%edx,%eax,4), %xmm1, %xmm1
2477 vmaxpd 485498096(%edx), %xmm1, %xmm1
2485 vmaxpd 485498096, %xmm1, %xmm1
2493 vmaxpd 64(%edx,%eax), %xmm1, %xmm1
2501 vmaxpd (%edx), %xmm1, %xmm1
2509 vmaxpd %xmm1, %xmm1, %xmm1
2517 vmaxps -485498096(%edx,%eax,4), %xmm1, %xmm1
2521 vmaxps 485498096(%edx,%eax,4), %xmm1, %xmm1
2533 vmaxps 485498096(%edx), %xmm1, %xmm1
2541 vmaxps 485498096, %xmm1, %xmm1
2549 vmaxps 64(%edx,%eax), %xmm1, %xmm1
2557 vmaxps (%edx), %xmm1, %xmm1
2565 vmaxps %xmm1, %xmm1, %xmm1
2573 vmaxsd -485498096(%edx,%eax,4), %xmm1, %xmm1
2577 vmaxsd 485498096(%edx,%eax,4), %xmm1, %xmm1
2581 vmaxsd 485498096(%edx), %xmm1, %xmm1
2585 vmaxsd 485498096, %xmm1, %xmm1
2589 vmaxsd 64(%edx,%eax), %xmm1, %xmm1
2593 vmaxsd (%edx), %xmm1, %xmm1
2597 vmaxsd %xmm1, %xmm1, %xmm1
2601 vmaxss -485498096(%edx,%eax,4), %xmm1, %xmm1
2605 vmaxss 485498096(%edx,%eax,4), %xmm1, %xmm1
2609 vmaxss 485498096(%edx), %xmm1, %xmm1
2613 vmaxss 485498096, %xmm1, %xmm1
2617 vmaxss 64(%edx,%eax), %xmm1, %xmm1
2621 vmaxss (%edx), %xmm1, %xmm1
2625 vmaxss %xmm1, %xmm1, %xmm1
2629 vminpd -485498096(%edx,%eax,4), %xmm1, %xmm1
2633 vminpd 485498096(%edx,%eax,4), %xmm1, %xmm1
2645 vminpd 485498096(%edx), %xmm1, %xmm1
2653 vminpd 485498096, %xmm1, %xmm1
2661 vminpd 64(%edx,%eax), %xmm1, %xmm1
2669 vminpd (%edx), %xmm1, %xmm1
2677 vminpd %xmm1, %xmm1, %xmm1
2685 vminps -485498096(%edx,%eax,4), %xmm1, %xmm1
2689 vminps 485498096(%edx,%eax,4), %xmm1, %xmm1
2701 vminps 485498096(%edx), %xmm1, %xmm1
2709 vminps 485498096, %xmm1, %xmm1
2717 vminps 64(%edx,%eax), %xmm1, %xmm1
2725 vminps (%edx), %xmm1, %xmm1
2733 vminps %xmm1, %xmm1, %xmm1
2741 vminsd -485498096(%edx,%eax,4), %xmm1, %xmm1
2745 vminsd 485498096(%edx,%eax,4), %xmm1, %xmm1
2749 vminsd 485498096(%edx), %xmm1, %xmm1
2753 vminsd 485498096, %xmm1, %xmm1
2757 vminsd 64(%edx,%eax), %xmm1, %xmm1
2761 vminsd (%edx), %xmm1, %xmm1
2765 vminsd %xmm1, %xmm1, %xmm1
2769 vminss -485498096(%edx,%eax,4), %xmm1, %xmm1
2773 vminss 485498096(%edx,%eax,4), %xmm1, %xmm1
2777 vminss 485498096(%edx), %xmm1, %xmm1
2781 vminss 485498096, %xmm1, %xmm1
2785 vminss 64(%edx,%eax), %xmm1, %xmm1
2789 vminss (%edx), %xmm1, %xmm1
2793 vminss %xmm1, %xmm1, %xmm1
2797 vmovapd -485498096(%edx,%eax,4), %xmm1
2801 vmovapd 485498096(%edx,%eax,4), %xmm1
2813 vmovapd 485498096(%edx), %xmm1
2821 vmovapd 485498096, %xmm1
2829 vmovapd 64(%edx,%eax), %xmm1
2837 vmovapd (%edx), %xmm1
2845 vmovapd %xmm1, 485498096
2849 vmovapd %xmm1, 485498096(%edx)
2853 vmovapd %xmm1, -485498096(%edx,%eax,4)
2857 vmovapd %xmm1, 485498096(%edx,%eax,4)
2861 vmovapd %xmm1, 64(%edx,%eax)
2865 vmovapd %xmm1, (%edx)
2869 vmovapd %xmm1, %xmm1
2901 vmovaps -485498096(%edx,%eax,4), %xmm1
2905 vmovaps 485498096(%edx,%eax,4), %xmm1
2917 vmovaps 485498096(%edx), %xmm1
2925 vmovaps 485498096, %xmm1
2933 vmovaps 64(%edx,%eax), %xmm1
2941 vmovaps (%edx), %xmm1
2949 vmovaps %xmm1, 485498096
2953 vmovaps %xmm1, 485498096(%edx)
2957 vmovaps %xmm1, -485498096(%edx,%eax,4)
2961 vmovaps %xmm1, 485498096(%edx,%eax,4)
2965 vmovaps %xmm1, 64(%edx,%eax)
2969 vmovaps %xmm1, (%edx)
2973 vmovaps %xmm1, %xmm1
3005 vmovd -485498096(%edx,%eax,4), %xmm1
3009 vmovd 485498096(%edx,%eax,4), %xmm1
3013 vmovd 485498096(%edx), %xmm1
3017 vmovd 485498096, %xmm1
3021 vmovd 64(%edx,%eax), %xmm1
3025 vmovddup -485498096(%edx,%eax,4), %xmm1
3029 vmovddup 485498096(%edx,%eax,4), %xmm1
3041 vmovddup 485498096(%edx), %xmm1
3049 vmovddup 485498096, %xmm1
3057 vmovddup 64(%edx,%eax), %xmm1
3065 vmovddup (%edx), %xmm1
3073 vmovddup %xmm1, %xmm1
3081 vmovd (%edx), %xmm1
3085 vmovdqa -485498096(%edx,%eax,4), %xmm1
3089 vmovdqa 485498096(%edx,%eax,4), %xmm1
3101 vmovdqa 485498096(%edx), %xmm1
3109 vmovdqa 485498096, %xmm1
3117 vmovdqa 64(%edx,%eax), %xmm1
3125 vmovdqa (%edx), %xmm1
3133 vmovdqa %xmm1, 485498096
3137 vmovdqa %xmm1, 485498096(%edx)
3141 vmovdqa %xmm1, -485498096(%edx,%eax,4)
3145 vmovdqa %xmm1, 485498096(%edx,%eax,4)
3149 vmovdqa %xmm1, 64(%edx,%eax)
3153 vmovdqa %xmm1, (%edx)
3157 vmovdqa %xmm1, %xmm1
3189 vmovdqu -485498096(%edx,%eax,4), %xmm1
3193 vmovdqu 485498096(%edx,%eax,4), %xmm1
3205 vmovdqu 485498096(%edx), %xmm1
3213 vmovdqu 485498096, %xmm1
3221 vmovdqu 64(%edx,%eax), %xmm1
3229 vmovdqu (%edx), %xmm1
3237 vmovdqu %xmm1, 485498096
3241 vmovdqu %xmm1, 485498096(%edx)
3245 vmovdqu %xmm1, -485498096(%edx,%eax,4)
3249 vmovdqu %xmm1, 485498096(%edx,%eax,4)
3253 vmovdqu %xmm1, 64(%edx,%eax)
3257 vmovdqu %xmm1, (%edx)
3261 vmovdqu %xmm1, %xmm1
3293 vmovd %xmm1, 485498096
3297 vmovd %xmm1, 485498096(%edx)
3301 vmovd %xmm1, -485498096(%edx,%eax,4)
3305 vmovd %xmm1, 485498096(%edx,%eax,4)
3309 vmovd %xmm1, 64(%edx,%eax)
3313 vmovd %xmm1, (%edx)
3317 vmovhlps %xmm1, %xmm1, %xmm1
3321 vmovhpd -485498096(%edx,%eax,4), %xmm1, %xmm1
3325 vmovhpd 485498096(%edx,%eax,4), %xmm1, %xmm1
3329 vmovhpd 485498096(%edx), %xmm1, %xmm1
3333 vmovhpd 485498096, %xmm1, %xmm1
3337 vmovhpd 64(%edx,%eax), %xmm1, %xmm1
3341 vmovhpd (%edx), %xmm1, %xmm1
3345 vmovhpd %xmm1, 485498096
3349 vmovhpd %xmm1, 485498096(%edx)
3353 vmovhpd %xmm1, -485498096(%edx,%eax,4)
3357 vmovhpd %xmm1, 485498096(%edx,%eax,4)
3361 vmovhpd %xmm1, 64(%edx,%eax)
3365 vmovhpd %xmm1, (%edx)
3369 vmovhps -485498096(%edx,%eax,4), %xmm1, %xmm1
3373 vmovhps 485498096(%edx,%eax,4), %xmm1, %xmm1
3377 vmovhps 485498096(%edx), %xmm1, %xmm1
3381 vmovhps 485498096, %xmm1, %xmm1
3385 vmovhps 64(%edx,%eax), %xmm1, %xmm1
3389 vmovhps (%edx), %xmm1, %xmm1
3393 vmovhps %xmm1, 485498096
3397 vmovhps %xmm1, 485498096(%edx)
3401 vmovhps %xmm1, -485498096(%edx,%eax,4)
3405 vmovhps %xmm1, 485498096(%edx,%eax,4)
3409 vmovhps %xmm1, 64(%edx,%eax)
3413 vmovhps %xmm1, (%edx)
3417 vmovlhps %xmm1, %xmm1, %xmm1
3421 vmovlpd -485498096(%edx,%eax,4), %xmm1, %xmm1
3425 vmovlpd 485498096(%edx,%eax,4), %xmm1, %xmm1
3429 vmovlpd 485498096(%edx), %xmm1, %xmm1
3433 vmovlpd 485498096, %xmm1, %xmm1
3437 vmovlpd 64(%edx,%eax), %xmm1, %xmm1
3441 vmovlpd (%edx), %xmm1, %xmm1
3445 vmovlpd %xmm1, 485498096
3449 vmovlpd %xmm1, 485498096(%edx)
3453 vmovlpd %xmm1, -485498096(%edx,%eax,4)
3457 vmovlpd %xmm1, 485498096(%edx,%eax,4)
3461 vmovlpd %xmm1, 64(%edx,%eax)
3465 vmovlpd %xmm1, (%edx)
3469 vmovlps -485498096(%edx,%eax,4), %xmm1, %xmm1
3473 vmovlps 485498096(%edx,%eax,4), %xmm1, %xmm1
3477 vmovlps 485498096(%edx), %xmm1, %xmm1
3481 vmovlps 485498096, %xmm1, %xmm1
3485 vmovlps 64(%edx,%eax), %xmm1, %xmm1
3489 vmovlps (%edx), %xmm1, %xmm1
3493 vmovlps %xmm1, 485498096
3497 vmovlps %xmm1, 485498096(%edx)
3501 vmovlps %xmm1, -485498096(%edx,%eax,4)
3505 vmovlps %xmm1, 485498096(%edx,%eax,4)
3509 vmovlps %xmm1, 64(%edx,%eax)
3513 vmovlps %xmm1, (%edx)
3517 vmovntdqa -485498096(%edx,%eax,4), %xmm1
3521 vmovntdqa 485498096(%edx,%eax,4), %xmm1
3525 vmovntdqa 485498096(%edx), %xmm1
3529 vmovntdqa 485498096, %xmm1
3533 vmovntdqa 64(%edx,%eax), %xmm1
3537 vmovntdqa (%edx), %xmm1
3541 vmovntdq %xmm1, 485498096
3545 vmovntdq %xmm1, 485498096(%edx)
3549 vmovntdq %xmm1, -485498096(%edx,%eax,4)
3553 vmovntdq %xmm1, 485498096(%edx,%eax,4)
3557 vmovntdq %xmm1, 64(%edx,%eax)
3561 vmovntdq %xmm1, (%edx)
3589 vmovntpd %xmm1, 485498096
3593 vmovntpd %xmm1, 485498096(%edx)
3597 vmovntpd %xmm1, -485498096(%edx,%eax,4)
3601 vmovntpd %xmm1, 485498096(%edx,%eax,4)
3605 vmovntpd %xmm1, 64(%edx,%eax)
3609 vmovntpd %xmm1, (%edx)
3637 vmovntps %xmm1, 485498096
3641 vmovntps %xmm1, 485498096(%edx)
3645 vmovntps %xmm1, -485498096(%edx,%eax,4)
3649 vmovntps %xmm1, 485498096(%edx,%eax,4)
3653 vmovntps %xmm1, 64(%edx,%eax)
3657 vmovntps %xmm1, (%edx)
3685 vmovq -485498096(%edx,%eax,4), %xmm1
3689 vmovq 485498096(%edx,%eax,4), %xmm1
3693 vmovq 485498096(%edx), %xmm1
3697 vmovq 485498096, %xmm1
3701 vmovq 64(%edx,%eax), %xmm1
3705 vmovq (%edx), %xmm1
3709 vmovq %xmm1, 485498096
3713 vmovq %xmm1, 485498096(%edx)
3717 vmovq %xmm1, -485498096(%edx,%eax,4)
3721 vmovq %xmm1, 485498096(%edx,%eax,4)
3725 vmovq %xmm1, 64(%edx,%eax)
3729 vmovq %xmm1, (%edx)
3733 vmovq %xmm1, %xmm1
3737 vmovsd -485498096(%edx,%eax,4), %xmm1
3741 vmovsd 485498096(%edx,%eax,4), %xmm1
3745 vmovsd 485498096(%edx), %xmm1
3749 vmovsd 485498096, %xmm1
3753 vmovsd 64(%edx,%eax), %xmm1
3757 vmovsd (%edx), %xmm1
3761 vmovsd %xmm1, 485498096
3765 vmovsd %xmm1, 485498096(%edx)
3769 vmovsd %xmm1, -485498096(%edx,%eax,4)
3773 vmovsd %xmm1, 485498096(%edx,%eax,4)
3777 vmovsd %xmm1, 64(%edx,%eax)
3781 vmovsd %xmm1, (%edx)
3785 vmovsd %xmm1, %xmm1, %xmm1
3789 vmovshdup -485498096(%edx,%eax,4), %xmm1
3793 vmovshdup 485498096(%edx,%eax,4), %xmm1
3805 vmovshdup 485498096(%edx), %xmm1
3813 vmovshdup 485498096, %xmm1
3821 vmovshdup 64(%edx,%eax), %xmm1
3829 vmovshdup (%edx), %xmm1
3837 vmovshdup %xmm1, %xmm1
3845 vmovsldup -485498096(%edx,%eax,4), %xmm1
3849 vmovsldup 485498096(%edx,%eax,4), %xmm1
3861 vmovsldup 485498096(%edx), %xmm1
3869 vmovsldup 485498096, %xmm1
3877 vmovsldup 64(%edx,%eax), %xmm1
3885 vmovsldup (%edx), %xmm1
3893 vmovsldup %xmm1, %xmm1
3901 vmovss -485498096(%edx,%eax,4), %xmm1
3905 vmovss 485498096(%edx,%eax,4), %xmm1
3909 vmovss 485498096(%edx), %xmm1
3913 vmovss 485498096, %xmm1
3917 vmovss 64(%edx,%eax), %xmm1
3921 vmovss (%edx), %xmm1
3925 vmovss %xmm1, 485498096
3929 vmovss %xmm1, 485498096(%edx)
3933 vmovss %xmm1, -485498096(%edx,%eax,4)
3937 vmovss %xmm1, 485498096(%edx,%eax,4)
3941 vmovss %xmm1, 64(%edx,%eax)
3945 vmovss %xmm1, (%edx)
3949 vmovss %xmm1, %xmm1, %xmm1
3953 vmovupd -485498096(%edx,%eax,4), %xmm1
3957 vmovupd 485498096(%edx,%eax,4), %xmm1
3969 vmovupd 485498096(%edx), %xmm1
3977 vmovupd 485498096, %xmm1
3985 vmovupd 64(%edx,%eax), %xmm1
3993 vmovupd (%edx), %xmm1
4001 vmovupd %xmm1, 485498096
4005 vmovupd %xmm1, 485498096(%edx)
4009 vmovupd %xmm1, -485498096(%edx,%eax,4)
4013 vmovupd %xmm1, 485498096(%edx,%eax,4)
4017 vmovupd %xmm1, 64(%edx,%eax)
4021 vmovupd %xmm1, (%edx)
4025 vmovupd %xmm1, %xmm1
4057 vmovups -485498096(%edx,%eax,4), %xmm1
4061 vmovups 485498096(%edx,%eax,4), %xmm1
4073 vmovups 485498096(%edx), %xmm1
4081 vmovups 485498096, %xmm1
4089 vmovups 64(%edx,%eax), %xmm1
4097 vmovups (%edx), %xmm1
4105 vmovups %xmm1, 485498096
4109 vmovups %xmm1, 485498096(%edx)
4113 vmovups %xmm1, -485498096(%edx,%eax,4)
4117 vmovups %xmm1, 485498096(%edx,%eax,4)
4121 vmovups %xmm1, 64(%edx,%eax)
4125 vmovups %xmm1, (%edx)
4129 vmovups %xmm1, %xmm1
4161 vmpsadbw $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
4165 vmpsadbw $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
4169 vmpsadbw $0, 485498096(%edx), %xmm1, %xmm1
4173 vmpsadbw $0, 485498096, %xmm1, %xmm1
4177 vmpsadbw $0, 64(%edx,%eax), %xmm1, %xmm1
4181 vmpsadbw $0, (%edx), %xmm1, %xmm1
4185 vmpsadbw $0, %xmm1, %xmm1, %xmm1
4189 vmulpd -485498096(%edx,%eax,4), %xmm1, %xmm1
4193 vmulpd 485498096(%edx,%eax,4), %xmm1, %xmm1
4205 vmulpd 485498096(%edx), %xmm1, %xmm1
4213 vmulpd 485498096, %xmm1, %xmm1
4221 vmulpd 64(%edx,%eax), %xmm1, %xmm1
4229 vmulpd (%edx), %xmm1, %xmm1
4237 vmulpd %xmm1, %xmm1, %xmm1
4245 vmulps -485498096(%edx,%eax,4), %xmm1, %xmm1
4249 vmulps 485498096(%edx,%eax,4), %xmm1, %xmm1
4261 vmulps 485498096(%edx), %xmm1, %xmm1
4269 vmulps 485498096, %xmm1, %xmm1
4277 vmulps 64(%edx,%eax), %xmm1, %xmm1
4285 vmulps (%edx), %xmm1, %xmm1
4293 vmulps %xmm1, %xmm1, %xmm1
4301 vmulsd -485498096(%edx,%eax,4), %xmm1, %xmm1
4305 vmulsd 485498096(%edx,%eax,4), %xmm1, %xmm1
4309 vmulsd 485498096(%edx), %xmm1, %xmm1
4313 vmulsd 485498096, %xmm1, %xmm1
4317 vmulsd 64(%edx,%eax), %xmm1, %xmm1
4321 vmulsd (%edx), %xmm1, %xmm1
4325 vmulsd %xmm1, %xmm1, %xmm1
4329 vmulss -485498096(%edx,%eax,4), %xmm1, %xmm1
4333 vmulss 485498096(%edx,%eax,4), %xmm1, %xmm1
4337 vmulss 485498096(%edx), %xmm1, %xmm1
4341 vmulss 485498096, %xmm1, %xmm1
4345 vmulss 64(%edx,%eax), %xmm1, %xmm1
4349 vmulss (%edx), %xmm1, %xmm1
4353 vmulss %xmm1, %xmm1, %xmm1
4357 vorpd -485498096(%edx,%eax,4), %xmm1, %xmm1
4361 vorpd 485498096(%edx,%eax,4), %xmm1, %xmm1
4373 vorpd 485498096(%edx), %xmm1, %xmm1
4381 vorpd 485498096, %xmm1, %xmm1
4389 vorpd 64(%edx,%eax), %xmm1, %xmm1
4397 vorpd (%edx), %xmm1, %xmm1
4405 vorpd %xmm1, %xmm1, %xmm1
4413 vorps -485498096(%edx,%eax,4), %xmm1, %xmm1
4417 vorps 485498096(%edx,%eax,4), %xmm1, %xmm1
4429 vorps 485498096(%edx), %xmm1, %xmm1
4437 vorps 485498096, %xmm1, %xmm1
4445 vorps 64(%edx,%eax), %xmm1, %xmm1
4453 vorps (%edx), %xmm1, %xmm1
4461 vorps %xmm1, %xmm1, %xmm1
4469 vpabsb -485498096(%edx,%eax,4), %xmm1
4473 vpabsb 485498096(%edx,%eax,4), %xmm1
4477 vpabsb 485498096(%edx), %xmm1
4481 vpabsb 485498096, %xmm1
4485 vpabsb 64(%edx,%eax), %xmm1
4489 vpabsb (%edx), %xmm1
4493 vpabsb %xmm1, %xmm1
4497 vpabsd -485498096(%edx,%eax,4), %xmm1
4501 vpabsd 485498096(%edx,%eax,4), %xmm1
4505 vpabsd 485498096(%edx), %xmm1
4509 vpabsd 485498096, %xmm1
4513 vpabsd 64(%edx,%eax), %xmm1
4517 vpabsd (%edx), %xmm1
4521 vpabsd %xmm1, %xmm1
4525 vpabsw -485498096(%edx,%eax,4), %xmm1
4529 vpabsw 485498096(%edx,%eax,4), %xmm1
4533 vpabsw 485498096(%edx), %xmm1
4537 vpabsw 485498096, %xmm1
4541 vpabsw 64(%edx,%eax), %xmm1
4545 vpabsw (%edx), %xmm1
4549 vpabsw %xmm1, %xmm1
4553 vpackssdw -485498096(%edx,%eax,4), %xmm1, %xmm1
4557 vpackssdw 485498096(%edx,%eax,4), %xmm1, %xmm1
4561 vpackssdw 485498096(%edx), %xmm1, %xmm1
4565 vpackssdw 485498096, %xmm1, %xmm1
4569 vpackssdw 64(%edx,%eax), %xmm1, %xmm1
4573 vpackssdw (%edx), %xmm1, %xmm1
4577 vpackssdw %xmm1, %xmm1, %xmm1
4581 vpacksswb -485498096(%edx,%eax,4), %xmm1, %xmm1
4585 vpacksswb 485498096(%edx,%eax,4), %xmm1, %xmm1
4589 vpacksswb 485498096(%edx), %xmm1, %xmm1
4593 vpacksswb 485498096, %xmm1, %xmm1
4597 vpacksswb 64(%edx,%eax), %xmm1, %xmm1
4601 vpacksswb (%edx), %xmm1, %xmm1
4605 vpacksswb %xmm1, %xmm1, %xmm1
4609 vpackusdw -485498096(%edx,%eax,4), %xmm1, %xmm1
4613 vpackusdw 485498096(%edx,%eax,4), %xmm1, %xmm1
4617 vpackusdw 485498096(%edx), %xmm1, %xmm1
4621 vpackusdw 485498096, %xmm1, %xmm1
4625 vpackusdw 64(%edx,%eax), %xmm1, %xmm1
4629 vpackusdw (%edx), %xmm1, %xmm1
4633 vpackusdw %xmm1, %xmm1, %xmm1
4637 vpackuswb -485498096(%edx,%eax,4), %xmm1, %xmm1
4641 vpackuswb 485498096(%edx,%eax,4), %xmm1, %xmm1
4645 vpackuswb 485498096(%edx), %xmm1, %xmm1
4649 vpackuswb 485498096, %xmm1, %xmm1
4653 vpackuswb 64(%edx,%eax), %xmm1, %xmm1
4657 vpackuswb (%edx), %xmm1, %xmm1
4661 vpackuswb %xmm1, %xmm1, %xmm1
4665 vpaddb -485498096(%edx,%eax,4), %xmm1, %xmm1
4669 vpaddb 485498096(%edx,%eax,4), %xmm1, %xmm1
4673 vpaddb 485498096(%edx), %xmm1, %xmm1
4677 vpaddb 485498096, %xmm1, %xmm1
4681 vpaddb 64(%edx,%eax), %xmm1, %xmm1
4685 vpaddb (%edx), %xmm1, %xmm1
4689 vpaddb %xmm1, %xmm1, %xmm1
4693 vpaddd -485498096(%edx,%eax,4), %xmm1, %xmm1
4697 vpaddd 485498096(%edx,%eax,4), %xmm1, %xmm1
4701 vpaddd 485498096(%edx), %xmm1, %xmm1
4705 vpaddd 485498096, %xmm1, %xmm1
4709 vpaddd 64(%edx,%eax), %xmm1, %xmm1
4713 vpaddd (%edx), %xmm1, %xmm1
4717 vpaddd %xmm1, %xmm1, %xmm1
4721 vpaddq -485498096(%edx,%eax,4), %xmm1, %xmm1
4725 vpaddq 485498096(%edx,%eax,4), %xmm1, %xmm1
4729 vpaddq 485498096(%edx), %xmm1, %xmm1
4733 vpaddq 485498096, %xmm1, %xmm1
4737 vpaddq 64(%edx,%eax), %xmm1, %xmm1
4741 vpaddq (%edx), %xmm1, %xmm1
4745 vpaddq %xmm1, %xmm1, %xmm1
4749 vpaddsb -485498096(%edx,%eax,4), %xmm1, %xmm1
4753 vpaddsb 485498096(%edx,%eax,4), %xmm1, %xmm1
4757 vpaddsb 485498096(%edx), %xmm1, %xmm1
4761 vpaddsb 485498096, %xmm1, %xmm1
4765 vpaddsb 64(%edx,%eax), %xmm1, %xmm1
4769 vpaddsb (%edx), %xmm1, %xmm1
4773 vpaddsb %xmm1, %xmm1, %xmm1
4777 vpaddsw -485498096(%edx,%eax,4), %xmm1, %xmm1
4781 vpaddsw 485498096(%edx,%eax,4), %xmm1, %xmm1
4785 vpaddsw 485498096(%edx), %xmm1, %xmm1
4789 vpaddsw 485498096, %xmm1, %xmm1
4793 vpaddsw 64(%edx,%eax), %xmm1, %xmm1
4797 vpaddsw (%edx), %xmm1, %xmm1
4801 vpaddsw %xmm1, %xmm1, %xmm1
4805 vpaddusb -485498096(%edx,%eax,4), %xmm1, %xmm1
4809 vpaddusb 485498096(%edx,%eax,4), %xmm1, %xmm1
4813 vpaddusb 485498096(%edx), %xmm1, %xmm1
4817 vpaddusb 485498096, %xmm1, %xmm1
4821 vpaddusb 64(%edx,%eax), %xmm1, %xmm1
4825 vpaddusb (%edx), %xmm1, %xmm1
4829 vpaddusb %xmm1, %xmm1, %xmm1
4833 vpaddusw -485498096(%edx,%eax,4), %xmm1, %xmm1
4837 vpaddusw 485498096(%edx,%eax,4), %xmm1, %xmm1
4841 vpaddusw 485498096(%edx), %xmm1, %xmm1
4845 vpaddusw 485498096, %xmm1, %xmm1
4849 vpaddusw 64(%edx,%eax), %xmm1, %xmm1
4853 vpaddusw (%edx), %xmm1, %xmm1
4857 vpaddusw %xmm1, %xmm1, %xmm1
4861 vpaddw -485498096(%edx,%eax,4), %xmm1, %xmm1
4865 vpaddw 485498096(%edx,%eax,4), %xmm1, %xmm1
4869 vpaddw 485498096(%edx), %xmm1, %xmm1
4873 vpaddw 485498096, %xmm1, %xmm1
4877 vpaddw 64(%edx,%eax), %xmm1, %xmm1
4881 vpaddw (%edx), %xmm1, %xmm1
4885 vpaddw %xmm1, %xmm1, %xmm1
4889 vpalignr $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
4893 vpalignr $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
4897 vpalignr $0, 485498096(%edx), %xmm1, %xmm1
4901 vpalignr $0, 485498096, %xmm1, %xmm1
4905 vpalignr $0, 64(%edx,%eax), %xmm1, %xmm1
4909 vpalignr $0, (%edx), %xmm1, %xmm1
4913 vpalignr $0, %xmm1, %xmm1, %xmm1
4917 vpand -485498096(%edx,%eax,4), %xmm1, %xmm1
4921 vpand 485498096(%edx,%eax,4), %xmm1, %xmm1
4925 vpand 485498096(%edx), %xmm1, %xmm1
4929 vpand 485498096, %xmm1, %xmm1
4933 vpand 64(%edx,%eax), %xmm1, %xmm1
4937 vpand (%edx), %xmm1, %xmm1
4941 vpandn -485498096(%edx,%eax,4), %xmm1, %xmm1
4945 vpandn 485498096(%edx,%eax,4), %xmm1, %xmm1
4949 vpandn 485498096(%edx), %xmm1, %xmm1
4953 vpandn 485498096, %xmm1, %xmm1
4957 vpandn 64(%edx,%eax), %xmm1, %xmm1
4961 vpandn (%edx), %xmm1, %xmm1
4965 vpandn %xmm1, %xmm1, %xmm1
4969 vpand %xmm1, %xmm1, %xmm1
4973 vpavgb -485498096(%edx,%eax,4), %xmm1, %xmm1
4977 vpavgb 485498096(%edx,%eax,4), %xmm1, %xmm1
4981 vpavgb 485498096(%edx), %xmm1, %xmm1
4985 vpavgb 485498096, %xmm1, %xmm1
4989 vpavgb 64(%edx,%eax), %xmm1, %xmm1
4993 vpavgb (%edx), %xmm1, %xmm1
4997 vpavgb %xmm1, %xmm1, %xmm1
5001 vpavgw -485498096(%edx,%eax,4), %xmm1, %xmm1
5005 vpavgw 485498096(%edx,%eax,4), %xmm1, %xmm1
5009 vpavgw 485498096(%edx), %xmm1, %xmm1
5013 vpavgw 485498096, %xmm1, %xmm1
5017 vpavgw 64(%edx,%eax), %xmm1, %xmm1
5021 vpavgw (%edx), %xmm1, %xmm1
5025 vpavgw %xmm1, %xmm1, %xmm1
5029 vpblendvb %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
5033 vpblendvb %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
5037 vpblendvb %xmm1, 485498096(%edx), %xmm1, %xmm1
5041 vpblendvb %xmm1, 485498096, %xmm1, %xmm1
5045 vpblendvb %xmm1, 64(%edx,%eax), %xmm1, %xmm1
5049 vpblendvb %xmm1, (%edx), %xmm1, %xmm1
5053 vpblendvb %xmm1, %xmm1, %xmm1, %xmm1
5057 vpblendw $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
5061 vpblendw $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
5065 vpblendw $0, 485498096(%edx), %xmm1, %xmm1
5069 vpblendw $0, 485498096, %xmm1, %xmm1
5073 vpblendw $0, 64(%edx,%eax), %xmm1, %xmm1
5077 vpblendw $0, (%edx), %xmm1, %xmm1
5081 vpblendw $0, %xmm1, %xmm1, %xmm1
5085 vpclmulqdq $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
5089 vpclmulqdq $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
5093 vpclmulqdq $0, 485498096(%edx), %xmm1, %xmm1
5097 vpclmulqdq $0, 485498096, %xmm1, %xmm1
5101 vpclmulqdq $0, 64(%edx,%eax), %xmm1, %xmm1
5105 vpclmulqdq $0, (%edx), %xmm1, %xmm1
5109 vpclmulqdq $0, %xmm1, %xmm1, %xmm1
5113 vpcmpeqb -485498096(%edx,%eax,4), %xmm1, %xmm1
5117 vpcmpeqb 485498096(%edx,%eax,4), %xmm1, %xmm1
5121 vpcmpeqb 485498096(%edx), %xmm1, %xmm1
5125 vpcmpeqb 485498096, %xmm1, %xmm1
5129 vpcmpeqb 64(%edx,%eax), %xmm1, %xmm1
5133 vpcmpeqb (%edx), %xmm1, %xmm1
5137 vpcmpeqb %xmm1, %xmm1, %xmm1
5141 vpcmpeqd -485498096(%edx,%eax,4), %xmm1, %xmm1
5145 vpcmpeqd 485498096(%edx,%eax,4), %xmm1, %xmm1
5149 vpcmpeqd 485498096(%edx), %xmm1, %xmm1
5153 vpcmpeqd 485498096, %xmm1, %xmm1
5157 vpcmpeqd 64(%edx,%eax), %xmm1, %xmm1
5161 vpcmpeqd (%edx), %xmm1, %xmm1
5165 vpcmpeqd %xmm1, %xmm1, %xmm1
5169 vpcmpeqq -485498096(%edx,%eax,4), %xmm1, %xmm1
5173 vpcmpeqq 485498096(%edx,%eax,4), %xmm1, %xmm1
5177 vpcmpeqq 485498096(%edx), %xmm1, %xmm1
5181 vpcmpeqq 485498096, %xmm1, %xmm1
5185 vpcmpeqq 64(%edx,%eax), %xmm1, %xmm1
5189 vpcmpeqq (%edx), %xmm1, %xmm1
5193 vpcmpeqq %xmm1, %xmm1, %xmm1
5197 vpcmpeqw -485498096(%edx,%eax,4), %xmm1, %xmm1
5201 vpcmpeqw 485498096(%edx,%eax,4), %xmm1, %xmm1
5205 vpcmpeqw 485498096(%edx), %xmm1, %xmm1
5209 vpcmpeqw 485498096, %xmm1, %xmm1
5213 vpcmpeqw 64(%edx,%eax), %xmm1, %xmm1
5217 vpcmpeqw (%edx), %xmm1, %xmm1
5221 vpcmpeqw %xmm1, %xmm1, %xmm1
5225 vpcmpestri $0, -485498096(%edx,%eax,4), %xmm1
5229 vpcmpestri $0, 485498096(%edx,%eax,4), %xmm1
5233 vpcmpestri $0, 485498096(%edx), %xmm1
5237 vpcmpestri $0, 485498096, %xmm1
5241 vpcmpestri $0, 64(%edx,%eax), %xmm1
5245 vpcmpestri $0, (%edx), %xmm1
5249 vpcmpestri $0, %xmm1, %xmm1
5253 vpcmpestrm $0, -485498096(%edx,%eax,4), %xmm1
5257 vpcmpestrm $0, 485498096(%edx,%eax,4), %xmm1
5261 vpcmpestrm $0, 485498096(%edx), %xmm1
5265 vpcmpestrm $0, 485498096, %xmm1
5269 vpcmpestrm $0, 64(%edx,%eax), %xmm1
5273 vpcmpestrm $0, (%edx), %xmm1
5277 vpcmpestrm $0, %xmm1, %xmm1
5281 vpcmpgtb -485498096(%edx,%eax,4), %xmm1, %xmm1
5285 vpcmpgtb 485498096(%edx,%eax,4), %xmm1, %xmm1
5289 vpcmpgtb 485498096(%edx), %xmm1, %xmm1
5293 vpcmpgtb 485498096, %xmm1, %xmm1
5297 vpcmpgtb 64(%edx,%eax), %xmm1, %xmm1
5301 vpcmpgtb (%edx), %xmm1, %xmm1
5305 vpcmpgtb %xmm1, %xmm1, %xmm1
5309 vpcmpgtd -485498096(%edx,%eax,4), %xmm1, %xmm1
5313 vpcmpgtd 485498096(%edx,%eax,4), %xmm1, %xmm1
5317 vpcmpgtd 485498096(%edx), %xmm1, %xmm1
5321 vpcmpgtd 485498096, %xmm1, %xmm1
5325 vpcmpgtd 64(%edx,%eax), %xmm1, %xmm1
5329 vpcmpgtd (%edx), %xmm1, %xmm1
5333 vpcmpgtd %xmm1, %xmm1, %xmm1
5337 vpcmpgtq -485498096(%edx,%eax,4), %xmm1, %xmm1
5341 vpcmpgtq 485498096(%edx,%eax,4), %xmm1, %xmm1
5345 vpcmpgtq 485498096(%edx), %xmm1, %xmm1
5349 vpcmpgtq 485498096, %xmm1, %xmm1
5353 vpcmpgtq 64(%edx,%eax), %xmm1, %xmm1
5357 vpcmpgtq (%edx), %xmm1, %xmm1
5361 vpcmpgtq %xmm1, %xmm1, %xmm1
5365 vpcmpgtw -485498096(%edx,%eax,4), %xmm1, %xmm1
5369 vpcmpgtw 485498096(%edx,%eax,4), %xmm1, %xmm1
5373 vpcmpgtw 485498096(%edx), %xmm1, %xmm1
5377 vpcmpgtw 485498096, %xmm1, %xmm1
5381 vpcmpgtw 64(%edx,%eax), %xmm1, %xmm1
5385 vpcmpgtw (%edx), %xmm1, %xmm1
5389 vpcmpgtw %xmm1, %xmm1, %xmm1
5393 vpcmpistri $0, -485498096(%edx,%eax,4), %xmm1
5397 vpcmpistri $0, 485498096(%edx,%eax,4), %xmm1
5401 vpcmpistri $0, 485498096(%edx), %xmm1
5405 vpcmpistri $0, 485498096, %xmm1
5409 vpcmpistri $0, 64(%edx,%eax), %xmm1
5413 vpcmpistri $0, (%edx), %xmm1
5417 vpcmpistri $0, %xmm1, %xmm1
5421 vpcmpistrm $0, -485498096(%edx,%eax,4), %xmm1
5425 vpcmpistrm $0, 485498096(%edx,%eax,4), %xmm1
5429 vpcmpistrm $0, 485498096(%edx), %xmm1
5433 vpcmpistrm $0, 485498096, %xmm1
5437 vpcmpistrm $0, 64(%edx,%eax), %xmm1
5441 vpcmpistrm $0, (%edx), %xmm1
5445 vpcmpistrm $0, %xmm1, %xmm1
5477 vpermilpd $0, -485498096(%edx,%eax,4), %xmm1
5481 vpermilpd $0, 485498096(%edx,%eax,4), %xmm1
5493 vpermilpd $0, 485498096(%edx), %xmm1
5501 vpermilpd $0, 485498096, %xmm1
5509 vpermilpd $0, 64(%edx,%eax), %xmm1
5517 vpermilpd $0, (%edx), %xmm1
5525 vpermilpd $0, %xmm1, %xmm1
5533 vpermilpd -485498096(%edx,%eax,4), %xmm1, %xmm1
5537 vpermilpd 485498096(%edx,%eax,4), %xmm1, %xmm1
5549 vpermilpd 485498096(%edx), %xmm1, %xmm1
5557 vpermilpd 485498096, %xmm1, %xmm1
5565 vpermilpd 64(%edx,%eax), %xmm1, %xmm1
5573 vpermilpd (%edx), %xmm1, %xmm1
5581 vpermilpd %xmm1, %xmm1, %xmm1
5589 vpermilps $0, -485498096(%edx,%eax,4), %xmm1
5593 vpermilps $0, 485498096(%edx,%eax,4), %xmm1
5605 vpermilps $0, 485498096(%edx), %xmm1
5613 vpermilps $0, 485498096, %xmm1
5621 vpermilps $0, 64(%edx,%eax), %xmm1
5629 vpermilps $0, (%edx), %xmm1
5637 vpermilps $0, %xmm1, %xmm1
5645 vpermilps -485498096(%edx,%eax,4), %xmm1, %xmm1
5649 vpermilps 485498096(%edx,%eax,4), %xmm1, %xmm1
5661 vpermilps 485498096(%edx), %xmm1, %xmm1
5669 vpermilps 485498096, %xmm1, %xmm1
5677 vpermilps 64(%edx,%eax), %xmm1, %xmm1
5685 vpermilps (%edx), %xmm1, %xmm1
5693 vpermilps %xmm1, %xmm1, %xmm1
5701 vpextrb $0, %xmm1, 485498096
5705 vpextrb $0, %xmm1, 485498096(%edx)
5709 vpextrb $0, %xmm1, -485498096(%edx,%eax,4)
5713 vpextrb $0, %xmm1, 485498096(%edx,%eax,4)
5717 vpextrb $0, %xmm1, 64(%edx,%eax)
5721 vpextrb $0, %xmm1, (%edx)
5725 vpextrd $0, %xmm1, 485498096
5729 vpextrd $0, %xmm1, 485498096(%edx)
5733 vpextrd $0, %xmm1, -485498096(%edx,%eax,4)
5737 vpextrd $0, %xmm1, 485498096(%edx,%eax,4)
5741 vpextrd $0, %xmm1, 64(%edx,%eax)
5745 vpextrd $0, %xmm1, (%edx)
5749 vpextrw $0, %xmm1, 485498096
5753 vpextrw $0, %xmm1, 485498096(%edx)
5757 vpextrw $0, %xmm1, -485498096(%edx,%eax,4)
5761 vpextrw $0, %xmm1, 485498096(%edx,%eax,4)
5765 vpextrw $0, %xmm1, 64(%edx,%eax)
5769 vpextrw $0, %xmm1, (%edx)
5773 vphaddd -485498096(%edx,%eax,4), %xmm1, %xmm1
5777 vphaddd 485498096(%edx,%eax,4), %xmm1, %xmm1
5781 vphaddd 485498096(%edx), %xmm1, %xmm1
5785 vphaddd 485498096, %xmm1, %xmm1
5789 vphaddd 64(%edx,%eax), %xmm1, %xmm1
5793 vphaddd (%edx), %xmm1, %xmm1
5797 vphaddd %xmm1, %xmm1, %xmm1
5801 vphaddsw -485498096(%edx,%eax,4), %xmm1, %xmm1
5805 vphaddsw 485498096(%edx,%eax,4), %xmm1, %xmm1
5809 vphaddsw 485498096(%edx), %xmm1, %xmm1
5813 vphaddsw 485498096, %xmm1, %xmm1
5817 vphaddsw 64(%edx,%eax), %xmm1, %xmm1
5821 vphaddsw (%edx), %xmm1, %xmm1
5825 vphaddsw %xmm1, %xmm1, %xmm1
5829 vphaddw -485498096(%edx,%eax,4), %xmm1, %xmm1
5833 vphaddw 485498096(%edx,%eax,4), %xmm1, %xmm1
5837 vphaddw 485498096(%edx), %xmm1, %xmm1
5841 vphaddw 485498096, %xmm1, %xmm1
5845 vphaddw 64(%edx,%eax), %xmm1, %xmm1
5849 vphaddw (%edx), %xmm1, %xmm1
5853 vphaddw %xmm1, %xmm1, %xmm1
5857 vphminposuw -485498096(%edx,%eax,4), %xmm1
5861 vphminposuw 485498096(%edx,%eax,4), %xmm1
5865 vphminposuw 485498096(%edx), %xmm1
5869 vphminposuw 485498096, %xmm1
5873 vphminposuw 64(%edx,%eax), %xmm1
5877 vphminposuw (%edx), %xmm1
5881 vphminposuw %xmm1, %xmm1
5885 vphsubd -485498096(%edx,%eax,4), %xmm1, %xmm1
5889 vphsubd 485498096(%edx,%eax,4), %xmm1, %xmm1
5893 vphsubd 485498096(%edx), %xmm1, %xmm1
5897 vphsubd 485498096, %xmm1, %xmm1
5901 vphsubd 64(%edx,%eax), %xmm1, %xmm1
5905 vphsubd (%edx), %xmm1, %xmm1
5909 vphsubd %xmm1, %xmm1, %xmm1
5913 vphsubsw -485498096(%edx,%eax,4), %xmm1, %xmm1
5917 vphsubsw 485498096(%edx,%eax,4), %xmm1, %xmm1
5921 vphsubsw 485498096(%edx), %xmm1, %xmm1
5925 vphsubsw 485498096, %xmm1, %xmm1
5929 vphsubsw 64(%edx,%eax), %xmm1, %xmm1
5933 vphsubsw (%edx), %xmm1, %xmm1
5937 vphsubsw %xmm1, %xmm1, %xmm1
5941 vphsubw -485498096(%edx,%eax,4), %xmm1, %xmm1
5945 vphsubw 485498096(%edx,%eax,4), %xmm1, %xmm1
5949 vphsubw 485498096(%edx), %xmm1, %xmm1
5953 vphsubw 485498096, %xmm1, %xmm1
5957 vphsubw 64(%edx,%eax), %xmm1, %xmm1
5961 vphsubw (%edx), %xmm1, %xmm1
5965 vphsubw %xmm1, %xmm1, %xmm1
5969 vpinsrb $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
5973 vpinsrb $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
5977 vpinsrb $0, 485498096(%edx), %xmm1, %xmm1
5981 vpinsrb $0, 485498096, %xmm1, %xmm1
5985 vpinsrb $0, 64(%edx,%eax), %xmm1, %xmm1
5989 vpinsrb $0, (%edx), %xmm1, %xmm1
5993 vpinsrd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
5997 vpinsrd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
6001 vpinsrd $0, 485498096(%edx), %xmm1, %xmm1
6005 vpinsrd $0, 485498096, %xmm1, %xmm1
6009 vpinsrd $0, 64(%edx,%eax), %xmm1, %xmm1
6013 vpinsrd $0, (%edx), %xmm1, %xmm1
6017 vpinsrw $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
6021 vpinsrw $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
6025 vpinsrw $0, 485498096(%edx), %xmm1, %xmm1
6029 vpinsrw $0, 485498096, %xmm1, %xmm1
6033 vpinsrw $0, 64(%edx,%eax), %xmm1, %xmm1
6037 vpinsrw $0, (%edx), %xmm1, %xmm1
6041 vpmaddubsw -485498096(%edx,%eax,4), %xmm1, %xmm1
6045 vpmaddubsw 485498096(%edx,%eax,4), %xmm1, %xmm1
6049 vpmaddubsw 485498096(%edx), %xmm1, %xmm1
6053 vpmaddubsw 485498096, %xmm1, %xmm1
6057 vpmaddubsw 64(%edx,%eax), %xmm1, %xmm1
6061 vpmaddubsw (%edx), %xmm1, %xmm1
6065 vpmaddubsw %xmm1, %xmm1, %xmm1
6069 vpmaddwd -485498096(%edx,%eax,4), %xmm1, %xmm1
6073 vpmaddwd 485498096(%edx,%eax,4), %xmm1, %xmm1
6077 vpmaddwd 485498096(%edx), %xmm1, %xmm1
6081 vpmaddwd 485498096, %xmm1, %xmm1
6085 vpmaddwd 64(%edx,%eax), %xmm1, %xmm1
6089 vpmaddwd (%edx), %xmm1, %xmm1
6093 vpmaddwd %xmm1, %xmm1, %xmm1
6097 vpmaxsb -485498096(%edx,%eax,4), %xmm1, %xmm1
6101 vpmaxsb 485498096(%edx,%eax,4), %xmm1, %xmm1
6105 vpmaxsb 485498096(%edx), %xmm1, %xmm1
6109 vpmaxsb 485498096, %xmm1, %xmm1
6113 vpmaxsb 64(%edx,%eax), %xmm1, %xmm1
6117 vpmaxsb (%edx), %xmm1, %xmm1
6121 vpmaxsb %xmm1, %xmm1, %xmm1
6125 vpmaxsd -485498096(%edx,%eax,4), %xmm1, %xmm1
6129 vpmaxsd 485498096(%edx,%eax,4), %xmm1, %xmm1
6133 vpmaxsd 485498096(%edx), %xmm1, %xmm1
6137 vpmaxsd 485498096, %xmm1, %xmm1
6141 vpmaxsd 64(%edx,%eax), %xmm1, %xmm1
6145 vpmaxsd (%edx), %xmm1, %xmm1
6149 vpmaxsd %xmm1, %xmm1, %xmm1
6153 vpmaxsw -485498096(%edx,%eax,4), %xmm1, %xmm1
6157 vpmaxsw 485498096(%edx,%eax,4), %xmm1, %xmm1
6161 vpmaxsw 485498096(%edx), %xmm1, %xmm1
6165 vpmaxsw 485498096, %xmm1, %xmm1
6169 vpmaxsw 64(%edx,%eax), %xmm1, %xmm1
6173 vpmaxsw (%edx), %xmm1, %xmm1
6177 vpmaxsw %xmm1, %xmm1, %xmm1
6181 vpmaxub -485498096(%edx,%eax,4), %xmm1, %xmm1
6185 vpmaxub 485498096(%edx,%eax,4), %xmm1, %xmm1
6189 vpmaxub 485498096(%edx), %xmm1, %xmm1
6193 vpmaxub 485498096, %xmm1, %xmm1
6197 vpmaxub 64(%edx,%eax), %xmm1, %xmm1
6201 vpmaxub (%edx), %xmm1, %xmm1
6205 vpmaxub %xmm1, %xmm1, %xmm1
6209 vpmaxud -485498096(%edx,%eax,4), %xmm1, %xmm1
6213 vpmaxud 485498096(%edx,%eax,4), %xmm1, %xmm1
6217 vpmaxud 485498096(%edx), %xmm1, %xmm1
6221 vpmaxud 485498096, %xmm1, %xmm1
6225 vpmaxud 64(%edx,%eax), %xmm1, %xmm1
6229 vpmaxud (%edx), %xmm1, %xmm1
6233 vpmaxud %xmm1, %xmm1, %xmm1
6237 vpmaxuw -485498096(%edx,%eax,4), %xmm1, %xmm1
6241 vpmaxuw 485498096(%edx,%eax,4), %xmm1, %xmm1
6245 vpmaxuw 485498096(%edx), %xmm1, %xmm1
6249 vpmaxuw 485498096, %xmm1, %xmm1
6253 vpmaxuw 64(%edx,%eax), %xmm1, %xmm1
6257 vpmaxuw (%edx), %xmm1, %xmm1
6261 vpmaxuw %xmm1, %xmm1, %xmm1
6265 vpminsb -485498096(%edx,%eax,4), %xmm1, %xmm1
6269 vpminsb 485498096(%edx,%eax,4), %xmm1, %xmm1
6273 vpminsb 485498096(%edx), %xmm1, %xmm1
6277 vpminsb 485498096, %xmm1, %xmm1
6281 vpminsb 64(%edx,%eax), %xmm1, %xmm1
6285 vpminsb (%edx), %xmm1, %xmm1
6289 vpminsb %xmm1, %xmm1, %xmm1
6293 vpminsd -485498096(%edx,%eax,4), %xmm1, %xmm1
6297 vpminsd 485498096(%edx,%eax,4), %xmm1, %xmm1
6301 vpminsd 485498096(%edx), %xmm1, %xmm1
6305 vpminsd 485498096, %xmm1, %xmm1
6309 vpminsd 64(%edx,%eax), %xmm1, %xmm1
6313 vpminsd (%edx), %xmm1, %xmm1
6317 vpminsd %xmm1, %xmm1, %xmm1
6321 vpminsw -485498096(%edx,%eax,4), %xmm1, %xmm1
6325 vpminsw 485498096(%edx,%eax,4), %xmm1, %xmm1
6329 vpminsw 485498096(%edx), %xmm1, %xmm1
6333 vpminsw 485498096, %xmm1, %xmm1
6337 vpminsw 64(%edx,%eax), %xmm1, %xmm1
6341 vpminsw (%edx), %xmm1, %xmm1
6345 vpminsw %xmm1, %xmm1, %xmm1
6349 vpminub -485498096(%edx,%eax,4), %xmm1, %xmm1
6353 vpminub 485498096(%edx,%eax,4), %xmm1, %xmm1
6357 vpminub 485498096(%edx), %xmm1, %xmm1
6361 vpminub 485498096, %xmm1, %xmm1
6365 vpminub 64(%edx,%eax), %xmm1, %xmm1
6369 vpminub (%edx), %xmm1, %xmm1
6373 vpminub %xmm1, %xmm1, %xmm1
6377 vpminud -485498096(%edx,%eax,4), %xmm1, %xmm1
6381 vpminud 485498096(%edx,%eax,4), %xmm1, %xmm1
6385 vpminud 485498096(%edx), %xmm1, %xmm1
6389 vpminud 485498096, %xmm1, %xmm1
6393 vpminud 64(%edx,%eax), %xmm1, %xmm1
6397 vpminud (%edx), %xmm1, %xmm1
6401 vpminud %xmm1, %xmm1, %xmm1
6405 vpminuw -485498096(%edx,%eax,4), %xmm1, %xmm1
6409 vpminuw 485498096(%edx,%eax,4), %xmm1, %xmm1
6413 vpminuw 485498096(%edx), %xmm1, %xmm1
6417 vpminuw 485498096, %xmm1, %xmm1
6421 vpminuw 64(%edx,%eax), %xmm1, %xmm1
6425 vpminuw (%edx), %xmm1, %xmm1
6429 vpminuw %xmm1, %xmm1, %xmm1
6433 vpmovsxbd -485498096(%edx,%eax,4), %xmm1
6437 vpmovsxbd 485498096(%edx,%eax,4), %xmm1
6441 vpmovsxbd 485498096(%edx), %xmm1
6445 vpmovsxbd 485498096, %xmm1
6449 vpmovsxbd 64(%edx,%eax), %xmm1
6453 vpmovsxbd (%edx), %xmm1
6457 vpmovsxbd %xmm1, %xmm1
6461 vpmovsxbq -485498096(%edx,%eax,4), %xmm1
6465 vpmovsxbq 485498096(%edx,%eax,4), %xmm1
6469 vpmovsxbq 485498096(%edx), %xmm1
6473 vpmovsxbq 485498096, %xmm1
6477 vpmovsxbq 64(%edx,%eax), %xmm1
6481 vpmovsxbq (%edx), %xmm1
6485 vpmovsxbq %xmm1, %xmm1
6489 vpmovsxbw -485498096(%edx,%eax,4), %xmm1
6493 vpmovsxbw 485498096(%edx,%eax,4), %xmm1
6497 vpmovsxbw 485498096(%edx), %xmm1
6501 vpmovsxbw 485498096, %xmm1
6505 vpmovsxbw 64(%edx,%eax), %xmm1
6509 vpmovsxbw (%edx), %xmm1
6513 vpmovsxbw %xmm1, %xmm1
6517 vpmovsxdq -485498096(%edx,%eax,4), %xmm1
6521 vpmovsxdq 485498096(%edx,%eax,4), %xmm1
6525 vpmovsxdq 485498096(%edx), %xmm1
6529 vpmovsxdq 485498096, %xmm1
6533 vpmovsxdq 64(%edx,%eax), %xmm1
6537 vpmovsxdq (%edx), %xmm1
6541 vpmovsxdq %xmm1, %xmm1
6545 vpmovsxwd -485498096(%edx,%eax,4), %xmm1
6549 vpmovsxwd 485498096(%edx,%eax,4), %xmm1
6553 vpmovsxwd 485498096(%edx), %xmm1
6557 vpmovsxwd 485498096, %xmm1
6561 vpmovsxwd 64(%edx,%eax), %xmm1
6565 vpmovsxwd (%edx), %xmm1
6569 vpmovsxwd %xmm1, %xmm1
6573 vpmovsxwq -485498096(%edx,%eax,4), %xmm1
6577 vpmovsxwq 485498096(%edx,%eax,4), %xmm1
6581 vpmovsxwq 485498096(%edx), %xmm1
6585 vpmovsxwq 485498096, %xmm1
6589 vpmovsxwq 64(%edx,%eax), %xmm1
6593 vpmovsxwq (%edx), %xmm1
6597 vpmovsxwq %xmm1, %xmm1
6601 vpmovzxbd -485498096(%edx,%eax,4), %xmm1
6605 vpmovzxbd 485498096(%edx,%eax,4), %xmm1
6609 vpmovzxbd 485498096(%edx), %xmm1
6613 vpmovzxbd 485498096, %xmm1
6617 vpmovzxbd 64(%edx,%eax), %xmm1
6621 vpmovzxbd (%edx), %xmm1
6625 vpmovzxbd %xmm1, %xmm1
6629 vpmovzxbq -485498096(%edx,%eax,4), %xmm1
6633 vpmovzxbq 485498096(%edx,%eax,4), %xmm1
6637 vpmovzxbq 485498096(%edx), %xmm1
6641 vpmovzxbq 485498096, %xmm1
6645 vpmovzxbq 64(%edx,%eax), %xmm1
6649 vpmovzxbq (%edx), %xmm1
6653 vpmovzxbq %xmm1, %xmm1
6657 vpmovzxbw -485498096(%edx,%eax,4), %xmm1
6661 vpmovzxbw 485498096(%edx,%eax,4), %xmm1
6665 vpmovzxbw 485498096(%edx), %xmm1
6669 vpmovzxbw 485498096, %xmm1
6673 vpmovzxbw 64(%edx,%eax), %xmm1
6677 vpmovzxbw (%edx), %xmm1
6681 vpmovzxbw %xmm1, %xmm1
6685 vpmovzxdq -485498096(%edx,%eax,4), %xmm1
6689 vpmovzxdq 485498096(%edx,%eax,4), %xmm1
6693 vpmovzxdq 485498096(%edx), %xmm1
6697 vpmovzxdq 485498096, %xmm1
6701 vpmovzxdq 64(%edx,%eax), %xmm1
6705 vpmovzxdq (%edx), %xmm1
6709 vpmovzxdq %xmm1, %xmm1
6713 vpmovzxwd -485498096(%edx,%eax,4), %xmm1
6717 vpmovzxwd 485498096(%edx,%eax,4), %xmm1
6721 vpmovzxwd 485498096(%edx), %xmm1
6725 vpmovzxwd 485498096, %xmm1
6729 vpmovzxwd 64(%edx,%eax), %xmm1
6733 vpmovzxwd (%edx), %xmm1
6737 vpmovzxwd %xmm1, %xmm1
6741 vpmovzxwq -485498096(%edx,%eax,4), %xmm1
6745 vpmovzxwq 485498096(%edx,%eax,4), %xmm1
6749 vpmovzxwq 485498096(%edx), %xmm1
6753 vpmovzxwq 485498096, %xmm1
6757 vpmovzxwq 64(%edx,%eax), %xmm1
6761 vpmovzxwq (%edx), %xmm1
6765 vpmovzxwq %xmm1, %xmm1
6769 vpmuldq -485498096(%edx,%eax,4), %xmm1, %xmm1
6773 vpmuldq 485498096(%edx,%eax,4), %xmm1, %xmm1
6777 vpmuldq 485498096(%edx), %xmm1, %xmm1
6781 vpmuldq 485498096, %xmm1, %xmm1
6785 vpmuldq 64(%edx,%eax), %xmm1, %xmm1
6789 vpmuldq (%edx), %xmm1, %xmm1
6793 vpmuldq %xmm1, %xmm1, %xmm1
6797 vpmulhrsw -485498096(%edx,%eax,4), %xmm1, %xmm1
6801 vpmulhrsw 485498096(%edx,%eax,4), %xmm1, %xmm1
6805 vpmulhrsw 485498096(%edx), %xmm1, %xmm1
6809 vpmulhrsw 485498096, %xmm1, %xmm1
6813 vpmulhrsw 64(%edx,%eax), %xmm1, %xmm1
6817 vpmulhrsw (%edx), %xmm1, %xmm1
6821 vpmulhrsw %xmm1, %xmm1, %xmm1
6825 vpmulhuw -485498096(%edx,%eax,4), %xmm1, %xmm1
6829 vpmulhuw 485498096(%edx,%eax,4), %xmm1, %xmm1
6833 vpmulhuw 485498096(%edx), %xmm1, %xmm1
6837 vpmulhuw 485498096, %xmm1, %xmm1
6841 vpmulhuw 64(%edx,%eax), %xmm1, %xmm1
6845 vpmulhuw (%edx), %xmm1, %xmm1
6849 vpmulhuw %xmm1, %xmm1, %xmm1
6853 vpmulhw -485498096(%edx,%eax,4), %xmm1, %xmm1
6857 vpmulhw 485498096(%edx,%eax,4), %xmm1, %xmm1
6861 vpmulhw 485498096(%edx), %xmm1, %xmm1
6865 vpmulhw 485498096, %xmm1, %xmm1
6869 vpmulhw 64(%edx,%eax), %xmm1, %xmm1
6873 vpmulhw (%edx), %xmm1, %xmm1
6877 vpmulhw %xmm1, %xmm1, %xmm1
6881 vpmulld -485498096(%edx,%eax,4), %xmm1, %xmm1
6885 vpmulld 485498096(%edx,%eax,4), %xmm1, %xmm1
6889 vpmulld 485498096(%edx), %xmm1, %xmm1
6893 vpmulld 485498096, %xmm1, %xmm1
6897 vpmulld 64(%edx,%eax), %xmm1, %xmm1
6901 vpmulld (%edx), %xmm1, %xmm1
6905 vpmulld %xmm1, %xmm1, %xmm1
6909 vpmullw -485498096(%edx,%eax,4), %xmm1, %xmm1
6913 vpmullw 485498096(%edx,%eax,4), %xmm1, %xmm1
6917 vpmullw 485498096(%edx), %xmm1, %xmm1
6921 vpmullw 485498096, %xmm1, %xmm1
6925 vpmullw 64(%edx,%eax), %xmm1, %xmm1
6929 vpmullw (%edx), %xmm1, %xmm1
6933 vpmullw %xmm1, %xmm1, %xmm1
6937 vpmuludq -485498096(%edx,%eax,4), %xmm1, %xmm1
6941 vpmuludq 485498096(%edx,%eax,4), %xmm1, %xmm1
6945 vpmuludq 485498096(%edx), %xmm1, %xmm1
6949 vpmuludq 485498096, %xmm1, %xmm1
6953 vpmuludq 64(%edx,%eax), %xmm1, %xmm1
6957 vpmuludq (%edx), %xmm1, %xmm1
6961 vpmuludq %xmm1, %xmm1, %xmm1
6965 vpor -485498096(%edx,%eax,4), %xmm1, %xmm1
6969 vpor 485498096(%edx,%eax,4), %xmm1, %xmm1
6973 vpor 485498096(%edx), %xmm1, %xmm1
6977 vpor 485498096, %xmm1, %xmm1
6981 vpor 64(%edx,%eax), %xmm1, %xmm1
6985 vpor (%edx), %xmm1, %xmm1
6989 vpor %xmm1, %xmm1, %xmm1
6993 vpsadbw -485498096(%edx,%eax,4), %xmm1, %xmm1
6997 vpsadbw 485498096(%edx,%eax,4), %xmm1, %xmm1
7001 vpsadbw 485498096(%edx), %xmm1, %xmm1
7005 vpsadbw 485498096, %xmm1, %xmm1
7009 vpsadbw 64(%edx,%eax), %xmm1, %xmm1
7013 vpsadbw (%edx), %xmm1, %xmm1
7017 vpsadbw %xmm1, %xmm1, %xmm1
7021 vpshufb -485498096(%edx,%eax,4), %xmm1, %xmm1
7025 vpshufb 485498096(%edx,%eax,4), %xmm1, %xmm1
7029 vpshufb 485498096(%edx), %xmm1, %xmm1
7033 vpshufb 485498096, %xmm1, %xmm1
7037 vpshufb 64(%edx,%eax), %xmm1, %xmm1
7041 vpshufb (%edx), %xmm1, %xmm1
7045 vpshufb %xmm1, %xmm1, %xmm1
7049 vpshufd $0, -485498096(%edx,%eax,4), %xmm1
7053 vpshufd $0, 485498096(%edx,%eax,4), %xmm1
7057 vpshufd $0, 485498096(%edx), %xmm1
7061 vpshufd $0, 485498096, %xmm1
7065 vpshufd $0, 64(%edx,%eax), %xmm1
7069 vpshufd $0, (%edx), %xmm1
7073 vpshufd $0, %xmm1, %xmm1
7077 vpshufhw $0, -485498096(%edx,%eax,4), %xmm1
7081 vpshufhw $0, 485498096(%edx,%eax,4), %xmm1
7085 vpshufhw $0, 485498096(%edx), %xmm1
7089 vpshufhw $0, 485498096, %xmm1
7093 vpshufhw $0, 64(%edx,%eax), %xmm1
7097 vpshufhw $0, (%edx), %xmm1
7101 vpshufhw $0, %xmm1, %xmm1
7105 vpshuflw $0, -485498096(%edx,%eax,4), %xmm1
7109 vpshuflw $0, 485498096(%edx,%eax,4), %xmm1
7113 vpshuflw $0, 485498096(%edx), %xmm1
7117 vpshuflw $0, 485498096, %xmm1
7121 vpshuflw $0, 64(%edx,%eax), %xmm1
7125 vpshuflw $0, (%edx), %xmm1
7129 vpshuflw $0, %xmm1, %xmm1
7133 vpsignb -485498096(%edx,%eax,4), %xmm1, %xmm1
7137 vpsignb 485498096(%edx,%eax,4), %xmm1, %xmm1
7141 vpsignb 485498096(%edx), %xmm1, %xmm1
7145 vpsignb 485498096, %xmm1, %xmm1
7149 vpsignb 64(%edx,%eax), %xmm1, %xmm1
7153 vpsignb (%edx), %xmm1, %xmm1
7157 vpsignb %xmm1, %xmm1, %xmm1
7161 vpsignd -485498096(%edx,%eax,4), %xmm1, %xmm1
7165 vpsignd 485498096(%edx,%eax,4), %xmm1, %xmm1
7169 vpsignd 485498096(%edx), %xmm1, %xmm1
7173 vpsignd 485498096, %xmm1, %xmm1
7177 vpsignd 64(%edx,%eax), %xmm1, %xmm1
7181 vpsignd (%edx), %xmm1, %xmm1
7185 vpsignd %xmm1, %xmm1, %xmm1
7189 vpsignw -485498096(%edx,%eax,4), %xmm1, %xmm1
7193 vpsignw 485498096(%edx,%eax,4), %xmm1, %xmm1
7197 vpsignw 485498096(%edx), %xmm1, %xmm1
7201 vpsignw 485498096, %xmm1, %xmm1
7205 vpsignw 64(%edx,%eax), %xmm1, %xmm1
7209 vpsignw (%edx), %xmm1, %xmm1
7213 vpsignw %xmm1, %xmm1, %xmm1
7217 vpslld $0, %xmm1, %xmm1
7221 vpslld -485498096(%edx,%eax,4), %xmm1, %xmm1
7225 vpslld 485498096(%edx,%eax,4), %xmm1, %xmm1
7229 vpslld 485498096(%edx), %xmm1, %xmm1
7233 vpslld 485498096, %xmm1, %xmm1
7237 vpslld 64(%edx,%eax), %xmm1, %xmm1
7241 vpslld (%edx), %xmm1, %xmm1
7245 vpslldq $0, %xmm1, %xmm1
7249 vpslld %xmm1, %xmm1, %xmm1
7253 vpsllq $0, %xmm1, %xmm1
7257 vpsllq -485498096(%edx,%eax,4), %xmm1, %xmm1
7261 vpsllq 485498096(%edx,%eax,4), %xmm1, %xmm1
7265 vpsllq 485498096(%edx), %xmm1, %xmm1
7269 vpsllq 485498096, %xmm1, %xmm1
7273 vpsllq 64(%edx,%eax), %xmm1, %xmm1
7277 vpsllq (%edx), %xmm1, %xmm1
7281 vpsllq %xmm1, %xmm1, %xmm1
7285 vpsllw $0, %xmm1, %xmm1
7289 vpsllw -485498096(%edx,%eax,4), %xmm1, %xmm1
7293 vpsllw 485498096(%edx,%eax,4), %xmm1, %xmm1
7297 vpsllw 485498096(%edx), %xmm1, %xmm1
7301 vpsllw 485498096, %xmm1, %xmm1
7305 vpsllw 64(%edx,%eax), %xmm1, %xmm1
7309 vpsllw (%edx), %xmm1, %xmm1
7313 vpsllw %xmm1, %xmm1, %xmm1
7317 vpsrad $0, %xmm1, %xmm1
7321 vpsrad -485498096(%edx,%eax,4), %xmm1, %xmm1
7325 vpsrad 485498096(%edx,%eax,4), %xmm1, %xmm1
7329 vpsrad 485498096(%edx), %xmm1, %xmm1
7333 vpsrad 485498096, %xmm1, %xmm1
7337 vpsrad 64(%edx,%eax), %xmm1, %xmm1
7341 vpsrad (%edx), %xmm1, %xmm1
7345 vpsrad %xmm1, %xmm1, %xmm1
7349 vpsraw $0, %xmm1, %xmm1
7353 vpsraw -485498096(%edx,%eax,4), %xmm1, %xmm1
7357 vpsraw 485498096(%edx,%eax,4), %xmm1, %xmm1
7361 vpsraw 485498096(%edx), %xmm1, %xmm1
7365 vpsraw 485498096, %xmm1, %xmm1
7369 vpsraw 64(%edx,%eax), %xmm1, %xmm1
7373 vpsraw (%edx), %xmm1, %xmm1
7377 vpsraw %xmm1, %xmm1, %xmm1
7381 vpsrld $0, %xmm1, %xmm1
7385 vpsrld -485498096(%edx,%eax,4), %xmm1, %xmm1
7389 vpsrld 485498096(%edx,%eax,4), %xmm1, %xmm1
7393 vpsrld 485498096(%edx), %xmm1, %xmm1
7397 vpsrld 485498096, %xmm1, %xmm1
7401 vpsrld 64(%edx,%eax), %xmm1, %xmm1
7405 vpsrld (%edx), %xmm1, %xmm1
7409 vpsrldq $0, %xmm1, %xmm1
7413 vpsrld %xmm1, %xmm1, %xmm1
7417 vpsrlq $0, %xmm1, %xmm1
7421 vpsrlq -485498096(%edx,%eax,4), %xmm1, %xmm1
7425 vpsrlq 485498096(%edx,%eax,4), %xmm1, %xmm1
7429 vpsrlq 485498096(%edx), %xmm1, %xmm1
7433 vpsrlq 485498096, %xmm1, %xmm1
7437 vpsrlq 64(%edx,%eax), %xmm1, %xmm1
7441 vpsrlq (%edx), %xmm1, %xmm1
7445 vpsrlq %xmm1, %xmm1, %xmm1
7449 vpsrlw $0, %xmm1, %xmm1
7453 vpsrlw -485498096(%edx,%eax,4), %xmm1, %xmm1
7457 vpsrlw 485498096(%edx,%eax,4), %xmm1, %xmm1
7461 vpsrlw 485498096(%edx), %xmm1, %xmm1
7465 vpsrlw 485498096, %xmm1, %xmm1
7469 vpsrlw 64(%edx,%eax), %xmm1, %xmm1
7473 vpsrlw (%edx), %xmm1, %xmm1
7477 vpsrlw %xmm1, %xmm1, %xmm1
7481 vpsubb -485498096(%edx,%eax,4), %xmm1, %xmm1
7485 vpsubb 485498096(%edx,%eax,4), %xmm1, %xmm1
7489 vpsubb 485498096(%edx), %xmm1, %xmm1
7493 vpsubb 485498096, %xmm1, %xmm1
7497 vpsubb 64(%edx,%eax), %xmm1, %xmm1
7501 vpsubb (%edx), %xmm1, %xmm1
7505 vpsubb %xmm1, %xmm1, %xmm1
7509 vpsubd -485498096(%edx,%eax,4), %xmm1, %xmm1
7513 vpsubd 485498096(%edx,%eax,4), %xmm1, %xmm1
7517 vpsubd 485498096(%edx), %xmm1, %xmm1
7521 vpsubd 485498096, %xmm1, %xmm1
7525 vpsubd 64(%edx,%eax), %xmm1, %xmm1
7529 vpsubd (%edx), %xmm1, %xmm1
7533 vpsubd %xmm1, %xmm1, %xmm1
7537 vpsubq -485498096(%edx,%eax,4), %xmm1, %xmm1
7541 vpsubq 485498096(%edx,%eax,4), %xmm1, %xmm1
7545 vpsubq 485498096(%edx), %xmm1, %xmm1
7549 vpsubq 485498096, %xmm1, %xmm1
7553 vpsubq 64(%edx,%eax), %xmm1, %xmm1
7557 vpsubq (%edx), %xmm1, %xmm1
7561 vpsubq %xmm1, %xmm1, %xmm1
7565 vpsubsb -485498096(%edx,%eax,4), %xmm1, %xmm1
7569 vpsubsb 485498096(%edx,%eax,4), %xmm1, %xmm1
7573 vpsubsb 485498096(%edx), %xmm1, %xmm1
7577 vpsubsb 485498096, %xmm1, %xmm1
7581 vpsubsb 64(%edx,%eax), %xmm1, %xmm1
7585 vpsubsb (%edx), %xmm1, %xmm1
7589 vpsubsb %xmm1, %xmm1, %xmm1
7593 vpsubsw -485498096(%edx,%eax,4), %xmm1, %xmm1
7597 vpsubsw 485498096(%edx,%eax,4), %xmm1, %xmm1
7601 vpsubsw 485498096(%edx), %xmm1, %xmm1
7605 vpsubsw 485498096, %xmm1, %xmm1
7609 vpsubsw 64(%edx,%eax), %xmm1, %xmm1
7613 vpsubsw (%edx), %xmm1, %xmm1
7617 vpsubsw %xmm1, %xmm1, %xmm1
7621 vpsubusb -485498096(%edx,%eax,4), %xmm1, %xmm1
7625 vpsubusb 485498096(%edx,%eax,4), %xmm1, %xmm1
7629 vpsubusb 485498096(%edx), %xmm1, %xmm1
7633 vpsubusb 485498096, %xmm1, %xmm1
7637 vpsubusb 64(%edx,%eax), %xmm1, %xmm1
7641 vpsubusb (%edx), %xmm1, %xmm1
7645 vpsubusb %xmm1, %xmm1, %xmm1
7649 vpsubusw -485498096(%edx,%eax,4), %xmm1, %xmm1
7653 vpsubusw 485498096(%edx,%eax,4), %xmm1, %xmm1
7657 vpsubusw 485498096(%edx), %xmm1, %xmm1
7661 vpsubusw 485498096, %xmm1, %xmm1
7665 vpsubusw 64(%edx,%eax), %xmm1, %xmm1
7669 vpsubusw (%edx), %xmm1, %xmm1
7673 vpsubusw %xmm1, %xmm1, %xmm1
7677 vpsubw -485498096(%edx,%eax,4), %xmm1, %xmm1
7681 vpsubw 485498096(%edx,%eax,4), %xmm1, %xmm1
7685 vpsubw 485498096(%edx), %xmm1, %xmm1
7689 vpsubw 485498096, %xmm1, %xmm1
7693 vpsubw 64(%edx,%eax), %xmm1, %xmm1
7697 vpsubw (%edx), %xmm1, %xmm1
7701 vpsubw %xmm1, %xmm1, %xmm1
7705 vptest -485498096(%edx,%eax,4), %xmm1
7709 vptest 485498096(%edx,%eax,4), %xmm1
7721 vptest 485498096(%edx), %xmm1
7729 vptest 485498096, %xmm1
7737 vptest 64(%edx,%eax), %xmm1
7745 vptest (%edx), %xmm1
7753 vptest %xmm1, %xmm1
7761 vpunpckhbw -485498096(%edx,%eax,4), %xmm1, %xmm1
7765 vpunpckhbw 485498096(%edx,%eax,4), %xmm1, %xmm1
7769 vpunpckhbw 485498096(%edx), %xmm1, %xmm1
7773 vpunpckhbw 485498096, %xmm1, %xmm1
7777 vpunpckhbw 64(%edx,%eax), %xmm1, %xmm1
7781 vpunpckhbw (%edx), %xmm1, %xmm1
7785 vpunpckhbw %xmm1, %xmm1, %xmm1
7789 vpunpckhdq -485498096(%edx,%eax,4), %xmm1, %xmm1
7793 vpunpckhdq 485498096(%edx,%eax,4), %xmm1, %xmm1
7797 vpunpckhdq 485498096(%edx), %xmm1, %xmm1
7801 vpunpckhdq 485498096, %xmm1, %xmm1
7805 vpunpckhdq 64(%edx,%eax), %xmm1, %xmm1
7809 vpunpckhdq (%edx), %xmm1, %xmm1
7813 vpunpckhdq %xmm1, %xmm1, %xmm1
7817 vpunpckhqdq -485498096(%edx,%eax,4), %xmm1, %xmm1
7821 vpunpckhqdq 485498096(%edx,%eax,4), %xmm1, %xmm1
7825 vpunpckhqdq 485498096(%edx), %xmm1, %xmm1
7829 vpunpckhqdq 485498096, %xmm1, %xmm1
7833 vpunpckhqdq 64(%edx,%eax), %xmm1, %xmm1
7837 vpunpckhqdq (%edx), %xmm1, %xmm1
7841 vpunpckhqdq %xmm1, %xmm1, %xmm1
7845 vpunpckhwd -485498096(%edx,%eax,4), %xmm1, %xmm1
7849 vpunpckhwd 485498096(%edx,%eax,4), %xmm1, %xmm1
7853 vpunpckhwd 485498096(%edx), %xmm1, %xmm1
7857 vpunpckhwd 485498096, %xmm1, %xmm1
7861 vpunpckhwd 64(%edx,%eax), %xmm1, %xmm1
7865 vpunpckhwd (%edx), %xmm1, %xmm1
7869 vpunpckhwd %xmm1, %xmm1, %xmm1
7873 vpunpcklbw -485498096(%edx,%eax,4), %xmm1, %xmm1
7877 vpunpcklbw 485498096(%edx,%eax,4), %xmm1, %xmm1
7881 vpunpcklbw 485498096(%edx), %xmm1, %xmm1
7885 vpunpcklbw 485498096, %xmm1, %xmm1
7889 vpunpcklbw 64(%edx,%eax), %xmm1, %xmm1
7893 vpunpcklbw (%edx), %xmm1, %xmm1
7897 vpunpcklbw %xmm1, %xmm1, %xmm1
7901 vpunpckldq -485498096(%edx,%eax,4), %xmm1, %xmm1
7905 vpunpckldq 485498096(%edx,%eax,4), %xmm1, %xmm1
7909 vpunpckldq 485498096(%edx), %xmm1, %xmm1
7913 vpunpckldq 485498096, %xmm1, %xmm1
7917 vpunpckldq 64(%edx,%eax), %xmm1, %xmm1
7921 vpunpckldq (%edx), %xmm1, %xmm1
7925 vpunpckldq %xmm1, %xmm1, %xmm1
7929 vpunpcklqdq -485498096(%edx,%eax,4), %xmm1, %xmm1
7933 vpunpcklqdq 485498096(%edx,%eax,4), %xmm1, %xmm1
7937 vpunpcklqdq 485498096(%edx), %xmm1, %xmm1
7941 vpunpcklqdq 485498096, %xmm1, %xmm1
7945 vpunpcklqdq 64(%edx,%eax), %xmm1, %xmm1
7949 vpunpcklqdq (%edx), %xmm1, %xmm1
7953 vpunpcklqdq %xmm1, %xmm1, %xmm1
7957 vpunpcklwd -485498096(%edx,%eax,4), %xmm1, %xmm1
7961 vpunpcklwd 485498096(%edx,%eax,4), %xmm1, %xmm1
7965 vpunpcklwd 485498096(%edx), %xmm1, %xmm1
7969 vpunpcklwd 485498096, %xmm1, %xmm1
7973 vpunpcklwd 64(%edx,%eax), %xmm1, %xmm1
7977 vpunpcklwd (%edx), %xmm1, %xmm1
7981 vpunpcklwd %xmm1, %xmm1, %xmm1
7985 vpxor -485498096(%edx,%eax,4), %xmm1, %xmm1
7989 vpxor 485498096(%edx,%eax,4), %xmm1, %xmm1
7993 vpxor 485498096(%edx), %xmm1, %xmm1
7997 vpxor 485498096, %xmm1, %xmm1
8001 vpxor 64(%edx,%eax), %xmm1, %xmm1
8005 vpxor (%edx), %xmm1, %xmm1
8009 vpxor %xmm1, %xmm1, %xmm1
8013 vrcpps -485498096(%edx,%eax,4), %xmm1
8017 vrcpps 485498096(%edx,%eax,4), %xmm1
8029 vrcpps 485498096(%edx), %xmm1
8037 vrcpps 485498096, %xmm1
8045 vrcpps 64(%edx,%eax), %xmm1
8053 vrcpps (%edx), %xmm1
8061 vrcpps %xmm1, %xmm1
8069 vrcpss -485498096(%edx,%eax,4), %xmm1, %xmm1
8073 vrcpss 485498096(%edx,%eax,4), %xmm1, %xmm1
8077 vrcpss 485498096(%edx), %xmm1, %xmm1
8081 vrcpss 485498096, %xmm1, %xmm1
8085 vrcpss 64(%edx,%eax), %xmm1, %xmm1
8089 vrcpss (%edx), %xmm1, %xmm1
8093 vrcpss %xmm1, %xmm1, %xmm1
8097 vroundpd $0, -485498096(%edx,%eax,4), %xmm1
8101 vroundpd $0, 485498096(%edx,%eax,4), %xmm1
8113 vroundpd $0, 485498096(%edx), %xmm1
8121 vroundpd $0, 485498096, %xmm1
8129 vroundpd $0, 64(%edx,%eax), %xmm1
8137 vroundpd $0, (%edx), %xmm1
8145 vroundpd $0, %xmm1, %xmm1
8153 vroundps $0, -485498096(%edx,%eax,4), %xmm1
8157 vroundps $0, 485498096(%edx,%eax,4), %xmm1
8169 vroundps $0, 485498096(%edx), %xmm1
8177 vroundps $0, 485498096, %xmm1
8185 vroundps $0, 64(%edx,%eax), %xmm1
8193 vroundps $0, (%edx), %xmm1
8201 vroundps $0, %xmm1, %xmm1
8209 vroundsd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
8213 vroundsd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
8217 vroundsd $0, 485498096(%edx), %xmm1, %xmm1
8221 vroundsd $0, 485498096, %xmm1, %xmm1
8225 vroundsd $0, 64(%edx,%eax), %xmm1, %xmm1
8229 vroundsd $0, (%edx), %xmm1, %xmm1
8233 vroundsd $0, %xmm1, %xmm1, %xmm1
8237 vroundss $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
8241 vroundss $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
8245 vroundss $0, 485498096(%edx), %xmm1, %xmm1
8249 vroundss $0, 485498096, %xmm1, %xmm1
8253 vroundss $0, 64(%edx,%eax), %xmm1, %xmm1
8257 vroundss $0, (%edx), %xmm1, %xmm1
8261 vroundss $0, %xmm1, %xmm1, %xmm1
8265 vrsqrtps -485498096(%edx,%eax,4), %xmm1
8269 vrsqrtps 485498096(%edx,%eax,4), %xmm1
8281 vrsqrtps 485498096(%edx), %xmm1
8289 vrsqrtps 485498096, %xmm1
8297 vrsqrtps 64(%edx,%eax), %xmm1
8305 vrsqrtps (%edx), %xmm1
8313 vrsqrtps %xmm1, %xmm1
8321 vrsqrtss -485498096(%edx,%eax,4), %xmm1, %xmm1
8325 vrsqrtss 485498096(%edx,%eax,4), %xmm1, %xmm1
8329 vrsqrtss 485498096(%edx), %xmm1, %xmm1
8333 vrsqrtss 485498096, %xmm1, %xmm1
8337 vrsqrtss 64(%edx,%eax), %xmm1, %xmm1
8341 vrsqrtss (%edx), %xmm1, %xmm1
8345 vrsqrtss %xmm1, %xmm1, %xmm1
8349 vshufpd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
8353 vshufpd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
8365 vshufpd $0, 485498096(%edx), %xmm1, %xmm1
8373 vshufpd $0, 485498096, %xmm1, %xmm1
8381 vshufpd $0, 64(%edx,%eax), %xmm1, %xmm1
8389 vshufpd $0, (%edx), %xmm1, %xmm1
8397 vshufpd $0, %xmm1, %xmm1, %xmm1
8405 vshufps $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
8409 vshufps $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
8421 vshufps $0, 485498096(%edx), %xmm1, %xmm1
8429 vshufps $0, 485498096, %xmm1, %xmm1
8437 vshufps $0, 64(%edx,%eax), %xmm1, %xmm1
8445 vshufps $0, (%edx), %xmm1, %xmm1
8453 vshufps $0, %xmm1, %xmm1, %xmm1
8461 vsqrtpd -485498096(%edx,%eax,4), %xmm1
8465 vsqrtpd 485498096(%edx,%eax,4), %xmm1
8477 vsqrtpd 485498096(%edx), %xmm1
8485 vsqrtpd 485498096, %xmm1
8493 vsqrtpd 64(%edx,%eax), %xmm1
8501 vsqrtpd (%edx), %xmm1
8509 vsqrtpd %xmm1, %xmm1
8517 vsqrtps -485498096(%edx,%eax,4), %xmm1
8521 vsqrtps 485498096(%edx,%eax,4), %xmm1
8533 vsqrtps 485498096(%edx), %xmm1
8541 vsqrtps 485498096, %xmm1
8549 vsqrtps 64(%edx,%eax), %xmm1
8557 vsqrtps (%edx), %xmm1
8565 vsqrtps %xmm1, %xmm1
8573 vsqrtsd -485498096(%edx,%eax,4), %xmm1, %xmm1
8577 vsqrtsd 485498096(%edx,%eax,4), %xmm1, %xmm1
8581 vsqrtsd 485498096(%edx), %xmm1, %xmm1
8585 vsqrtsd 485498096, %xmm1, %xmm1
8589 vsqrtsd 64(%edx,%eax), %xmm1, %xmm1
8593 vsqrtsd (%edx), %xmm1, %xmm1
8597 vsqrtsd %xmm1, %xmm1, %xmm1
8601 vsqrtss -485498096(%edx,%eax,4), %xmm1, %xmm1
8605 vsqrtss 485498096(%edx,%eax,4), %xmm1, %xmm1
8609 vsqrtss 485498096(%edx), %xmm1, %xmm1
8613 vsqrtss 485498096, %xmm1, %xmm1
8617 vsqrtss 64(%edx,%eax), %xmm1, %xmm1
8621 vsqrtss (%edx), %xmm1, %xmm1
8625 vsqrtss %xmm1, %xmm1, %xmm1
8653 vsubpd -485498096(%edx,%eax,4), %xmm1, %xmm1
8657 vsubpd 485498096(%edx,%eax,4), %xmm1, %xmm1
8669 vsubpd 485498096(%edx), %xmm1, %xmm1
8677 vsubpd 485498096, %xmm1, %xmm1
8685 vsubpd 64(%edx,%eax), %xmm1, %xmm1
8693 vsubpd (%edx), %xmm1, %xmm1
8701 vsubpd %xmm1, %xmm1, %xmm1
8709 vsubps -485498096(%edx,%eax,4), %xmm1, %xmm1
8713 vsubps 485498096(%edx,%eax,4), %xmm1, %xmm1
8725 vsubps 485498096(%edx), %xmm1, %xmm1
8733 vsubps 485498096, %xmm1, %xmm1
8741 vsubps 64(%edx,%eax), %xmm1, %xmm1
8749 vsubps (%edx), %xmm1, %xmm1
8757 vsubps %xmm1, %xmm1, %xmm1
8765 vsubsd -485498096(%edx,%eax,4), %xmm1, %xmm1
8769 vsubsd 485498096(%edx,%eax,4), %xmm1, %xmm1
8773 vsubsd 485498096(%edx), %xmm1, %xmm1
8777 vsubsd 485498096, %xmm1, %xmm1
8781 vsubsd 64(%edx,%eax), %xmm1, %xmm1
8785 vsubsd (%edx), %xmm1, %xmm1
8789 vsubsd %xmm1, %xmm1, %xmm1
8793 vsubss -485498096(%edx,%eax,4), %xmm1, %xmm1
8797 vsubss 485498096(%edx,%eax,4), %xmm1, %xmm1
8801 vsubss 485498096(%edx), %xmm1, %xmm1
8805 vsubss 485498096, %xmm1, %xmm1
8809 vsubss 64(%edx,%eax), %xmm1, %xmm1
8813 vsubss (%edx), %xmm1, %xmm1
8817 vsubss %xmm1, %xmm1, %xmm1
8821 vtestpd -485498096(%edx,%eax,4), %xmm1
8825 vtestpd 485498096(%edx,%eax,4), %xmm1
8837 vtestpd 485498096(%edx), %xmm1
8845 vtestpd 485498096, %xmm1
8853 vtestpd 64(%edx,%eax), %xmm1
8861 vtestpd (%edx), %xmm1
8869 vtestpd %xmm1, %xmm1
8877 vtestps -485498096(%edx,%eax,4), %xmm1
8881 vtestps 485498096(%edx,%eax,4), %xmm1
8893 vtestps 485498096(%edx), %xmm1
8901 vtestps 485498096, %xmm1
8909 vtestps 64(%edx,%eax), %xmm1
8917 vtestps (%edx), %xmm1
8925 vtestps %xmm1, %xmm1
8933 vucomisd -485498096(%edx,%eax,4), %xmm1
8937 vucomisd 485498096(%edx,%eax,4), %xmm1
8941 vucomisd 485498096(%edx), %xmm1
8945 vucomisd 485498096, %xmm1
8949 vucomisd 64(%edx,%eax), %xmm1
8953 vucomisd (%edx), %xmm1
8957 vucomisd %xmm1, %xmm1
8961 vucomiss -485498096(%edx,%eax,4), %xmm1
8965 vucomiss 485498096(%edx,%eax,4), %xmm1
8969 vucomiss 485498096(%edx), %xmm1
8973 vucomiss 485498096, %xmm1
8977 vucomiss 64(%edx,%eax), %xmm1
8981 vucomiss (%edx), %xmm1
8985 vucomiss %xmm1, %xmm1
8989 vunpckhpd -485498096(%edx,%eax,4), %xmm1, %xmm1
8993 vunpckhpd 485498096(%edx,%eax,4), %xmm1, %xmm1
9005 vunpckhpd 485498096(%edx), %xmm1, %xmm1
9013 vunpckhpd 485498096, %xmm1, %xmm1
9021 vunpckhpd 64(%edx,%eax), %xmm1, %xmm1
9029 vunpckhpd (%edx), %xmm1, %xmm1
9037 vunpckhpd %xmm1, %xmm1, %xmm1
9045 vunpckhps -485498096(%edx,%eax,4), %xmm1, %xmm1
9049 vunpckhps 485498096(%edx,%eax,4), %xmm1, %xmm1
9061 vunpckhps 485498096(%edx), %xmm1, %xmm1
9069 vunpckhps 485498096, %xmm1, %xmm1
9077 vunpckhps 64(%edx,%eax), %xmm1, %xmm1
9085 vunpckhps (%edx), %xmm1, %xmm1
9093 vunpckhps %xmm1, %xmm1, %xmm1
9101 vunpcklpd -485498096(%edx,%eax,4), %xmm1, %xmm1
9105 vunpcklpd 485498096(%edx,%eax,4), %xmm1, %xmm1
9117 vunpcklpd 485498096(%edx), %xmm1, %xmm1
9125 vunpcklpd 485498096, %xmm1, %xmm1
9133 vunpcklpd 64(%edx,%eax), %xmm1, %xmm1
9141 vunpcklpd (%edx), %xmm1, %xmm1
9149 vunpcklpd %xmm1, %xmm1, %xmm1
9157 vunpcklps -485498096(%edx,%eax,4), %xmm1, %xmm1
9161 vunpcklps 485498096(%edx,%eax,4), %xmm1, %xmm1
9173 vunpcklps 485498096(%edx), %xmm1, %xmm1
9181 vunpcklps 485498096, %xmm1, %xmm1
9189 vunpcklps 64(%edx,%eax), %xmm1, %xmm1
9197 vunpcklps (%edx), %xmm1, %xmm1
9205 vunpcklps %xmm1, %xmm1, %xmm1
9213 vxorpd -485498096(%edx,%eax,4), %xmm1, %xmm1
9217 vxorpd 485498096(%edx,%eax,4), %xmm1, %xmm1
9229 vxorpd 485498096(%edx), %xmm1, %xmm1
9237 vxorpd 485498096, %xmm1, %xmm1
9245 vxorpd 64(%edx,%eax), %xmm1, %xmm1
9253 vxorpd (%edx), %xmm1, %xmm1
9261 vxorpd %xmm1, %xmm1, %xmm1
9269 vxorps -485498096(%edx,%eax,4), %xmm1, %xmm1
9273 vxorps 485498096(%edx,%eax,4), %xmm1, %xmm1
9285 vxorps 485498096(%edx), %xmm1, %xmm1
9293 vxorps 485498096, %xmm1, %xmm1
9301 vxorps 64(%edx,%eax), %xmm1, %xmm1
9309 vxorps (%edx), %xmm1, %xmm1
9317 vxorps %xmm1, %xmm1, %xmm1