• Home
  • Raw
  • Download

Lines Matching refs:edx

5 vaddpd -485498096(%edx,%eax,4), %xmm1, %xmm1 
9 {vex3} vaddpd -485498096(%edx,%eax,4), %xmm1, %xmm1
13 vaddpd 485498096(%edx,%eax,4), %xmm1, %xmm1
17 vaddpd -485498096(%edx,%eax,4), %ymm4, %ymm4
21 vaddpd 485498096(%edx,%eax,4), %ymm4, %ymm4
25 vaddpd 485498096(%edx), %xmm1, %xmm1
29 vaddpd 485498096(%edx), %ymm4, %ymm4
41 vaddpd 64(%edx,%eax), %xmm1, %xmm1
45 vaddpd 64(%edx,%eax), %ymm4, %ymm4
49 vaddpd (%edx), %xmm1, %xmm1
53 vaddpd (%edx), %ymm4, %ymm4
65 vaddps -485498096(%edx,%eax,4), %xmm1, %xmm1
69 vaddps 485498096(%edx,%eax,4), %xmm1, %xmm1
73 vaddps -485498096(%edx,%eax,4), %ymm4, %ymm4
77 vaddps 485498096(%edx,%eax,4), %ymm4, %ymm4
81 vaddps 485498096(%edx), %xmm1, %xmm1
85 vaddps 485498096(%edx), %ymm4, %ymm4
97 vaddps 64(%edx,%eax), %xmm1, %xmm1
101 vaddps 64(%edx,%eax), %ymm4, %ymm4
105 vaddps (%edx), %xmm1, %xmm1
109 vaddps (%edx), %ymm4, %ymm4
121 vaddsd -485498096(%edx,%eax,4), %xmm1, %xmm1
125 vaddsd 485498096(%edx,%eax,4), %xmm1, %xmm1
129 vaddsd 485498096(%edx), %xmm1, %xmm1
137 vaddsd 64(%edx,%eax), %xmm1, %xmm1
141 vaddsd (%edx), %xmm1, %xmm1
149 vaddss -485498096(%edx,%eax,4), %xmm1, %xmm1
153 vaddss 485498096(%edx,%eax,4), %xmm1, %xmm1
157 vaddss 485498096(%edx), %xmm1, %xmm1
165 vaddss 64(%edx,%eax), %xmm1, %xmm1
169 vaddss (%edx), %xmm1, %xmm1
177 vaddsubpd -485498096(%edx,%eax,4), %xmm1, %xmm1
181 vaddsubpd 485498096(%edx,%eax,4), %xmm1, %xmm1
185 vaddsubpd -485498096(%edx,%eax,4), %ymm4, %ymm4
189 vaddsubpd 485498096(%edx,%eax,4), %ymm4, %ymm4
193 vaddsubpd 485498096(%edx), %xmm1, %xmm1
197 vaddsubpd 485498096(%edx), %ymm4, %ymm4
209 vaddsubpd 64(%edx,%eax), %xmm1, %xmm1
213 vaddsubpd 64(%edx,%eax), %ymm4, %ymm4
217 vaddsubpd (%edx), %xmm1, %xmm1
221 vaddsubpd (%edx), %ymm4, %ymm4
233 vaddsubps -485498096(%edx,%eax,4), %xmm1, %xmm1
237 vaddsubps 485498096(%edx,%eax,4), %xmm1, %xmm1
241 vaddsubps -485498096(%edx,%eax,4), %ymm4, %ymm4
245 vaddsubps 485498096(%edx,%eax,4), %ymm4, %ymm4
249 vaddsubps 485498096(%edx), %xmm1, %xmm1
253 vaddsubps 485498096(%edx), %ymm4, %ymm4
265 vaddsubps 64(%edx,%eax), %xmm1, %xmm1
269 vaddsubps 64(%edx,%eax), %ymm4, %ymm4
273 vaddsubps (%edx), %xmm1, %xmm1
277 vaddsubps (%edx), %ymm4, %ymm4
289 vandnpd -485498096(%edx,%eax,4), %xmm1, %xmm1
293 vandnpd 485498096(%edx,%eax,4), %xmm1, %xmm1
297 vandnpd -485498096(%edx,%eax,4), %ymm4, %ymm4
301 vandnpd 485498096(%edx,%eax,4), %ymm4, %ymm4
305 vandnpd 485498096(%edx), %xmm1, %xmm1
309 vandnpd 485498096(%edx), %ymm4, %ymm4
321 vandnpd 64(%edx,%eax), %xmm1, %xmm1
325 vandnpd 64(%edx,%eax), %ymm4, %ymm4
329 vandnpd (%edx), %xmm1, %xmm1
333 vandnpd (%edx), %ymm4, %ymm4
345 vandnps -485498096(%edx,%eax,4), %xmm1, %xmm1
349 vandnps 485498096(%edx,%eax,4), %xmm1, %xmm1
353 vandnps -485498096(%edx,%eax,4), %ymm4, %ymm4
357 vandnps 485498096(%edx,%eax,4), %ymm4, %ymm4
361 vandnps 485498096(%edx), %xmm1, %xmm1
365 vandnps 485498096(%edx), %ymm4, %ymm4
377 vandnps 64(%edx,%eax), %xmm1, %xmm1
381 vandnps 64(%edx,%eax), %ymm4, %ymm4
385 vandnps (%edx), %xmm1, %xmm1
389 vandnps (%edx), %ymm4, %ymm4
401 vandpd -485498096(%edx,%eax,4), %xmm1, %xmm1
405 vandpd 485498096(%edx,%eax,4), %xmm1, %xmm1
409 vandpd -485498096(%edx,%eax,4), %ymm4, %ymm4
413 vandpd 485498096(%edx,%eax,4), %ymm4, %ymm4
417 vandpd 485498096(%edx), %xmm1, %xmm1
421 vandpd 485498096(%edx), %ymm4, %ymm4
433 vandpd 64(%edx,%eax), %xmm1, %xmm1
437 vandpd 64(%edx,%eax), %ymm4, %ymm4
441 vandpd (%edx), %xmm1, %xmm1
445 vandpd (%edx), %ymm4, %ymm4
457 vandps -485498096(%edx,%eax,4), %xmm1, %xmm1
461 vandps 485498096(%edx,%eax,4), %xmm1, %xmm1
465 vandps -485498096(%edx,%eax,4), %ymm4, %ymm4
469 vandps 485498096(%edx,%eax,4), %ymm4, %ymm4
473 vandps 485498096(%edx), %xmm1, %xmm1
477 vandps 485498096(%edx), %ymm4, %ymm4
489 vandps 64(%edx,%eax), %xmm1, %xmm1
493 vandps 64(%edx,%eax), %ymm4, %ymm4
497 vandps (%edx), %xmm1, %xmm1
501 vandps (%edx), %ymm4, %ymm4
513 vblendpd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
517 vblendpd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
521 vblendpd $0, -485498096(%edx,%eax,4), %ymm4, %ymm4
525 vblendpd $0, 485498096(%edx,%eax,4), %ymm4, %ymm4
529 vblendpd $0, 485498096(%edx), %xmm1, %xmm1
533 vblendpd $0, 485498096(%edx), %ymm4, %ymm4
545 vblendpd $0, 64(%edx,%eax), %xmm1, %xmm1
549 vblendpd $0, 64(%edx,%eax), %ymm4, %ymm4
553 vblendpd $0, (%edx), %xmm1, %xmm1
557 vblendpd $0, (%edx), %ymm4, %ymm4
569 vblendps $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
573 vblendps $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
577 vblendps $0, -485498096(%edx,%eax,4), %ymm4, %ymm4
581 vblendps $0, 485498096(%edx,%eax,4), %ymm4, %ymm4
585 vblendps $0, 485498096(%edx), %xmm1, %xmm1
589 vblendps $0, 485498096(%edx), %ymm4, %ymm4
601 vblendps $0, 64(%edx,%eax), %xmm1, %xmm1
605 vblendps $0, 64(%edx,%eax), %ymm4, %ymm4
609 vblendps $0, (%edx), %xmm1, %xmm1
613 vblendps $0, (%edx), %ymm4, %ymm4
625 vblendvpd %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
629 vblendvpd %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
633 vblendvpd %xmm1, 485498096(%edx), %xmm1, %xmm1
641 vblendvpd %xmm1, 64(%edx,%eax), %xmm1, %xmm1
645 vblendvpd %xmm1, (%edx), %xmm1, %xmm1
653 vblendvpd %ymm4, -485498096(%edx,%eax,4), %ymm4, %ymm4
657 vblendvpd %ymm4, 485498096(%edx,%eax,4), %ymm4, %ymm4
661 vblendvpd %ymm4, 485498096(%edx), %ymm4, %ymm4
669 vblendvpd %ymm4, 64(%edx,%eax), %ymm4, %ymm4
673 vblendvpd %ymm4, (%edx), %ymm4, %ymm4
681 vblendvps %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
685 vblendvps %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
689 vblendvps %xmm1, 485498096(%edx), %xmm1, %xmm1
697 vblendvps %xmm1, 64(%edx,%eax), %xmm1, %xmm1
701 vblendvps %xmm1, (%edx), %xmm1, %xmm1
709 vblendvps %ymm4, -485498096(%edx,%eax,4), %ymm4, %ymm4
713 vblendvps %ymm4, 485498096(%edx,%eax,4), %ymm4, %ymm4
717 vblendvps %ymm4, 485498096(%edx), %ymm4, %ymm4
725 vblendvps %ymm4, 64(%edx,%eax), %ymm4, %ymm4
729 vblendvps %ymm4, (%edx), %ymm4, %ymm4
737 vbroadcastf128 -485498096(%edx,%eax,4), %ymm4
741 vbroadcastf128 485498096(%edx,%eax,4), %ymm4
745 vbroadcastf128 485498096(%edx), %ymm4
753 vbroadcastf128 64(%edx,%eax), %ymm4
757 vbroadcastf128 (%edx), %ymm4
761 vbroadcastsd -485498096(%edx,%eax,4), %ymm4
765 vbroadcastsd 485498096(%edx,%eax,4), %ymm4
769 vbroadcastsd 485498096(%edx), %ymm4
777 vbroadcastsd 64(%edx,%eax), %ymm4
781 vbroadcastsd (%edx), %ymm4
785 vbroadcastss -485498096(%edx,%eax,4), %xmm1
789 vbroadcastss 485498096(%edx,%eax,4), %xmm1
793 vbroadcastss -485498096(%edx,%eax,4), %ymm4
797 vbroadcastss 485498096(%edx,%eax,4), %ymm4
801 vbroadcastss 485498096(%edx), %xmm1
805 vbroadcastss 485498096(%edx), %ymm4
817 vbroadcastss 64(%edx,%eax), %xmm1
821 vbroadcastss 64(%edx,%eax), %ymm4
825 vbroadcastss (%edx), %xmm1
829 vbroadcastss (%edx), %ymm4
833 vcmpeqpd -485498096(%edx,%eax,4), %xmm1, %xmm1
837 vcmpeqpd 485498096(%edx,%eax,4), %xmm1, %xmm1
841 vcmpeqpd -485498096(%edx,%eax,4), %ymm4, %ymm4
845 vcmpeqpd 485498096(%edx,%eax,4), %ymm4, %ymm4
849 vcmpeqpd 485498096(%edx), %xmm1, %xmm1
853 vcmpeqpd 485498096(%edx), %ymm4, %ymm4
865 vcmpeqpd 64(%edx,%eax), %xmm1, %xmm1
869 vcmpeqpd 64(%edx,%eax), %ymm4, %ymm4
873 vcmpeqpd (%edx), %xmm1, %xmm1
877 vcmpeqpd (%edx), %ymm4, %ymm4
889 vcmpeqps -485498096(%edx,%eax,4), %xmm1, %xmm1
893 vcmpeqps 485498096(%edx,%eax,4), %xmm1, %xmm1
897 vcmpeqps -485498096(%edx,%eax,4), %ymm4, %ymm4
901 vcmpeqps 485498096(%edx,%eax,4), %ymm4, %ymm4
905 vcmpeqps 485498096(%edx), %xmm1, %xmm1
909 vcmpeqps 485498096(%edx), %ymm4, %ymm4
921 vcmpeqps 64(%edx,%eax), %xmm1, %xmm1
925 vcmpeqps 64(%edx,%eax), %ymm4, %ymm4
929 vcmpeqps (%edx), %xmm1, %xmm1
933 vcmpeqps (%edx), %ymm4, %ymm4
945 vcmpeqsd -485498096(%edx,%eax,4), %xmm1, %xmm1
949 vcmpeqsd 485498096(%edx,%eax,4), %xmm1, %xmm1
953 vcmpeqsd 485498096(%edx), %xmm1, %xmm1
961 vcmpeqsd 64(%edx,%eax), %xmm1, %xmm1
965 vcmpeqsd (%edx), %xmm1, %xmm1
973 vcmpeqss -485498096(%edx,%eax,4), %xmm1, %xmm1
977 vcmpeqss 485498096(%edx,%eax,4), %xmm1, %xmm1
981 vcmpeqss 485498096(%edx), %xmm1, %xmm1
989 vcmpeqss 64(%edx,%eax), %xmm1, %xmm1
993 vcmpeqss (%edx), %xmm1, %xmm1
1001 vcomisd -485498096(%edx,%eax,4), %xmm1
1005 vcomisd 485498096(%edx,%eax,4), %xmm1
1009 vcomisd 485498096(%edx), %xmm1
1017 vcomisd 64(%edx,%eax), %xmm1
1021 vcomisd (%edx), %xmm1
1029 vcomiss -485498096(%edx,%eax,4), %xmm1
1033 vcomiss 485498096(%edx,%eax,4), %xmm1
1037 vcomiss 485498096(%edx), %xmm1
1045 vcomiss 64(%edx,%eax), %xmm1
1049 vcomiss (%edx), %xmm1
1057 vcvtdq2pd -485498096(%edx,%eax,4), %xmm1
1061 vcvtdq2pd 485498096(%edx,%eax,4), %xmm1
1065 vcvtdq2pd -485498096(%edx,%eax,4), %ymm4
1069 vcvtdq2pd 485498096(%edx,%eax,4), %ymm4
1073 vcvtdq2pd 485498096(%edx), %xmm1
1077 vcvtdq2pd 485498096(%edx), %ymm4
1089 vcvtdq2pd 64(%edx,%eax), %xmm1
1093 vcvtdq2pd 64(%edx,%eax), %ymm4
1097 vcvtdq2pd (%edx), %xmm1
1101 vcvtdq2pd (%edx), %ymm4
1113 vcvtdq2ps -485498096(%edx,%eax,4), %xmm1
1117 vcvtdq2ps 485498096(%edx,%eax,4), %xmm1
1121 vcvtdq2ps -485498096(%edx,%eax,4), %ymm4
1125 vcvtdq2ps 485498096(%edx,%eax,4), %ymm4
1129 vcvtdq2ps 485498096(%edx), %xmm1
1133 vcvtdq2ps 485498096(%edx), %ymm4
1145 vcvtdq2ps 64(%edx,%eax), %xmm1
1149 vcvtdq2ps 64(%edx,%eax), %ymm4
1153 vcvtdq2ps (%edx), %xmm1
1157 vcvtdq2ps (%edx), %ymm4
1169 vcvtpd2dqx -485498096(%edx,%eax,4), %xmm1
1173 vcvtpd2dqx 485498096(%edx,%eax,4), %xmm1
1177 vcvtpd2dqx 485498096(%edx), %xmm1
1185 vcvtpd2dqx 64(%edx,%eax), %xmm1
1189 vcvtpd2dqx (%edx), %xmm1
1197 vcvtpd2dqy -485498096(%edx,%eax,4), %xmm1
1201 vcvtpd2dqy 485498096(%edx,%eax,4), %xmm1
1205 vcvtpd2dqy 485498096(%edx), %xmm1
1213 vcvtpd2dqy 64(%edx,%eax), %xmm1
1217 vcvtpd2dqy (%edx), %xmm1
1225 vcvtpd2psx -485498096(%edx,%eax,4), %xmm1
1229 vcvtpd2psx 485498096(%edx,%eax,4), %xmm1
1233 vcvtpd2psx 485498096(%edx), %xmm1
1241 vcvtpd2psx 64(%edx,%eax), %xmm1
1245 vcvtpd2psx (%edx), %xmm1
1253 vcvtpd2psy -485498096(%edx,%eax,4), %xmm1
1257 vcvtpd2psy 485498096(%edx,%eax,4), %xmm1
1261 vcvtpd2psy 485498096(%edx), %xmm1
1269 vcvtpd2psy 64(%edx,%eax), %xmm1
1273 vcvtpd2psy (%edx), %xmm1
1281 vcvtps2dq -485498096(%edx,%eax,4), %xmm1
1285 vcvtps2dq 485498096(%edx,%eax,4), %xmm1
1289 vcvtps2dq -485498096(%edx,%eax,4), %ymm4
1293 vcvtps2dq 485498096(%edx,%eax,4), %ymm4
1297 vcvtps2dq 485498096(%edx), %xmm1
1301 vcvtps2dq 485498096(%edx), %ymm4
1313 vcvtps2dq 64(%edx,%eax), %xmm1
1317 vcvtps2dq 64(%edx,%eax), %ymm4
1321 vcvtps2dq (%edx), %xmm1
1325 vcvtps2dq (%edx), %ymm4
1337 vcvtps2pd -485498096(%edx,%eax,4), %xmm1
1341 vcvtps2pd 485498096(%edx,%eax,4), %xmm1
1345 vcvtps2pd -485498096(%edx,%eax,4), %ymm4
1349 vcvtps2pd 485498096(%edx,%eax,4), %ymm4
1353 vcvtps2pd 485498096(%edx), %xmm1
1357 vcvtps2pd 485498096(%edx), %ymm4
1369 vcvtps2pd 64(%edx,%eax), %xmm1
1373 vcvtps2pd 64(%edx,%eax), %ymm4
1377 vcvtps2pd (%edx), %xmm1
1381 vcvtps2pd (%edx), %ymm4
1393 vcvtsd2ss -485498096(%edx,%eax,4), %xmm1, %xmm1
1397 vcvtsd2ss 485498096(%edx,%eax,4), %xmm1, %xmm1
1401 vcvtsd2ss 485498096(%edx), %xmm1, %xmm1
1409 vcvtsd2ss 64(%edx,%eax), %xmm1, %xmm1
1413 vcvtsd2ss (%edx), %xmm1, %xmm1
1421 vcvtsi2sdl -485498096(%edx,%eax,4), %xmm1, %xmm1
1425 vcvtsi2sdl 485498096(%edx,%eax,4), %xmm1, %xmm1
1429 vcvtsi2sdl 485498096(%edx), %xmm1, %xmm1
1437 vcvtsi2sdl 64(%edx,%eax), %xmm1, %xmm1
1441 vcvtsi2sdl (%edx), %xmm1, %xmm1
1445 vcvtsi2ssl -485498096(%edx,%eax,4), %xmm1, %xmm1
1449 vcvtsi2ssl 485498096(%edx,%eax,4), %xmm1, %xmm1
1453 vcvtsi2ssl 485498096(%edx), %xmm1, %xmm1
1461 vcvtsi2ssl 64(%edx,%eax), %xmm1, %xmm1
1465 vcvtsi2ssl (%edx), %xmm1, %xmm1
1469 vcvtss2sd -485498096(%edx,%eax,4), %xmm1, %xmm1
1473 vcvtss2sd 485498096(%edx,%eax,4), %xmm1, %xmm1
1477 vcvtss2sd 485498096(%edx), %xmm1, %xmm1
1485 vcvtss2sd 64(%edx,%eax), %xmm1, %xmm1
1489 vcvtss2sd (%edx), %xmm1, %xmm1
1497 vcvttpd2dqx -485498096(%edx,%eax,4), %xmm1
1501 vcvttpd2dqx 485498096(%edx,%eax,4), %xmm1
1505 vcvttpd2dqx 485498096(%edx), %xmm1
1513 vcvttpd2dqx 64(%edx,%eax), %xmm1
1517 vcvttpd2dqx (%edx), %xmm1
1525 vcvttpd2dqy -485498096(%edx,%eax,4), %xmm1
1529 vcvttpd2dqy 485498096(%edx,%eax,4), %xmm1
1533 vcvttpd2dqy 485498096(%edx), %xmm1
1541 vcvttpd2dqy 64(%edx,%eax), %xmm1
1545 vcvttpd2dqy (%edx), %xmm1
1553 vcvttps2dq -485498096(%edx,%eax,4), %xmm1
1557 vcvttps2dq 485498096(%edx,%eax,4), %xmm1
1561 vcvttps2dq -485498096(%edx,%eax,4), %ymm4
1565 vcvttps2dq 485498096(%edx,%eax,4), %ymm4
1569 vcvttps2dq 485498096(%edx), %xmm1
1573 vcvttps2dq 485498096(%edx), %ymm4
1585 vcvttps2dq 64(%edx,%eax), %xmm1
1589 vcvttps2dq 64(%edx,%eax), %ymm4
1593 vcvttps2dq (%edx), %xmm1
1597 vcvttps2dq (%edx), %ymm4
1609 vdivpd -485498096(%edx,%eax,4), %xmm1, %xmm1
1613 vdivpd 485498096(%edx,%eax,4), %xmm1, %xmm1
1617 vdivpd -485498096(%edx,%eax,4), %ymm4, %ymm4
1621 vdivpd 485498096(%edx,%eax,4), %ymm4, %ymm4
1625 vdivpd 485498096(%edx), %xmm1, %xmm1
1629 vdivpd 485498096(%edx), %ymm4, %ymm4
1641 vdivpd 64(%edx,%eax), %xmm1, %xmm1
1645 vdivpd 64(%edx,%eax), %ymm4, %ymm4
1649 vdivpd (%edx), %xmm1, %xmm1
1653 vdivpd (%edx), %ymm4, %ymm4
1665 vdivps -485498096(%edx,%eax,4), %xmm1, %xmm1
1669 vdivps 485498096(%edx,%eax,4), %xmm1, %xmm1
1673 vdivps -485498096(%edx,%eax,4), %ymm4, %ymm4
1677 vdivps 485498096(%edx,%eax,4), %ymm4, %ymm4
1681 vdivps 485498096(%edx), %xmm1, %xmm1
1685 vdivps 485498096(%edx), %ymm4, %ymm4
1697 vdivps 64(%edx,%eax), %xmm1, %xmm1
1701 vdivps 64(%edx,%eax), %ymm4, %ymm4
1705 vdivps (%edx), %xmm1, %xmm1
1709 vdivps (%edx), %ymm4, %ymm4
1721 vdivsd -485498096(%edx,%eax,4), %xmm1, %xmm1
1725 vdivsd 485498096(%edx,%eax,4), %xmm1, %xmm1
1729 vdivsd 485498096(%edx), %xmm1, %xmm1
1737 vdivsd 64(%edx,%eax), %xmm1, %xmm1
1741 vdivsd (%edx), %xmm1, %xmm1
1749 vdivss -485498096(%edx,%eax,4), %xmm1, %xmm1
1753 vdivss 485498096(%edx,%eax,4), %xmm1, %xmm1
1757 vdivss 485498096(%edx), %xmm1, %xmm1
1765 vdivss 64(%edx,%eax), %xmm1, %xmm1
1769 vdivss (%edx), %xmm1, %xmm1
1777 vdppd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
1781 vdppd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
1785 vdppd $0, 485498096(%edx), %xmm1, %xmm1
1793 vdppd $0, 64(%edx,%eax), %xmm1, %xmm1
1797 vdppd $0, (%edx), %xmm1, %xmm1
1805 vdpps $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
1809 vdpps $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
1813 vdpps $0, -485498096(%edx,%eax,4), %ymm4, %ymm4
1817 vdpps $0, 485498096(%edx,%eax,4), %ymm4, %ymm4
1821 vdpps $0, 485498096(%edx), %xmm1, %xmm1
1825 vdpps $0, 485498096(%edx), %ymm4, %ymm4
1837 vdpps $0, 64(%edx,%eax), %xmm1, %xmm1
1841 vdpps $0, 64(%edx,%eax), %ymm4, %ymm4
1845 vdpps $0, (%edx), %xmm1, %xmm1
1849 vdpps $0, (%edx), %ymm4, %ymm4
1865 vextractf128 $0, %ymm4, 485498096(%edx)
1869 vextractf128 $0, %ymm4, -485498096(%edx,%eax,4)
1873 vextractf128 $0, %ymm4, 485498096(%edx,%eax,4)
1877 vextractf128 $0, %ymm4, 64(%edx,%eax)
1881 vextractf128 $0, %ymm4, (%edx)
1893 vextractps $0, %xmm1, 485498096(%edx)
1897 vextractps $0, %xmm1, -485498096(%edx,%eax,4)
1901 vextractps $0, %xmm1, 485498096(%edx,%eax,4)
1905 vextractps $0, %xmm1, 64(%edx,%eax)
1909 vextractps $0, %xmm1, (%edx)
1913 vhaddpd -485498096(%edx,%eax,4), %xmm1, %xmm1
1917 vhaddpd 485498096(%edx,%eax,4), %xmm1, %xmm1
1921 vhaddpd -485498096(%edx,%eax,4), %ymm4, %ymm4
1925 vhaddpd 485498096(%edx,%eax,4), %ymm4, %ymm4
1929 vhaddpd 485498096(%edx), %xmm1, %xmm1
1933 vhaddpd 485498096(%edx), %ymm4, %ymm4
1945 vhaddpd 64(%edx,%eax), %xmm1, %xmm1
1949 vhaddpd 64(%edx,%eax), %ymm4, %ymm4
1953 vhaddpd (%edx), %xmm1, %xmm1
1957 vhaddpd (%edx), %ymm4, %ymm4
1969 vhaddps -485498096(%edx,%eax,4), %xmm1, %xmm1
1973 vhaddps 485498096(%edx,%eax,4), %xmm1, %xmm1
1977 vhaddps -485498096(%edx,%eax,4), %ymm4, %ymm4
1981 vhaddps 485498096(%edx,%eax,4), %ymm4, %ymm4
1985 vhaddps 485498096(%edx), %xmm1, %xmm1
1989 vhaddps 485498096(%edx), %ymm4, %ymm4
2001 vhaddps 64(%edx,%eax), %xmm1, %xmm1
2005 vhaddps 64(%edx,%eax), %ymm4, %ymm4
2009 vhaddps (%edx), %xmm1, %xmm1
2013 vhaddps (%edx), %ymm4, %ymm4
2025 vhsubpd -485498096(%edx,%eax,4), %xmm1, %xmm1
2029 vhsubpd 485498096(%edx,%eax,4), %xmm1, %xmm1
2033 vhsubpd -485498096(%edx,%eax,4), %ymm4, %ymm4
2037 vhsubpd 485498096(%edx,%eax,4), %ymm4, %ymm4
2041 vhsubpd 485498096(%edx), %xmm1, %xmm1
2045 vhsubpd 485498096(%edx), %ymm4, %ymm4
2057 vhsubpd 64(%edx,%eax), %xmm1, %xmm1
2061 vhsubpd 64(%edx,%eax), %ymm4, %ymm4
2065 vhsubpd (%edx), %xmm1, %xmm1
2069 vhsubpd (%edx), %ymm4, %ymm4
2081 vhsubps -485498096(%edx,%eax,4), %xmm1, %xmm1
2085 vhsubps 485498096(%edx,%eax,4), %xmm1, %xmm1
2089 vhsubps -485498096(%edx,%eax,4), %ymm4, %ymm4
2093 vhsubps 485498096(%edx,%eax,4), %ymm4, %ymm4
2097 vhsubps 485498096(%edx), %xmm1, %xmm1
2101 vhsubps 485498096(%edx), %ymm4, %ymm4
2113 vhsubps 64(%edx,%eax), %xmm1, %xmm1
2117 vhsubps 64(%edx,%eax), %ymm4, %ymm4
2121 vhsubps (%edx), %xmm1, %xmm1
2125 vhsubps (%edx), %ymm4, %ymm4
2137 vinsertf128 $0, -485498096(%edx,%eax,4), %ymm4, %ymm4
2141 vinsertf128 $0, 485498096(%edx,%eax,4), %ymm4, %ymm4
2145 vinsertf128 $0, 485498096(%edx), %ymm4, %ymm4
2153 vinsertf128 $0, 64(%edx,%eax), %ymm4, %ymm4
2157 vinsertf128 $0, (%edx), %ymm4, %ymm4
2165 vinsertps $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
2169 vinsertps $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
2173 vinsertps $0, 485498096(%edx), %xmm1, %xmm1
2181 vinsertps $0, 64(%edx,%eax), %xmm1, %xmm1
2185 vinsertps $0, (%edx), %xmm1, %xmm1
2193 vlddqu -485498096(%edx,%eax,4), %xmm1
2197 vlddqu 485498096(%edx,%eax,4), %xmm1
2201 vlddqu -485498096(%edx,%eax,4), %ymm4
2205 vlddqu 485498096(%edx,%eax,4), %ymm4
2209 vlddqu 485498096(%edx), %xmm1
2213 vlddqu 485498096(%edx), %ymm4
2225 vlddqu 64(%edx,%eax), %xmm1
2229 vlddqu 64(%edx,%eax), %ymm4
2233 vlddqu (%edx), %xmm1
2237 vlddqu (%edx), %ymm4
2241 vldmxcsr -485498096(%edx,%eax,4)
2245 vldmxcsr 485498096(%edx,%eax,4)
2249 vldmxcsr 485498096(%edx)
2257 vldmxcsr 64(%edx,%eax)
2261 vldmxcsr (%edx)
2269 vmaskmovpd -485498096(%edx,%eax,4), %xmm1, %xmm1
2273 vmaskmovpd 485498096(%edx,%eax,4), %xmm1, %xmm1
2277 vmaskmovpd -485498096(%edx,%eax,4), %ymm4, %ymm4
2281 vmaskmovpd 485498096(%edx,%eax,4), %ymm4, %ymm4
2285 vmaskmovpd 485498096(%edx), %xmm1, %xmm1
2289 vmaskmovpd 485498096(%edx), %ymm4, %ymm4
2301 vmaskmovpd 64(%edx,%eax), %xmm1, %xmm1
2305 vmaskmovpd 64(%edx,%eax), %ymm4, %ymm4
2309 vmaskmovpd (%edx), %xmm1, %xmm1
2313 vmaskmovpd (%edx), %ymm4, %ymm4
2321 vmaskmovpd %xmm1, %xmm1, 485498096(%edx)
2325 vmaskmovpd %xmm1, %xmm1, -485498096(%edx,%eax,4)
2329 vmaskmovpd %xmm1, %xmm1, 485498096(%edx,%eax,4)
2333 vmaskmovpd %xmm1, %xmm1, 64(%edx,%eax)
2337 vmaskmovpd %xmm1, %xmm1, (%edx)
2345 vmaskmovpd %ymm4, %ymm4, 485498096(%edx)
2349 vmaskmovpd %ymm4, %ymm4, -485498096(%edx,%eax,4)
2353 vmaskmovpd %ymm4, %ymm4, 485498096(%edx,%eax,4)
2357 vmaskmovpd %ymm4, %ymm4, 64(%edx,%eax)
2361 vmaskmovpd %ymm4, %ymm4, (%edx)
2365 vmaskmovps -485498096(%edx,%eax,4), %xmm1, %xmm1
2369 vmaskmovps 485498096(%edx,%eax,4), %xmm1, %xmm1
2373 vmaskmovps -485498096(%edx,%eax,4), %ymm4, %ymm4
2377 vmaskmovps 485498096(%edx,%eax,4), %ymm4, %ymm4
2381 vmaskmovps 485498096(%edx), %xmm1, %xmm1
2385 vmaskmovps 485498096(%edx), %ymm4, %ymm4
2397 vmaskmovps 64(%edx,%eax), %xmm1, %xmm1
2401 vmaskmovps 64(%edx,%eax), %ymm4, %ymm4
2405 vmaskmovps (%edx), %xmm1, %xmm1
2409 vmaskmovps (%edx), %ymm4, %ymm4
2417 vmaskmovps %xmm1, %xmm1, 485498096(%edx)
2421 vmaskmovps %xmm1, %xmm1, -485498096(%edx,%eax,4)
2425 vmaskmovps %xmm1, %xmm1, 485498096(%edx,%eax,4)
2429 vmaskmovps %xmm1, %xmm1, 64(%edx,%eax)
2433 vmaskmovps %xmm1, %xmm1, (%edx)
2441 vmaskmovps %ymm4, %ymm4, 485498096(%edx)
2445 vmaskmovps %ymm4, %ymm4, -485498096(%edx,%eax,4)
2449 vmaskmovps %ymm4, %ymm4, 485498096(%edx,%eax,4)
2453 vmaskmovps %ymm4, %ymm4, 64(%edx,%eax)
2457 vmaskmovps %ymm4, %ymm4, (%edx)
2461 vmaxpd -485498096(%edx,%eax,4), %xmm1, %xmm1
2465 vmaxpd 485498096(%edx,%eax,4), %xmm1, %xmm1
2469 vmaxpd -485498096(%edx,%eax,4), %ymm4, %ymm4
2473 vmaxpd 485498096(%edx,%eax,4), %ymm4, %ymm4
2477 vmaxpd 485498096(%edx), %xmm1, %xmm1
2481 vmaxpd 485498096(%edx), %ymm4, %ymm4
2493 vmaxpd 64(%edx,%eax), %xmm1, %xmm1
2497 vmaxpd 64(%edx,%eax), %ymm4, %ymm4
2501 vmaxpd (%edx), %xmm1, %xmm1
2505 vmaxpd (%edx), %ymm4, %ymm4
2517 vmaxps -485498096(%edx,%eax,4), %xmm1, %xmm1
2521 vmaxps 485498096(%edx,%eax,4), %xmm1, %xmm1
2525 vmaxps -485498096(%edx,%eax,4), %ymm4, %ymm4
2529 vmaxps 485498096(%edx,%eax,4), %ymm4, %ymm4
2533 vmaxps 485498096(%edx), %xmm1, %xmm1
2537 vmaxps 485498096(%edx), %ymm4, %ymm4
2549 vmaxps 64(%edx,%eax), %xmm1, %xmm1
2553 vmaxps 64(%edx,%eax), %ymm4, %ymm4
2557 vmaxps (%edx), %xmm1, %xmm1
2561 vmaxps (%edx), %ymm4, %ymm4
2573 vmaxsd -485498096(%edx,%eax,4), %xmm1, %xmm1
2577 vmaxsd 485498096(%edx,%eax,4), %xmm1, %xmm1
2581 vmaxsd 485498096(%edx), %xmm1, %xmm1
2589 vmaxsd 64(%edx,%eax), %xmm1, %xmm1
2593 vmaxsd (%edx), %xmm1, %xmm1
2601 vmaxss -485498096(%edx,%eax,4), %xmm1, %xmm1
2605 vmaxss 485498096(%edx,%eax,4), %xmm1, %xmm1
2609 vmaxss 485498096(%edx), %xmm1, %xmm1
2617 vmaxss 64(%edx,%eax), %xmm1, %xmm1
2621 vmaxss (%edx), %xmm1, %xmm1
2629 vminpd -485498096(%edx,%eax,4), %xmm1, %xmm1
2633 vminpd 485498096(%edx,%eax,4), %xmm1, %xmm1
2637 vminpd -485498096(%edx,%eax,4), %ymm4, %ymm4
2641 vminpd 485498096(%edx,%eax,4), %ymm4, %ymm4
2645 vminpd 485498096(%edx), %xmm1, %xmm1
2649 vminpd 485498096(%edx), %ymm4, %ymm4
2661 vminpd 64(%edx,%eax), %xmm1, %xmm1
2665 vminpd 64(%edx,%eax), %ymm4, %ymm4
2669 vminpd (%edx), %xmm1, %xmm1
2673 vminpd (%edx), %ymm4, %ymm4
2685 vminps -485498096(%edx,%eax,4), %xmm1, %xmm1
2689 vminps 485498096(%edx,%eax,4), %xmm1, %xmm1
2693 vminps -485498096(%edx,%eax,4), %ymm4, %ymm4
2697 vminps 485498096(%edx,%eax,4), %ymm4, %ymm4
2701 vminps 485498096(%edx), %xmm1, %xmm1
2705 vminps 485498096(%edx), %ymm4, %ymm4
2717 vminps 64(%edx,%eax), %xmm1, %xmm1
2721 vminps 64(%edx,%eax), %ymm4, %ymm4
2725 vminps (%edx), %xmm1, %xmm1
2729 vminps (%edx), %ymm4, %ymm4
2741 vminsd -485498096(%edx,%eax,4), %xmm1, %xmm1
2745 vminsd 485498096(%edx,%eax,4), %xmm1, %xmm1
2749 vminsd 485498096(%edx), %xmm1, %xmm1
2757 vminsd 64(%edx,%eax), %xmm1, %xmm1
2761 vminsd (%edx), %xmm1, %xmm1
2769 vminss -485498096(%edx,%eax,4), %xmm1, %xmm1
2773 vminss 485498096(%edx,%eax,4), %xmm1, %xmm1
2777 vminss 485498096(%edx), %xmm1, %xmm1
2785 vminss 64(%edx,%eax), %xmm1, %xmm1
2789 vminss (%edx), %xmm1, %xmm1
2797 vmovapd -485498096(%edx,%eax,4), %xmm1
2801 vmovapd 485498096(%edx,%eax,4), %xmm1
2805 vmovapd -485498096(%edx,%eax,4), %ymm4
2809 vmovapd 485498096(%edx,%eax,4), %ymm4
2813 vmovapd 485498096(%edx), %xmm1
2817 vmovapd 485498096(%edx), %ymm4
2829 vmovapd 64(%edx,%eax), %xmm1
2833 vmovapd 64(%edx,%eax), %ymm4
2837 vmovapd (%edx), %xmm1
2841 vmovapd (%edx), %ymm4
2849 vmovapd %xmm1, 485498096(%edx)
2853 vmovapd %xmm1, -485498096(%edx,%eax,4)
2857 vmovapd %xmm1, 485498096(%edx,%eax,4)
2861 vmovapd %xmm1, 64(%edx,%eax)
2865 vmovapd %xmm1, (%edx)
2877 vmovapd %ymm4, 485498096(%edx)
2881 vmovapd %ymm4, -485498096(%edx,%eax,4)
2885 vmovapd %ymm4, 485498096(%edx,%eax,4)
2889 vmovapd %ymm4, 64(%edx,%eax)
2893 vmovapd %ymm4, (%edx)
2901 vmovaps -485498096(%edx,%eax,4), %xmm1
2905 vmovaps 485498096(%edx,%eax,4), %xmm1
2909 vmovaps -485498096(%edx,%eax,4), %ymm4
2913 vmovaps 485498096(%edx,%eax,4), %ymm4
2917 vmovaps 485498096(%edx), %xmm1
2921 vmovaps 485498096(%edx), %ymm4
2933 vmovaps 64(%edx,%eax), %xmm1
2937 vmovaps 64(%edx,%eax), %ymm4
2941 vmovaps (%edx), %xmm1
2945 vmovaps (%edx), %ymm4
2953 vmovaps %xmm1, 485498096(%edx)
2957 vmovaps %xmm1, -485498096(%edx,%eax,4)
2961 vmovaps %xmm1, 485498096(%edx,%eax,4)
2965 vmovaps %xmm1, 64(%edx,%eax)
2969 vmovaps %xmm1, (%edx)
2981 vmovaps %ymm4, 485498096(%edx)
2985 vmovaps %ymm4, -485498096(%edx,%eax,4)
2989 vmovaps %ymm4, 485498096(%edx,%eax,4)
2993 vmovaps %ymm4, 64(%edx,%eax)
2997 vmovaps %ymm4, (%edx)
3005 vmovd -485498096(%edx,%eax,4), %xmm1
3009 vmovd 485498096(%edx,%eax,4), %xmm1
3013 vmovd 485498096(%edx), %xmm1
3021 vmovd 64(%edx,%eax), %xmm1
3025 vmovddup -485498096(%edx,%eax,4), %xmm1
3029 vmovddup 485498096(%edx,%eax,4), %xmm1
3033 vmovddup -485498096(%edx,%eax,4), %ymm4
3037 vmovddup 485498096(%edx,%eax,4), %ymm4
3041 vmovddup 485498096(%edx), %xmm1
3045 vmovddup 485498096(%edx), %ymm4
3057 vmovddup 64(%edx,%eax), %xmm1
3061 vmovddup 64(%edx,%eax), %ymm4
3065 vmovddup (%edx), %xmm1
3069 vmovddup (%edx), %ymm4
3081 vmovd (%edx), %xmm1
3085 vmovdqa -485498096(%edx,%eax,4), %xmm1
3089 vmovdqa 485498096(%edx,%eax,4), %xmm1
3093 vmovdqa -485498096(%edx,%eax,4), %ymm4
3097 vmovdqa 485498096(%edx,%eax,4), %ymm4
3101 vmovdqa 485498096(%edx), %xmm1
3105 vmovdqa 485498096(%edx), %ymm4
3117 vmovdqa 64(%edx,%eax), %xmm1
3121 vmovdqa 64(%edx,%eax), %ymm4
3125 vmovdqa (%edx), %xmm1
3129 vmovdqa (%edx), %ymm4
3137 vmovdqa %xmm1, 485498096(%edx)
3141 vmovdqa %xmm1, -485498096(%edx,%eax,4)
3145 vmovdqa %xmm1, 485498096(%edx,%eax,4)
3149 vmovdqa %xmm1, 64(%edx,%eax)
3153 vmovdqa %xmm1, (%edx)
3165 vmovdqa %ymm4, 485498096(%edx)
3169 vmovdqa %ymm4, -485498096(%edx,%eax,4)
3173 vmovdqa %ymm4, 485498096(%edx,%eax,4)
3177 vmovdqa %ymm4, 64(%edx,%eax)
3181 vmovdqa %ymm4, (%edx)
3189 vmovdqu -485498096(%edx,%eax,4), %xmm1
3193 vmovdqu 485498096(%edx,%eax,4), %xmm1
3197 vmovdqu -485498096(%edx,%eax,4), %ymm4
3201 vmovdqu 485498096(%edx,%eax,4), %ymm4
3205 vmovdqu 485498096(%edx), %xmm1
3209 vmovdqu 485498096(%edx), %ymm4
3221 vmovdqu 64(%edx,%eax), %xmm1
3225 vmovdqu 64(%edx,%eax), %ymm4
3229 vmovdqu (%edx), %xmm1
3233 vmovdqu (%edx), %ymm4
3241 vmovdqu %xmm1, 485498096(%edx)
3245 vmovdqu %xmm1, -485498096(%edx,%eax,4)
3249 vmovdqu %xmm1, 485498096(%edx,%eax,4)
3253 vmovdqu %xmm1, 64(%edx,%eax)
3257 vmovdqu %xmm1, (%edx)
3269 vmovdqu %ymm4, 485498096(%edx)
3273 vmovdqu %ymm4, -485498096(%edx,%eax,4)
3277 vmovdqu %ymm4, 485498096(%edx,%eax,4)
3281 vmovdqu %ymm4, 64(%edx,%eax)
3285 vmovdqu %ymm4, (%edx)
3297 vmovd %xmm1, 485498096(%edx)
3301 vmovd %xmm1, -485498096(%edx,%eax,4)
3305 vmovd %xmm1, 485498096(%edx,%eax,4)
3309 vmovd %xmm1, 64(%edx,%eax)
3313 vmovd %xmm1, (%edx)
3321 vmovhpd -485498096(%edx,%eax,4), %xmm1, %xmm1
3325 vmovhpd 485498096(%edx,%eax,4), %xmm1, %xmm1
3329 vmovhpd 485498096(%edx), %xmm1, %xmm1
3337 vmovhpd 64(%edx,%eax), %xmm1, %xmm1
3341 vmovhpd (%edx), %xmm1, %xmm1
3349 vmovhpd %xmm1, 485498096(%edx)
3353 vmovhpd %xmm1, -485498096(%edx,%eax,4)
3357 vmovhpd %xmm1, 485498096(%edx,%eax,4)
3361 vmovhpd %xmm1, 64(%edx,%eax)
3365 vmovhpd %xmm1, (%edx)
3369 vmovhps -485498096(%edx,%eax,4), %xmm1, %xmm1
3373 vmovhps 485498096(%edx,%eax,4), %xmm1, %xmm1
3377 vmovhps 485498096(%edx), %xmm1, %xmm1
3385 vmovhps 64(%edx,%eax), %xmm1, %xmm1
3389 vmovhps (%edx), %xmm1, %xmm1
3397 vmovhps %xmm1, 485498096(%edx)
3401 vmovhps %xmm1, -485498096(%edx,%eax,4)
3405 vmovhps %xmm1, 485498096(%edx,%eax,4)
3409 vmovhps %xmm1, 64(%edx,%eax)
3413 vmovhps %xmm1, (%edx)
3421 vmovlpd -485498096(%edx,%eax,4), %xmm1, %xmm1
3425 vmovlpd 485498096(%edx,%eax,4), %xmm1, %xmm1
3429 vmovlpd 485498096(%edx), %xmm1, %xmm1
3437 vmovlpd 64(%edx,%eax), %xmm1, %xmm1
3441 vmovlpd (%edx), %xmm1, %xmm1
3449 vmovlpd %xmm1, 485498096(%edx)
3453 vmovlpd %xmm1, -485498096(%edx,%eax,4)
3457 vmovlpd %xmm1, 485498096(%edx,%eax,4)
3461 vmovlpd %xmm1, 64(%edx,%eax)
3465 vmovlpd %xmm1, (%edx)
3469 vmovlps -485498096(%edx,%eax,4), %xmm1, %xmm1
3473 vmovlps 485498096(%edx,%eax,4), %xmm1, %xmm1
3477 vmovlps 485498096(%edx), %xmm1, %xmm1
3485 vmovlps 64(%edx,%eax), %xmm1, %xmm1
3489 vmovlps (%edx), %xmm1, %xmm1
3497 vmovlps %xmm1, 485498096(%edx)
3501 vmovlps %xmm1, -485498096(%edx,%eax,4)
3505 vmovlps %xmm1, 485498096(%edx,%eax,4)
3509 vmovlps %xmm1, 64(%edx,%eax)
3513 vmovlps %xmm1, (%edx)
3517 vmovntdqa -485498096(%edx,%eax,4), %xmm1
3521 vmovntdqa 485498096(%edx,%eax,4), %xmm1
3525 vmovntdqa 485498096(%edx), %xmm1
3533 vmovntdqa 64(%edx,%eax), %xmm1
3537 vmovntdqa (%edx), %xmm1
3545 vmovntdq %xmm1, 485498096(%edx)
3549 vmovntdq %xmm1, -485498096(%edx,%eax,4)
3553 vmovntdq %xmm1, 485498096(%edx,%eax,4)
3557 vmovntdq %xmm1, 64(%edx,%eax)
3561 vmovntdq %xmm1, (%edx)
3569 vmovntdq %ymm4, 485498096(%edx)
3573 vmovntdq %ymm4, -485498096(%edx,%eax,4)
3577 vmovntdq %ymm4, 485498096(%edx,%eax,4)
3581 vmovntdq %ymm4, 64(%edx,%eax)
3585 vmovntdq %ymm4, (%edx)
3593 vmovntpd %xmm1, 485498096(%edx)
3597 vmovntpd %xmm1, -485498096(%edx,%eax,4)
3601 vmovntpd %xmm1, 485498096(%edx,%eax,4)
3605 vmovntpd %xmm1, 64(%edx,%eax)
3609 vmovntpd %xmm1, (%edx)
3617 vmovntpd %ymm4, 485498096(%edx)
3621 vmovntpd %ymm4, -485498096(%edx,%eax,4)
3625 vmovntpd %ymm4, 485498096(%edx,%eax,4)
3629 vmovntpd %ymm4, 64(%edx,%eax)
3633 vmovntpd %ymm4, (%edx)
3641 vmovntps %xmm1, 485498096(%edx)
3645 vmovntps %xmm1, -485498096(%edx,%eax,4)
3649 vmovntps %xmm1, 485498096(%edx,%eax,4)
3653 vmovntps %xmm1, 64(%edx,%eax)
3657 vmovntps %xmm1, (%edx)
3665 vmovntps %ymm4, 485498096(%edx)
3669 vmovntps %ymm4, -485498096(%edx,%eax,4)
3673 vmovntps %ymm4, 485498096(%edx,%eax,4)
3677 vmovntps %ymm4, 64(%edx,%eax)
3681 vmovntps %ymm4, (%edx)
3685 vmovq -485498096(%edx,%eax,4), %xmm1
3689 vmovq 485498096(%edx,%eax,4), %xmm1
3693 vmovq 485498096(%edx), %xmm1
3701 vmovq 64(%edx,%eax), %xmm1
3705 vmovq (%edx), %xmm1
3713 vmovq %xmm1, 485498096(%edx)
3717 vmovq %xmm1, -485498096(%edx,%eax,4)
3721 vmovq %xmm1, 485498096(%edx,%eax,4)
3725 vmovq %xmm1, 64(%edx,%eax)
3729 vmovq %xmm1, (%edx)
3737 vmovsd -485498096(%edx,%eax,4), %xmm1
3741 vmovsd 485498096(%edx,%eax,4), %xmm1
3745 vmovsd 485498096(%edx), %xmm1
3753 vmovsd 64(%edx,%eax), %xmm1
3757 vmovsd (%edx), %xmm1
3765 vmovsd %xmm1, 485498096(%edx)
3769 vmovsd %xmm1, -485498096(%edx,%eax,4)
3773 vmovsd %xmm1, 485498096(%edx,%eax,4)
3777 vmovsd %xmm1, 64(%edx,%eax)
3781 vmovsd %xmm1, (%edx)
3789 vmovshdup -485498096(%edx,%eax,4), %xmm1
3793 vmovshdup 485498096(%edx,%eax,4), %xmm1
3797 vmovshdup -485498096(%edx,%eax,4), %ymm4
3801 vmovshdup 485498096(%edx,%eax,4), %ymm4
3805 vmovshdup 485498096(%edx), %xmm1
3809 vmovshdup 485498096(%edx), %ymm4
3821 vmovshdup 64(%edx,%eax), %xmm1
3825 vmovshdup 64(%edx,%eax), %ymm4
3829 vmovshdup (%edx), %xmm1
3833 vmovshdup (%edx), %ymm4
3845 vmovsldup -485498096(%edx,%eax,4), %xmm1
3849 vmovsldup 485498096(%edx,%eax,4), %xmm1
3853 vmovsldup -485498096(%edx,%eax,4), %ymm4
3857 vmovsldup 485498096(%edx,%eax,4), %ymm4
3861 vmovsldup 485498096(%edx), %xmm1
3865 vmovsldup 485498096(%edx), %ymm4
3877 vmovsldup 64(%edx,%eax), %xmm1
3881 vmovsldup 64(%edx,%eax), %ymm4
3885 vmovsldup (%edx), %xmm1
3889 vmovsldup (%edx), %ymm4
3901 vmovss -485498096(%edx,%eax,4), %xmm1
3905 vmovss 485498096(%edx,%eax,4), %xmm1
3909 vmovss 485498096(%edx), %xmm1
3917 vmovss 64(%edx,%eax), %xmm1
3921 vmovss (%edx), %xmm1
3929 vmovss %xmm1, 485498096(%edx)
3933 vmovss %xmm1, -485498096(%edx,%eax,4)
3937 vmovss %xmm1, 485498096(%edx,%eax,4)
3941 vmovss %xmm1, 64(%edx,%eax)
3945 vmovss %xmm1, (%edx)
3953 vmovupd -485498096(%edx,%eax,4), %xmm1
3957 vmovupd 485498096(%edx,%eax,4), %xmm1
3961 vmovupd -485498096(%edx,%eax,4), %ymm4
3965 vmovupd 485498096(%edx,%eax,4), %ymm4
3969 vmovupd 485498096(%edx), %xmm1
3973 vmovupd 485498096(%edx), %ymm4
3985 vmovupd 64(%edx,%eax), %xmm1
3989 vmovupd 64(%edx,%eax), %ymm4
3993 vmovupd (%edx), %xmm1
3997 vmovupd (%edx), %ymm4
4005 vmovupd %xmm1, 485498096(%edx)
4009 vmovupd %xmm1, -485498096(%edx,%eax,4)
4013 vmovupd %xmm1, 485498096(%edx,%eax,4)
4017 vmovupd %xmm1, 64(%edx,%eax)
4021 vmovupd %xmm1, (%edx)
4033 vmovupd %ymm4, 485498096(%edx)
4037 vmovupd %ymm4, -485498096(%edx,%eax,4)
4041 vmovupd %ymm4, 485498096(%edx,%eax,4)
4045 vmovupd %ymm4, 64(%edx,%eax)
4049 vmovupd %ymm4, (%edx)
4057 vmovups -485498096(%edx,%eax,4), %xmm1
4061 vmovups 485498096(%edx,%eax,4), %xmm1
4065 vmovups -485498096(%edx,%eax,4), %ymm4
4069 vmovups 485498096(%edx,%eax,4), %ymm4
4073 vmovups 485498096(%edx), %xmm1
4077 vmovups 485498096(%edx), %ymm4
4089 vmovups 64(%edx,%eax), %xmm1
4093 vmovups 64(%edx,%eax), %ymm4
4097 vmovups (%edx), %xmm1
4101 vmovups (%edx), %ymm4
4109 vmovups %xmm1, 485498096(%edx)
4113 vmovups %xmm1, -485498096(%edx,%eax,4)
4117 vmovups %xmm1, 485498096(%edx,%eax,4)
4121 vmovups %xmm1, 64(%edx,%eax)
4125 vmovups %xmm1, (%edx)
4137 vmovups %ymm4, 485498096(%edx)
4141 vmovups %ymm4, -485498096(%edx,%eax,4)
4145 vmovups %ymm4, 485498096(%edx,%eax,4)
4149 vmovups %ymm4, 64(%edx,%eax)
4153 vmovups %ymm4, (%edx)
4161 vmpsadbw $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
4165 vmpsadbw $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
4169 vmpsadbw $0, 485498096(%edx), %xmm1, %xmm1
4177 vmpsadbw $0, 64(%edx,%eax), %xmm1, %xmm1
4181 vmpsadbw $0, (%edx), %xmm1, %xmm1
4189 vmulpd -485498096(%edx,%eax,4), %xmm1, %xmm1
4193 vmulpd 485498096(%edx,%eax,4), %xmm1, %xmm1
4197 vmulpd -485498096(%edx,%eax,4), %ymm4, %ymm4
4201 vmulpd 485498096(%edx,%eax,4), %ymm4, %ymm4
4205 vmulpd 485498096(%edx), %xmm1, %xmm1
4209 vmulpd 485498096(%edx), %ymm4, %ymm4
4221 vmulpd 64(%edx,%eax), %xmm1, %xmm1
4225 vmulpd 64(%edx,%eax), %ymm4, %ymm4
4229 vmulpd (%edx), %xmm1, %xmm1
4233 vmulpd (%edx), %ymm4, %ymm4
4245 vmulps -485498096(%edx,%eax,4), %xmm1, %xmm1
4249 vmulps 485498096(%edx,%eax,4), %xmm1, %xmm1
4253 vmulps -485498096(%edx,%eax,4), %ymm4, %ymm4
4257 vmulps 485498096(%edx,%eax,4), %ymm4, %ymm4
4261 vmulps 485498096(%edx), %xmm1, %xmm1
4265 vmulps 485498096(%edx), %ymm4, %ymm4
4277 vmulps 64(%edx,%eax), %xmm1, %xmm1
4281 vmulps 64(%edx,%eax), %ymm4, %ymm4
4285 vmulps (%edx), %xmm1, %xmm1
4289 vmulps (%edx), %ymm4, %ymm4
4301 vmulsd -485498096(%edx,%eax,4), %xmm1, %xmm1
4305 vmulsd 485498096(%edx,%eax,4), %xmm1, %xmm1
4309 vmulsd 485498096(%edx), %xmm1, %xmm1
4317 vmulsd 64(%edx,%eax), %xmm1, %xmm1
4321 vmulsd (%edx), %xmm1, %xmm1
4329 vmulss -485498096(%edx,%eax,4), %xmm1, %xmm1
4333 vmulss 485498096(%edx,%eax,4), %xmm1, %xmm1
4337 vmulss 485498096(%edx), %xmm1, %xmm1
4345 vmulss 64(%edx,%eax), %xmm1, %xmm1
4349 vmulss (%edx), %xmm1, %xmm1
4357 vorpd -485498096(%edx,%eax,4), %xmm1, %xmm1
4361 vorpd 485498096(%edx,%eax,4), %xmm1, %xmm1
4365 vorpd -485498096(%edx,%eax,4), %ymm4, %ymm4
4369 vorpd 485498096(%edx,%eax,4), %ymm4, %ymm4
4373 vorpd 485498096(%edx), %xmm1, %xmm1
4377 vorpd 485498096(%edx), %ymm4, %ymm4
4389 vorpd 64(%edx,%eax), %xmm1, %xmm1
4393 vorpd 64(%edx,%eax), %ymm4, %ymm4
4397 vorpd (%edx), %xmm1, %xmm1
4401 vorpd (%edx), %ymm4, %ymm4
4413 vorps -485498096(%edx,%eax,4), %xmm1, %xmm1
4417 vorps 485498096(%edx,%eax,4), %xmm1, %xmm1
4421 vorps -485498096(%edx,%eax,4), %ymm4, %ymm4
4425 vorps 485498096(%edx,%eax,4), %ymm4, %ymm4
4429 vorps 485498096(%edx), %xmm1, %xmm1
4433 vorps 485498096(%edx), %ymm4, %ymm4
4445 vorps 64(%edx,%eax), %xmm1, %xmm1
4449 vorps 64(%edx,%eax), %ymm4, %ymm4
4453 vorps (%edx), %xmm1, %xmm1
4457 vorps (%edx), %ymm4, %ymm4
4469 vpabsb -485498096(%edx,%eax,4), %xmm1
4473 vpabsb 485498096(%edx,%eax,4), %xmm1
4477 vpabsb 485498096(%edx), %xmm1
4485 vpabsb 64(%edx,%eax), %xmm1
4489 vpabsb (%edx), %xmm1
4497 vpabsd -485498096(%edx,%eax,4), %xmm1
4501 vpabsd 485498096(%edx,%eax,4), %xmm1
4505 vpabsd 485498096(%edx), %xmm1
4513 vpabsd 64(%edx,%eax), %xmm1
4517 vpabsd (%edx), %xmm1
4525 vpabsw -485498096(%edx,%eax,4), %xmm1
4529 vpabsw 485498096(%edx,%eax,4), %xmm1
4533 vpabsw 485498096(%edx), %xmm1
4541 vpabsw 64(%edx,%eax), %xmm1
4545 vpabsw (%edx), %xmm1
4553 vpackssdw -485498096(%edx,%eax,4), %xmm1, %xmm1
4557 vpackssdw 485498096(%edx,%eax,4), %xmm1, %xmm1
4561 vpackssdw 485498096(%edx), %xmm1, %xmm1
4569 vpackssdw 64(%edx,%eax), %xmm1, %xmm1
4573 vpackssdw (%edx), %xmm1, %xmm1
4581 vpacksswb -485498096(%edx,%eax,4), %xmm1, %xmm1
4585 vpacksswb 485498096(%edx,%eax,4), %xmm1, %xmm1
4589 vpacksswb 485498096(%edx), %xmm1, %xmm1
4597 vpacksswb 64(%edx,%eax), %xmm1, %xmm1
4601 vpacksswb (%edx), %xmm1, %xmm1
4609 vpackusdw -485498096(%edx,%eax,4), %xmm1, %xmm1
4613 vpackusdw 485498096(%edx,%eax,4), %xmm1, %xmm1
4617 vpackusdw 485498096(%edx), %xmm1, %xmm1
4625 vpackusdw 64(%edx,%eax), %xmm1, %xmm1
4629 vpackusdw (%edx), %xmm1, %xmm1
4637 vpackuswb -485498096(%edx,%eax,4), %xmm1, %xmm1
4641 vpackuswb 485498096(%edx,%eax,4), %xmm1, %xmm1
4645 vpackuswb 485498096(%edx), %xmm1, %xmm1
4653 vpackuswb 64(%edx,%eax), %xmm1, %xmm1
4657 vpackuswb (%edx), %xmm1, %xmm1
4665 vpaddb -485498096(%edx,%eax,4), %xmm1, %xmm1
4669 vpaddb 485498096(%edx,%eax,4), %xmm1, %xmm1
4673 vpaddb 485498096(%edx), %xmm1, %xmm1
4681 vpaddb 64(%edx,%eax), %xmm1, %xmm1
4685 vpaddb (%edx), %xmm1, %xmm1
4693 vpaddd -485498096(%edx,%eax,4), %xmm1, %xmm1
4697 vpaddd 485498096(%edx,%eax,4), %xmm1, %xmm1
4701 vpaddd 485498096(%edx), %xmm1, %xmm1
4709 vpaddd 64(%edx,%eax), %xmm1, %xmm1
4713 vpaddd (%edx), %xmm1, %xmm1
4721 vpaddq -485498096(%edx,%eax,4), %xmm1, %xmm1
4725 vpaddq 485498096(%edx,%eax,4), %xmm1, %xmm1
4729 vpaddq 485498096(%edx), %xmm1, %xmm1
4737 vpaddq 64(%edx,%eax), %xmm1, %xmm1
4741 vpaddq (%edx), %xmm1, %xmm1
4749 vpaddsb -485498096(%edx,%eax,4), %xmm1, %xmm1
4753 vpaddsb 485498096(%edx,%eax,4), %xmm1, %xmm1
4757 vpaddsb 485498096(%edx), %xmm1, %xmm1
4765 vpaddsb 64(%edx,%eax), %xmm1, %xmm1
4769 vpaddsb (%edx), %xmm1, %xmm1
4777 vpaddsw -485498096(%edx,%eax,4), %xmm1, %xmm1
4781 vpaddsw 485498096(%edx,%eax,4), %xmm1, %xmm1
4785 vpaddsw 485498096(%edx), %xmm1, %xmm1
4793 vpaddsw 64(%edx,%eax), %xmm1, %xmm1
4797 vpaddsw (%edx), %xmm1, %xmm1
4805 vpaddusb -485498096(%edx,%eax,4), %xmm1, %xmm1
4809 vpaddusb 485498096(%edx,%eax,4), %xmm1, %xmm1
4813 vpaddusb 485498096(%edx), %xmm1, %xmm1
4821 vpaddusb 64(%edx,%eax), %xmm1, %xmm1
4825 vpaddusb (%edx), %xmm1, %xmm1
4833 vpaddusw -485498096(%edx,%eax,4), %xmm1, %xmm1
4837 vpaddusw 485498096(%edx,%eax,4), %xmm1, %xmm1
4841 vpaddusw 485498096(%edx), %xmm1, %xmm1
4849 vpaddusw 64(%edx,%eax), %xmm1, %xmm1
4853 vpaddusw (%edx), %xmm1, %xmm1
4861 vpaddw -485498096(%edx,%eax,4), %xmm1, %xmm1
4865 vpaddw 485498096(%edx,%eax,4), %xmm1, %xmm1
4869 vpaddw 485498096(%edx), %xmm1, %xmm1
4877 vpaddw 64(%edx,%eax), %xmm1, %xmm1
4881 vpaddw (%edx), %xmm1, %xmm1
4889 vpalignr $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
4893 vpalignr $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
4897 vpalignr $0, 485498096(%edx), %xmm1, %xmm1
4905 vpalignr $0, 64(%edx,%eax), %xmm1, %xmm1
4909 vpalignr $0, (%edx), %xmm1, %xmm1
4917 vpand -485498096(%edx,%eax,4), %xmm1, %xmm1
4921 vpand 485498096(%edx,%eax,4), %xmm1, %xmm1
4925 vpand 485498096(%edx), %xmm1, %xmm1
4933 vpand 64(%edx,%eax), %xmm1, %xmm1
4937 vpand (%edx), %xmm1, %xmm1
4941 vpandn -485498096(%edx,%eax,4), %xmm1, %xmm1
4945 vpandn 485498096(%edx,%eax,4), %xmm1, %xmm1
4949 vpandn 485498096(%edx), %xmm1, %xmm1
4957 vpandn 64(%edx,%eax), %xmm1, %xmm1
4961 vpandn (%edx), %xmm1, %xmm1
4973 vpavgb -485498096(%edx,%eax,4), %xmm1, %xmm1
4977 vpavgb 485498096(%edx,%eax,4), %xmm1, %xmm1
4981 vpavgb 485498096(%edx), %xmm1, %xmm1
4989 vpavgb 64(%edx,%eax), %xmm1, %xmm1
4993 vpavgb (%edx), %xmm1, %xmm1
5001 vpavgw -485498096(%edx,%eax,4), %xmm1, %xmm1
5005 vpavgw 485498096(%edx,%eax,4), %xmm1, %xmm1
5009 vpavgw 485498096(%edx), %xmm1, %xmm1
5017 vpavgw 64(%edx,%eax), %xmm1, %xmm1
5021 vpavgw (%edx), %xmm1, %xmm1
5029 vpblendvb %xmm1, -485498096(%edx,%eax,4), %xmm1, %xmm1
5033 vpblendvb %xmm1, 485498096(%edx,%eax,4), %xmm1, %xmm1
5037 vpblendvb %xmm1, 485498096(%edx), %xmm1, %xmm1
5045 vpblendvb %xmm1, 64(%edx,%eax), %xmm1, %xmm1
5049 vpblendvb %xmm1, (%edx), %xmm1, %xmm1
5057 vpblendw $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
5061 vpblendw $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
5065 vpblendw $0, 485498096(%edx), %xmm1, %xmm1
5073 vpblendw $0, 64(%edx,%eax), %xmm1, %xmm1
5077 vpblendw $0, (%edx), %xmm1, %xmm1
5085 vpclmulqdq $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
5089 vpclmulqdq $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
5093 vpclmulqdq $0, 485498096(%edx), %xmm1, %xmm1
5101 vpclmulqdq $0, 64(%edx,%eax), %xmm1, %xmm1
5105 vpclmulqdq $0, (%edx), %xmm1, %xmm1
5113 vpcmpeqb -485498096(%edx,%eax,4), %xmm1, %xmm1
5117 vpcmpeqb 485498096(%edx,%eax,4), %xmm1, %xmm1
5121 vpcmpeqb 485498096(%edx), %xmm1, %xmm1
5129 vpcmpeqb 64(%edx,%eax), %xmm1, %xmm1
5133 vpcmpeqb (%edx), %xmm1, %xmm1
5141 vpcmpeqd -485498096(%edx,%eax,4), %xmm1, %xmm1
5145 vpcmpeqd 485498096(%edx,%eax,4), %xmm1, %xmm1
5149 vpcmpeqd 485498096(%edx), %xmm1, %xmm1
5157 vpcmpeqd 64(%edx,%eax), %xmm1, %xmm1
5161 vpcmpeqd (%edx), %xmm1, %xmm1
5169 vpcmpeqq -485498096(%edx,%eax,4), %xmm1, %xmm1
5173 vpcmpeqq 485498096(%edx,%eax,4), %xmm1, %xmm1
5177 vpcmpeqq 485498096(%edx), %xmm1, %xmm1
5185 vpcmpeqq 64(%edx,%eax), %xmm1, %xmm1
5189 vpcmpeqq (%edx), %xmm1, %xmm1
5197 vpcmpeqw -485498096(%edx,%eax,4), %xmm1, %xmm1
5201 vpcmpeqw 485498096(%edx,%eax,4), %xmm1, %xmm1
5205 vpcmpeqw 485498096(%edx), %xmm1, %xmm1
5213 vpcmpeqw 64(%edx,%eax), %xmm1, %xmm1
5217 vpcmpeqw (%edx), %xmm1, %xmm1
5225 vpcmpestri $0, -485498096(%edx,%eax,4), %xmm1
5229 vpcmpestri $0, 485498096(%edx,%eax,4), %xmm1
5233 vpcmpestri $0, 485498096(%edx), %xmm1
5241 vpcmpestri $0, 64(%edx,%eax), %xmm1
5245 vpcmpestri $0, (%edx), %xmm1
5253 vpcmpestrm $0, -485498096(%edx,%eax,4), %xmm1
5257 vpcmpestrm $0, 485498096(%edx,%eax,4), %xmm1
5261 vpcmpestrm $0, 485498096(%edx), %xmm1
5269 vpcmpestrm $0, 64(%edx,%eax), %xmm1
5273 vpcmpestrm $0, (%edx), %xmm1
5281 vpcmpgtb -485498096(%edx,%eax,4), %xmm1, %xmm1
5285 vpcmpgtb 485498096(%edx,%eax,4), %xmm1, %xmm1
5289 vpcmpgtb 485498096(%edx), %xmm1, %xmm1
5297 vpcmpgtb 64(%edx,%eax), %xmm1, %xmm1
5301 vpcmpgtb (%edx), %xmm1, %xmm1
5309 vpcmpgtd -485498096(%edx,%eax,4), %xmm1, %xmm1
5313 vpcmpgtd 485498096(%edx,%eax,4), %xmm1, %xmm1
5317 vpcmpgtd 485498096(%edx), %xmm1, %xmm1
5325 vpcmpgtd 64(%edx,%eax), %xmm1, %xmm1
5329 vpcmpgtd (%edx), %xmm1, %xmm1
5337 vpcmpgtq -485498096(%edx,%eax,4), %xmm1, %xmm1
5341 vpcmpgtq 485498096(%edx,%eax,4), %xmm1, %xmm1
5345 vpcmpgtq 485498096(%edx), %xmm1, %xmm1
5353 vpcmpgtq 64(%edx,%eax), %xmm1, %xmm1
5357 vpcmpgtq (%edx), %xmm1, %xmm1
5365 vpcmpgtw -485498096(%edx,%eax,4), %xmm1, %xmm1
5369 vpcmpgtw 485498096(%edx,%eax,4), %xmm1, %xmm1
5373 vpcmpgtw 485498096(%edx), %xmm1, %xmm1
5381 vpcmpgtw 64(%edx,%eax), %xmm1, %xmm1
5385 vpcmpgtw (%edx), %xmm1, %xmm1
5393 vpcmpistri $0, -485498096(%edx,%eax,4), %xmm1
5397 vpcmpistri $0, 485498096(%edx,%eax,4), %xmm1
5401 vpcmpistri $0, 485498096(%edx), %xmm1
5409 vpcmpistri $0, 64(%edx,%eax), %xmm1
5413 vpcmpistri $0, (%edx), %xmm1
5421 vpcmpistrm $0, -485498096(%edx,%eax,4), %xmm1
5425 vpcmpistrm $0, 485498096(%edx,%eax,4), %xmm1
5429 vpcmpistrm $0, 485498096(%edx), %xmm1
5437 vpcmpistrm $0, 64(%edx,%eax), %xmm1
5441 vpcmpistrm $0, (%edx), %xmm1
5449 vperm2f128 $0, -485498096(%edx,%eax,4), %ymm4, %ymm4
5453 vperm2f128 $0, 485498096(%edx,%eax,4), %ymm4, %ymm4
5457 vperm2f128 $0, 485498096(%edx), %ymm4, %ymm4
5465 vperm2f128 $0, 64(%edx,%eax), %ymm4, %ymm4
5469 vperm2f128 $0, (%edx), %ymm4, %ymm4
5477 vpermilpd $0, -485498096(%edx,%eax,4), %xmm1
5481 vpermilpd $0, 485498096(%edx,%eax,4), %xmm1
5485 vpermilpd $0, -485498096(%edx,%eax,4), %ymm4
5489 vpermilpd $0, 485498096(%edx,%eax,4), %ymm4
5493 vpermilpd $0, 485498096(%edx), %xmm1
5497 vpermilpd $0, 485498096(%edx), %ymm4
5509 vpermilpd $0, 64(%edx,%eax), %xmm1
5513 vpermilpd $0, 64(%edx,%eax), %ymm4
5517 vpermilpd $0, (%edx), %xmm1
5521 vpermilpd $0, (%edx), %ymm4
5533 vpermilpd -485498096(%edx,%eax,4), %xmm1, %xmm1
5537 vpermilpd 485498096(%edx,%eax,4), %xmm1, %xmm1
5541 vpermilpd -485498096(%edx,%eax,4), %ymm4, %ymm4
5545 vpermilpd 485498096(%edx,%eax,4), %ymm4, %ymm4
5549 vpermilpd 485498096(%edx), %xmm1, %xmm1
5553 vpermilpd 485498096(%edx), %ymm4, %ymm4
5565 vpermilpd 64(%edx,%eax), %xmm1, %xmm1
5569 vpermilpd 64(%edx,%eax), %ymm4, %ymm4
5573 vpermilpd (%edx), %xmm1, %xmm1
5577 vpermilpd (%edx), %ymm4, %ymm4
5589 vpermilps $0, -485498096(%edx,%eax,4), %xmm1
5593 vpermilps $0, 485498096(%edx,%eax,4), %xmm1
5597 vpermilps $0, -485498096(%edx,%eax,4), %ymm4
5601 vpermilps $0, 485498096(%edx,%eax,4), %ymm4
5605 vpermilps $0, 485498096(%edx), %xmm1
5609 vpermilps $0, 485498096(%edx), %ymm4
5621 vpermilps $0, 64(%edx,%eax), %xmm1
5625 vpermilps $0, 64(%edx,%eax), %ymm4
5629 vpermilps $0, (%edx), %xmm1
5633 vpermilps $0, (%edx), %ymm4
5645 vpermilps -485498096(%edx,%eax,4), %xmm1, %xmm1
5649 vpermilps 485498096(%edx,%eax,4), %xmm1, %xmm1
5653 vpermilps -485498096(%edx,%eax,4), %ymm4, %ymm4
5657 vpermilps 485498096(%edx,%eax,4), %ymm4, %ymm4
5661 vpermilps 485498096(%edx), %xmm1, %xmm1
5665 vpermilps 485498096(%edx), %ymm4, %ymm4
5677 vpermilps 64(%edx,%eax), %xmm1, %xmm1
5681 vpermilps 64(%edx,%eax), %ymm4, %ymm4
5685 vpermilps (%edx), %xmm1, %xmm1
5689 vpermilps (%edx), %ymm4, %ymm4
5705 vpextrb $0, %xmm1, 485498096(%edx)
5709 vpextrb $0, %xmm1, -485498096(%edx,%eax,4)
5713 vpextrb $0, %xmm1, 485498096(%edx,%eax,4)
5717 vpextrb $0, %xmm1, 64(%edx,%eax)
5721 vpextrb $0, %xmm1, (%edx)
5729 vpextrd $0, %xmm1, 485498096(%edx)
5733 vpextrd $0, %xmm1, -485498096(%edx,%eax,4)
5737 vpextrd $0, %xmm1, 485498096(%edx,%eax,4)
5741 vpextrd $0, %xmm1, 64(%edx,%eax)
5745 vpextrd $0, %xmm1, (%edx)
5753 vpextrw $0, %xmm1, 485498096(%edx)
5757 vpextrw $0, %xmm1, -485498096(%edx,%eax,4)
5761 vpextrw $0, %xmm1, 485498096(%edx,%eax,4)
5765 vpextrw $0, %xmm1, 64(%edx,%eax)
5769 vpextrw $0, %xmm1, (%edx)
5773 vphaddd -485498096(%edx,%eax,4), %xmm1, %xmm1
5777 vphaddd 485498096(%edx,%eax,4), %xmm1, %xmm1
5781 vphaddd 485498096(%edx), %xmm1, %xmm1
5789 vphaddd 64(%edx,%eax), %xmm1, %xmm1
5793 vphaddd (%edx), %xmm1, %xmm1
5801 vphaddsw -485498096(%edx,%eax,4), %xmm1, %xmm1
5805 vphaddsw 485498096(%edx,%eax,4), %xmm1, %xmm1
5809 vphaddsw 485498096(%edx), %xmm1, %xmm1
5817 vphaddsw 64(%edx,%eax), %xmm1, %xmm1
5821 vphaddsw (%edx), %xmm1, %xmm1
5829 vphaddw -485498096(%edx,%eax,4), %xmm1, %xmm1
5833 vphaddw 485498096(%edx,%eax,4), %xmm1, %xmm1
5837 vphaddw 485498096(%edx), %xmm1, %xmm1
5845 vphaddw 64(%edx,%eax), %xmm1, %xmm1
5849 vphaddw (%edx), %xmm1, %xmm1
5857 vphminposuw -485498096(%edx,%eax,4), %xmm1
5861 vphminposuw 485498096(%edx,%eax,4), %xmm1
5865 vphminposuw 485498096(%edx), %xmm1
5873 vphminposuw 64(%edx,%eax), %xmm1
5877 vphminposuw (%edx), %xmm1
5885 vphsubd -485498096(%edx,%eax,4), %xmm1, %xmm1
5889 vphsubd 485498096(%edx,%eax,4), %xmm1, %xmm1
5893 vphsubd 485498096(%edx), %xmm1, %xmm1
5901 vphsubd 64(%edx,%eax), %xmm1, %xmm1
5905 vphsubd (%edx), %xmm1, %xmm1
5913 vphsubsw -485498096(%edx,%eax,4), %xmm1, %xmm1
5917 vphsubsw 485498096(%edx,%eax,4), %xmm1, %xmm1
5921 vphsubsw 485498096(%edx), %xmm1, %xmm1
5929 vphsubsw 64(%edx,%eax), %xmm1, %xmm1
5933 vphsubsw (%edx), %xmm1, %xmm1
5941 vphsubw -485498096(%edx,%eax,4), %xmm1, %xmm1
5945 vphsubw 485498096(%edx,%eax,4), %xmm1, %xmm1
5949 vphsubw 485498096(%edx), %xmm1, %xmm1
5957 vphsubw 64(%edx,%eax), %xmm1, %xmm1
5961 vphsubw (%edx), %xmm1, %xmm1
5969 vpinsrb $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
5973 vpinsrb $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
5977 vpinsrb $0, 485498096(%edx), %xmm1, %xmm1
5985 vpinsrb $0, 64(%edx,%eax), %xmm1, %xmm1
5989 vpinsrb $0, (%edx), %xmm1, %xmm1
5993 vpinsrd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
5997 vpinsrd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
6001 vpinsrd $0, 485498096(%edx), %xmm1, %xmm1
6009 vpinsrd $0, 64(%edx,%eax), %xmm1, %xmm1
6013 vpinsrd $0, (%edx), %xmm1, %xmm1
6017 vpinsrw $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
6021 vpinsrw $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
6025 vpinsrw $0, 485498096(%edx), %xmm1, %xmm1
6033 vpinsrw $0, 64(%edx,%eax), %xmm1, %xmm1
6037 vpinsrw $0, (%edx), %xmm1, %xmm1
6041 vpmaddubsw -485498096(%edx,%eax,4), %xmm1, %xmm1
6045 vpmaddubsw 485498096(%edx,%eax,4), %xmm1, %xmm1
6049 vpmaddubsw 485498096(%edx), %xmm1, %xmm1
6057 vpmaddubsw 64(%edx,%eax), %xmm1, %xmm1
6061 vpmaddubsw (%edx), %xmm1, %xmm1
6069 vpmaddwd -485498096(%edx,%eax,4), %xmm1, %xmm1
6073 vpmaddwd 485498096(%edx,%eax,4), %xmm1, %xmm1
6077 vpmaddwd 485498096(%edx), %xmm1, %xmm1
6085 vpmaddwd 64(%edx,%eax), %xmm1, %xmm1
6089 vpmaddwd (%edx), %xmm1, %xmm1
6097 vpmaxsb -485498096(%edx,%eax,4), %xmm1, %xmm1
6101 vpmaxsb 485498096(%edx,%eax,4), %xmm1, %xmm1
6105 vpmaxsb 485498096(%edx), %xmm1, %xmm1
6113 vpmaxsb 64(%edx,%eax), %xmm1, %xmm1
6117 vpmaxsb (%edx), %xmm1, %xmm1
6125 vpmaxsd -485498096(%edx,%eax,4), %xmm1, %xmm1
6129 vpmaxsd 485498096(%edx,%eax,4), %xmm1, %xmm1
6133 vpmaxsd 485498096(%edx), %xmm1, %xmm1
6141 vpmaxsd 64(%edx,%eax), %xmm1, %xmm1
6145 vpmaxsd (%edx), %xmm1, %xmm1
6153 vpmaxsw -485498096(%edx,%eax,4), %xmm1, %xmm1
6157 vpmaxsw 485498096(%edx,%eax,4), %xmm1, %xmm1
6161 vpmaxsw 485498096(%edx), %xmm1, %xmm1
6169 vpmaxsw 64(%edx,%eax), %xmm1, %xmm1
6173 vpmaxsw (%edx), %xmm1, %xmm1
6181 vpmaxub -485498096(%edx,%eax,4), %xmm1, %xmm1
6185 vpmaxub 485498096(%edx,%eax,4), %xmm1, %xmm1
6189 vpmaxub 485498096(%edx), %xmm1, %xmm1
6197 vpmaxub 64(%edx,%eax), %xmm1, %xmm1
6201 vpmaxub (%edx), %xmm1, %xmm1
6209 vpmaxud -485498096(%edx,%eax,4), %xmm1, %xmm1
6213 vpmaxud 485498096(%edx,%eax,4), %xmm1, %xmm1
6217 vpmaxud 485498096(%edx), %xmm1, %xmm1
6225 vpmaxud 64(%edx,%eax), %xmm1, %xmm1
6229 vpmaxud (%edx), %xmm1, %xmm1
6237 vpmaxuw -485498096(%edx,%eax,4), %xmm1, %xmm1
6241 vpmaxuw 485498096(%edx,%eax,4), %xmm1, %xmm1
6245 vpmaxuw 485498096(%edx), %xmm1, %xmm1
6253 vpmaxuw 64(%edx,%eax), %xmm1, %xmm1
6257 vpmaxuw (%edx), %xmm1, %xmm1
6265 vpminsb -485498096(%edx,%eax,4), %xmm1, %xmm1
6269 vpminsb 485498096(%edx,%eax,4), %xmm1, %xmm1
6273 vpminsb 485498096(%edx), %xmm1, %xmm1
6281 vpminsb 64(%edx,%eax), %xmm1, %xmm1
6285 vpminsb (%edx), %xmm1, %xmm1
6293 vpminsd -485498096(%edx,%eax,4), %xmm1, %xmm1
6297 vpminsd 485498096(%edx,%eax,4), %xmm1, %xmm1
6301 vpminsd 485498096(%edx), %xmm1, %xmm1
6309 vpminsd 64(%edx,%eax), %xmm1, %xmm1
6313 vpminsd (%edx), %xmm1, %xmm1
6321 vpminsw -485498096(%edx,%eax,4), %xmm1, %xmm1
6325 vpminsw 485498096(%edx,%eax,4), %xmm1, %xmm1
6329 vpminsw 485498096(%edx), %xmm1, %xmm1
6337 vpminsw 64(%edx,%eax), %xmm1, %xmm1
6341 vpminsw (%edx), %xmm1, %xmm1
6349 vpminub -485498096(%edx,%eax,4), %xmm1, %xmm1
6353 vpminub 485498096(%edx,%eax,4), %xmm1, %xmm1
6357 vpminub 485498096(%edx), %xmm1, %xmm1
6365 vpminub 64(%edx,%eax), %xmm1, %xmm1
6369 vpminub (%edx), %xmm1, %xmm1
6377 vpminud -485498096(%edx,%eax,4), %xmm1, %xmm1
6381 vpminud 485498096(%edx,%eax,4), %xmm1, %xmm1
6385 vpminud 485498096(%edx), %xmm1, %xmm1
6393 vpminud 64(%edx,%eax), %xmm1, %xmm1
6397 vpminud (%edx), %xmm1, %xmm1
6405 vpminuw -485498096(%edx,%eax,4), %xmm1, %xmm1
6409 vpminuw 485498096(%edx,%eax,4), %xmm1, %xmm1
6413 vpminuw 485498096(%edx), %xmm1, %xmm1
6421 vpminuw 64(%edx,%eax), %xmm1, %xmm1
6425 vpminuw (%edx), %xmm1, %xmm1
6433 vpmovsxbd -485498096(%edx,%eax,4), %xmm1
6437 vpmovsxbd 485498096(%edx,%eax,4), %xmm1
6441 vpmovsxbd 485498096(%edx), %xmm1
6449 vpmovsxbd 64(%edx,%eax), %xmm1
6453 vpmovsxbd (%edx), %xmm1
6461 vpmovsxbq -485498096(%edx,%eax,4), %xmm1
6465 vpmovsxbq 485498096(%edx,%eax,4), %xmm1
6469 vpmovsxbq 485498096(%edx), %xmm1
6477 vpmovsxbq 64(%edx,%eax), %xmm1
6481 vpmovsxbq (%edx), %xmm1
6489 vpmovsxbw -485498096(%edx,%eax,4), %xmm1
6493 vpmovsxbw 485498096(%edx,%eax,4), %xmm1
6497 vpmovsxbw 485498096(%edx), %xmm1
6505 vpmovsxbw 64(%edx,%eax), %xmm1
6509 vpmovsxbw (%edx), %xmm1
6517 vpmovsxdq -485498096(%edx,%eax,4), %xmm1
6521 vpmovsxdq 485498096(%edx,%eax,4), %xmm1
6525 vpmovsxdq 485498096(%edx), %xmm1
6533 vpmovsxdq 64(%edx,%eax), %xmm1
6537 vpmovsxdq (%edx), %xmm1
6545 vpmovsxwd -485498096(%edx,%eax,4), %xmm1
6549 vpmovsxwd 485498096(%edx,%eax,4), %xmm1
6553 vpmovsxwd 485498096(%edx), %xmm1
6561 vpmovsxwd 64(%edx,%eax), %xmm1
6565 vpmovsxwd (%edx), %xmm1
6573 vpmovsxwq -485498096(%edx,%eax,4), %xmm1
6577 vpmovsxwq 485498096(%edx,%eax,4), %xmm1
6581 vpmovsxwq 485498096(%edx), %xmm1
6589 vpmovsxwq 64(%edx,%eax), %xmm1
6593 vpmovsxwq (%edx), %xmm1
6601 vpmovzxbd -485498096(%edx,%eax,4), %xmm1
6605 vpmovzxbd 485498096(%edx,%eax,4), %xmm1
6609 vpmovzxbd 485498096(%edx), %xmm1
6617 vpmovzxbd 64(%edx,%eax), %xmm1
6621 vpmovzxbd (%edx), %xmm1
6629 vpmovzxbq -485498096(%edx,%eax,4), %xmm1
6633 vpmovzxbq 485498096(%edx,%eax,4), %xmm1
6637 vpmovzxbq 485498096(%edx), %xmm1
6645 vpmovzxbq 64(%edx,%eax), %xmm1
6649 vpmovzxbq (%edx), %xmm1
6657 vpmovzxbw -485498096(%edx,%eax,4), %xmm1
6661 vpmovzxbw 485498096(%edx,%eax,4), %xmm1
6665 vpmovzxbw 485498096(%edx), %xmm1
6673 vpmovzxbw 64(%edx,%eax), %xmm1
6677 vpmovzxbw (%edx), %xmm1
6685 vpmovzxdq -485498096(%edx,%eax,4), %xmm1
6689 vpmovzxdq 485498096(%edx,%eax,4), %xmm1
6693 vpmovzxdq 485498096(%edx), %xmm1
6701 vpmovzxdq 64(%edx,%eax), %xmm1
6705 vpmovzxdq (%edx), %xmm1
6713 vpmovzxwd -485498096(%edx,%eax,4), %xmm1
6717 vpmovzxwd 485498096(%edx,%eax,4), %xmm1
6721 vpmovzxwd 485498096(%edx), %xmm1
6729 vpmovzxwd 64(%edx,%eax), %xmm1
6733 vpmovzxwd (%edx), %xmm1
6741 vpmovzxwq -485498096(%edx,%eax,4), %xmm1
6745 vpmovzxwq 485498096(%edx,%eax,4), %xmm1
6749 vpmovzxwq 485498096(%edx), %xmm1
6757 vpmovzxwq 64(%edx,%eax), %xmm1
6761 vpmovzxwq (%edx), %xmm1
6769 vpmuldq -485498096(%edx,%eax,4), %xmm1, %xmm1
6773 vpmuldq 485498096(%edx,%eax,4), %xmm1, %xmm1
6777 vpmuldq 485498096(%edx), %xmm1, %xmm1
6785 vpmuldq 64(%edx,%eax), %xmm1, %xmm1
6789 vpmuldq (%edx), %xmm1, %xmm1
6797 vpmulhrsw -485498096(%edx,%eax,4), %xmm1, %xmm1
6801 vpmulhrsw 485498096(%edx,%eax,4), %xmm1, %xmm1
6805 vpmulhrsw 485498096(%edx), %xmm1, %xmm1
6813 vpmulhrsw 64(%edx,%eax), %xmm1, %xmm1
6817 vpmulhrsw (%edx), %xmm1, %xmm1
6825 vpmulhuw -485498096(%edx,%eax,4), %xmm1, %xmm1
6829 vpmulhuw 485498096(%edx,%eax,4), %xmm1, %xmm1
6833 vpmulhuw 485498096(%edx), %xmm1, %xmm1
6841 vpmulhuw 64(%edx,%eax), %xmm1, %xmm1
6845 vpmulhuw (%edx), %xmm1, %xmm1
6853 vpmulhw -485498096(%edx,%eax,4), %xmm1, %xmm1
6857 vpmulhw 485498096(%edx,%eax,4), %xmm1, %xmm1
6861 vpmulhw 485498096(%edx), %xmm1, %xmm1
6869 vpmulhw 64(%edx,%eax), %xmm1, %xmm1
6873 vpmulhw (%edx), %xmm1, %xmm1
6881 vpmulld -485498096(%edx,%eax,4), %xmm1, %xmm1
6885 vpmulld 485498096(%edx,%eax,4), %xmm1, %xmm1
6889 vpmulld 485498096(%edx), %xmm1, %xmm1
6897 vpmulld 64(%edx,%eax), %xmm1, %xmm1
6901 vpmulld (%edx), %xmm1, %xmm1
6909 vpmullw -485498096(%edx,%eax,4), %xmm1, %xmm1
6913 vpmullw 485498096(%edx,%eax,4), %xmm1, %xmm1
6917 vpmullw 485498096(%edx), %xmm1, %xmm1
6925 vpmullw 64(%edx,%eax), %xmm1, %xmm1
6929 vpmullw (%edx), %xmm1, %xmm1
6937 vpmuludq -485498096(%edx,%eax,4), %xmm1, %xmm1
6941 vpmuludq 485498096(%edx,%eax,4), %xmm1, %xmm1
6945 vpmuludq 485498096(%edx), %xmm1, %xmm1
6953 vpmuludq 64(%edx,%eax), %xmm1, %xmm1
6957 vpmuludq (%edx), %xmm1, %xmm1
6965 vpor -485498096(%edx,%eax,4), %xmm1, %xmm1
6969 vpor 485498096(%edx,%eax,4), %xmm1, %xmm1
6973 vpor 485498096(%edx), %xmm1, %xmm1
6981 vpor 64(%edx,%eax), %xmm1, %xmm1
6985 vpor (%edx), %xmm1, %xmm1
6993 vpsadbw -485498096(%edx,%eax,4), %xmm1, %xmm1
6997 vpsadbw 485498096(%edx,%eax,4), %xmm1, %xmm1
7001 vpsadbw 485498096(%edx), %xmm1, %xmm1
7009 vpsadbw 64(%edx,%eax), %xmm1, %xmm1
7013 vpsadbw (%edx), %xmm1, %xmm1
7021 vpshufb -485498096(%edx,%eax,4), %xmm1, %xmm1
7025 vpshufb 485498096(%edx,%eax,4), %xmm1, %xmm1
7029 vpshufb 485498096(%edx), %xmm1, %xmm1
7037 vpshufb 64(%edx,%eax), %xmm1, %xmm1
7041 vpshufb (%edx), %xmm1, %xmm1
7049 vpshufd $0, -485498096(%edx,%eax,4), %xmm1
7053 vpshufd $0, 485498096(%edx,%eax,4), %xmm1
7057 vpshufd $0, 485498096(%edx), %xmm1
7065 vpshufd $0, 64(%edx,%eax), %xmm1
7069 vpshufd $0, (%edx), %xmm1
7077 vpshufhw $0, -485498096(%edx,%eax,4), %xmm1
7081 vpshufhw $0, 485498096(%edx,%eax,4), %xmm1
7085 vpshufhw $0, 485498096(%edx), %xmm1
7093 vpshufhw $0, 64(%edx,%eax), %xmm1
7097 vpshufhw $0, (%edx), %xmm1
7105 vpshuflw $0, -485498096(%edx,%eax,4), %xmm1
7109 vpshuflw $0, 485498096(%edx,%eax,4), %xmm1
7113 vpshuflw $0, 485498096(%edx), %xmm1
7121 vpshuflw $0, 64(%edx,%eax), %xmm1
7125 vpshuflw $0, (%edx), %xmm1
7133 vpsignb -485498096(%edx,%eax,4), %xmm1, %xmm1
7137 vpsignb 485498096(%edx,%eax,4), %xmm1, %xmm1
7141 vpsignb 485498096(%edx), %xmm1, %xmm1
7149 vpsignb 64(%edx,%eax), %xmm1, %xmm1
7153 vpsignb (%edx), %xmm1, %xmm1
7161 vpsignd -485498096(%edx,%eax,4), %xmm1, %xmm1
7165 vpsignd 485498096(%edx,%eax,4), %xmm1, %xmm1
7169 vpsignd 485498096(%edx), %xmm1, %xmm1
7177 vpsignd 64(%edx,%eax), %xmm1, %xmm1
7181 vpsignd (%edx), %xmm1, %xmm1
7189 vpsignw -485498096(%edx,%eax,4), %xmm1, %xmm1
7193 vpsignw 485498096(%edx,%eax,4), %xmm1, %xmm1
7197 vpsignw 485498096(%edx), %xmm1, %xmm1
7205 vpsignw 64(%edx,%eax), %xmm1, %xmm1
7209 vpsignw (%edx), %xmm1, %xmm1
7221 vpslld -485498096(%edx,%eax,4), %xmm1, %xmm1
7225 vpslld 485498096(%edx,%eax,4), %xmm1, %xmm1
7229 vpslld 485498096(%edx), %xmm1, %xmm1
7237 vpslld 64(%edx,%eax), %xmm1, %xmm1
7241 vpslld (%edx), %xmm1, %xmm1
7257 vpsllq -485498096(%edx,%eax,4), %xmm1, %xmm1
7261 vpsllq 485498096(%edx,%eax,4), %xmm1, %xmm1
7265 vpsllq 485498096(%edx), %xmm1, %xmm1
7273 vpsllq 64(%edx,%eax), %xmm1, %xmm1
7277 vpsllq (%edx), %xmm1, %xmm1
7289 vpsllw -485498096(%edx,%eax,4), %xmm1, %xmm1
7293 vpsllw 485498096(%edx,%eax,4), %xmm1, %xmm1
7297 vpsllw 485498096(%edx), %xmm1, %xmm1
7305 vpsllw 64(%edx,%eax), %xmm1, %xmm1
7309 vpsllw (%edx), %xmm1, %xmm1
7321 vpsrad -485498096(%edx,%eax,4), %xmm1, %xmm1
7325 vpsrad 485498096(%edx,%eax,4), %xmm1, %xmm1
7329 vpsrad 485498096(%edx), %xmm1, %xmm1
7337 vpsrad 64(%edx,%eax), %xmm1, %xmm1
7341 vpsrad (%edx), %xmm1, %xmm1
7353 vpsraw -485498096(%edx,%eax,4), %xmm1, %xmm1
7357 vpsraw 485498096(%edx,%eax,4), %xmm1, %xmm1
7361 vpsraw 485498096(%edx), %xmm1, %xmm1
7369 vpsraw 64(%edx,%eax), %xmm1, %xmm1
7373 vpsraw (%edx), %xmm1, %xmm1
7385 vpsrld -485498096(%edx,%eax,4), %xmm1, %xmm1
7389 vpsrld 485498096(%edx,%eax,4), %xmm1, %xmm1
7393 vpsrld 485498096(%edx), %xmm1, %xmm1
7401 vpsrld 64(%edx,%eax), %xmm1, %xmm1
7405 vpsrld (%edx), %xmm1, %xmm1
7421 vpsrlq -485498096(%edx,%eax,4), %xmm1, %xmm1
7425 vpsrlq 485498096(%edx,%eax,4), %xmm1, %xmm1
7429 vpsrlq 485498096(%edx), %xmm1, %xmm1
7437 vpsrlq 64(%edx,%eax), %xmm1, %xmm1
7441 vpsrlq (%edx), %xmm1, %xmm1
7453 vpsrlw -485498096(%edx,%eax,4), %xmm1, %xmm1
7457 vpsrlw 485498096(%edx,%eax,4), %xmm1, %xmm1
7461 vpsrlw 485498096(%edx), %xmm1, %xmm1
7469 vpsrlw 64(%edx,%eax), %xmm1, %xmm1
7473 vpsrlw (%edx), %xmm1, %xmm1
7481 vpsubb -485498096(%edx,%eax,4), %xmm1, %xmm1
7485 vpsubb 485498096(%edx,%eax,4), %xmm1, %xmm1
7489 vpsubb 485498096(%edx), %xmm1, %xmm1
7497 vpsubb 64(%edx,%eax), %xmm1, %xmm1
7501 vpsubb (%edx), %xmm1, %xmm1
7509 vpsubd -485498096(%edx,%eax,4), %xmm1, %xmm1
7513 vpsubd 485498096(%edx,%eax,4), %xmm1, %xmm1
7517 vpsubd 485498096(%edx), %xmm1, %xmm1
7525 vpsubd 64(%edx,%eax), %xmm1, %xmm1
7529 vpsubd (%edx), %xmm1, %xmm1
7537 vpsubq -485498096(%edx,%eax,4), %xmm1, %xmm1
7541 vpsubq 485498096(%edx,%eax,4), %xmm1, %xmm1
7545 vpsubq 485498096(%edx), %xmm1, %xmm1
7553 vpsubq 64(%edx,%eax), %xmm1, %xmm1
7557 vpsubq (%edx), %xmm1, %xmm1
7565 vpsubsb -485498096(%edx,%eax,4), %xmm1, %xmm1
7569 vpsubsb 485498096(%edx,%eax,4), %xmm1, %xmm1
7573 vpsubsb 485498096(%edx), %xmm1, %xmm1
7581 vpsubsb 64(%edx,%eax), %xmm1, %xmm1
7585 vpsubsb (%edx), %xmm1, %xmm1
7593 vpsubsw -485498096(%edx,%eax,4), %xmm1, %xmm1
7597 vpsubsw 485498096(%edx,%eax,4), %xmm1, %xmm1
7601 vpsubsw 485498096(%edx), %xmm1, %xmm1
7609 vpsubsw 64(%edx,%eax), %xmm1, %xmm1
7613 vpsubsw (%edx), %xmm1, %xmm1
7621 vpsubusb -485498096(%edx,%eax,4), %xmm1, %xmm1
7625 vpsubusb 485498096(%edx,%eax,4), %xmm1, %xmm1
7629 vpsubusb 485498096(%edx), %xmm1, %xmm1
7637 vpsubusb 64(%edx,%eax), %xmm1, %xmm1
7641 vpsubusb (%edx), %xmm1, %xmm1
7649 vpsubusw -485498096(%edx,%eax,4), %xmm1, %xmm1
7653 vpsubusw 485498096(%edx,%eax,4), %xmm1, %xmm1
7657 vpsubusw 485498096(%edx), %xmm1, %xmm1
7665 vpsubusw 64(%edx,%eax), %xmm1, %xmm1
7669 vpsubusw (%edx), %xmm1, %xmm1
7677 vpsubw -485498096(%edx,%eax,4), %xmm1, %xmm1
7681 vpsubw 485498096(%edx,%eax,4), %xmm1, %xmm1
7685 vpsubw 485498096(%edx), %xmm1, %xmm1
7693 vpsubw 64(%edx,%eax), %xmm1, %xmm1
7697 vpsubw (%edx), %xmm1, %xmm1
7705 vptest -485498096(%edx,%eax,4), %xmm1
7709 vptest 485498096(%edx,%eax,4), %xmm1
7713 vptest -485498096(%edx,%eax,4), %ymm4
7717 vptest 485498096(%edx,%eax,4), %ymm4
7721 vptest 485498096(%edx), %xmm1
7725 vptest 485498096(%edx), %ymm4
7737 vptest 64(%edx,%eax), %xmm1
7741 vptest 64(%edx,%eax), %ymm4
7745 vptest (%edx), %xmm1
7749 vptest (%edx), %ymm4
7761 vpunpckhbw -485498096(%edx,%eax,4), %xmm1, %xmm1
7765 vpunpckhbw 485498096(%edx,%eax,4), %xmm1, %xmm1
7769 vpunpckhbw 485498096(%edx), %xmm1, %xmm1
7777 vpunpckhbw 64(%edx,%eax), %xmm1, %xmm1
7781 vpunpckhbw (%edx), %xmm1, %xmm1
7789 vpunpckhdq -485498096(%edx,%eax,4), %xmm1, %xmm1
7793 vpunpckhdq 485498096(%edx,%eax,4), %xmm1, %xmm1
7797 vpunpckhdq 485498096(%edx), %xmm1, %xmm1
7805 vpunpckhdq 64(%edx,%eax), %xmm1, %xmm1
7809 vpunpckhdq (%edx), %xmm1, %xmm1
7817 vpunpckhqdq -485498096(%edx,%eax,4), %xmm1, %xmm1
7821 vpunpckhqdq 485498096(%edx,%eax,4), %xmm1, %xmm1
7825 vpunpckhqdq 485498096(%edx), %xmm1, %xmm1
7833 vpunpckhqdq 64(%edx,%eax), %xmm1, %xmm1
7837 vpunpckhqdq (%edx), %xmm1, %xmm1
7845 vpunpckhwd -485498096(%edx,%eax,4), %xmm1, %xmm1
7849 vpunpckhwd 485498096(%edx,%eax,4), %xmm1, %xmm1
7853 vpunpckhwd 485498096(%edx), %xmm1, %xmm1
7861 vpunpckhwd 64(%edx,%eax), %xmm1, %xmm1
7865 vpunpckhwd (%edx), %xmm1, %xmm1
7873 vpunpcklbw -485498096(%edx,%eax,4), %xmm1, %xmm1
7877 vpunpcklbw 485498096(%edx,%eax,4), %xmm1, %xmm1
7881 vpunpcklbw 485498096(%edx), %xmm1, %xmm1
7889 vpunpcklbw 64(%edx,%eax), %xmm1, %xmm1
7893 vpunpcklbw (%edx), %xmm1, %xmm1
7901 vpunpckldq -485498096(%edx,%eax,4), %xmm1, %xmm1
7905 vpunpckldq 485498096(%edx,%eax,4), %xmm1, %xmm1
7909 vpunpckldq 485498096(%edx), %xmm1, %xmm1
7917 vpunpckldq 64(%edx,%eax), %xmm1, %xmm1
7921 vpunpckldq (%edx), %xmm1, %xmm1
7929 vpunpcklqdq -485498096(%edx,%eax,4), %xmm1, %xmm1
7933 vpunpcklqdq 485498096(%edx,%eax,4), %xmm1, %xmm1
7937 vpunpcklqdq 485498096(%edx), %xmm1, %xmm1
7945 vpunpcklqdq 64(%edx,%eax), %xmm1, %xmm1
7949 vpunpcklqdq (%edx), %xmm1, %xmm1
7957 vpunpcklwd -485498096(%edx,%eax,4), %xmm1, %xmm1
7961 vpunpcklwd 485498096(%edx,%eax,4), %xmm1, %xmm1
7965 vpunpcklwd 485498096(%edx), %xmm1, %xmm1
7973 vpunpcklwd 64(%edx,%eax), %xmm1, %xmm1
7977 vpunpcklwd (%edx), %xmm1, %xmm1
7985 vpxor -485498096(%edx,%eax,4), %xmm1, %xmm1
7989 vpxor 485498096(%edx,%eax,4), %xmm1, %xmm1
7993 vpxor 485498096(%edx), %xmm1, %xmm1
8001 vpxor 64(%edx,%eax), %xmm1, %xmm1
8005 vpxor (%edx), %xmm1, %xmm1
8013 vrcpps -485498096(%edx,%eax,4), %xmm1
8017 vrcpps 485498096(%edx,%eax,4), %xmm1
8021 vrcpps -485498096(%edx,%eax,4), %ymm4
8025 vrcpps 485498096(%edx,%eax,4), %ymm4
8029 vrcpps 485498096(%edx), %xmm1
8033 vrcpps 485498096(%edx), %ymm4
8045 vrcpps 64(%edx,%eax), %xmm1
8049 vrcpps 64(%edx,%eax), %ymm4
8053 vrcpps (%edx), %xmm1
8057 vrcpps (%edx), %ymm4
8069 vrcpss -485498096(%edx,%eax,4), %xmm1, %xmm1
8073 vrcpss 485498096(%edx,%eax,4), %xmm1, %xmm1
8077 vrcpss 485498096(%edx), %xmm1, %xmm1
8085 vrcpss 64(%edx,%eax), %xmm1, %xmm1
8089 vrcpss (%edx), %xmm1, %xmm1
8097 vroundpd $0, -485498096(%edx,%eax,4), %xmm1
8101 vroundpd $0, 485498096(%edx,%eax,4), %xmm1
8105 vroundpd $0, -485498096(%edx,%eax,4), %ymm4
8109 vroundpd $0, 485498096(%edx,%eax,4), %ymm4
8113 vroundpd $0, 485498096(%edx), %xmm1
8117 vroundpd $0, 485498096(%edx), %ymm4
8129 vroundpd $0, 64(%edx,%eax), %xmm1
8133 vroundpd $0, 64(%edx,%eax), %ymm4
8137 vroundpd $0, (%edx), %xmm1
8141 vroundpd $0, (%edx), %ymm4
8153 vroundps $0, -485498096(%edx,%eax,4), %xmm1
8157 vroundps $0, 485498096(%edx,%eax,4), %xmm1
8161 vroundps $0, -485498096(%edx,%eax,4), %ymm4
8165 vroundps $0, 485498096(%edx,%eax,4), %ymm4
8169 vroundps $0, 485498096(%edx), %xmm1
8173 vroundps $0, 485498096(%edx), %ymm4
8185 vroundps $0, 64(%edx,%eax), %xmm1
8189 vroundps $0, 64(%edx,%eax), %ymm4
8193 vroundps $0, (%edx), %xmm1
8197 vroundps $0, (%edx), %ymm4
8209 vroundsd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
8213 vroundsd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
8217 vroundsd $0, 485498096(%edx), %xmm1, %xmm1
8225 vroundsd $0, 64(%edx,%eax), %xmm1, %xmm1
8229 vroundsd $0, (%edx), %xmm1, %xmm1
8237 vroundss $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
8241 vroundss $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
8245 vroundss $0, 485498096(%edx), %xmm1, %xmm1
8253 vroundss $0, 64(%edx,%eax), %xmm1, %xmm1
8257 vroundss $0, (%edx), %xmm1, %xmm1
8265 vrsqrtps -485498096(%edx,%eax,4), %xmm1
8269 vrsqrtps 485498096(%edx,%eax,4), %xmm1
8273 vrsqrtps -485498096(%edx,%eax,4), %ymm4
8277 vrsqrtps 485498096(%edx,%eax,4), %ymm4
8281 vrsqrtps 485498096(%edx), %xmm1
8285 vrsqrtps 485498096(%edx), %ymm4
8297 vrsqrtps 64(%edx,%eax), %xmm1
8301 vrsqrtps 64(%edx,%eax), %ymm4
8305 vrsqrtps (%edx), %xmm1
8309 vrsqrtps (%edx), %ymm4
8321 vrsqrtss -485498096(%edx,%eax,4), %xmm1, %xmm1
8325 vrsqrtss 485498096(%edx,%eax,4), %xmm1, %xmm1
8329 vrsqrtss 485498096(%edx), %xmm1, %xmm1
8337 vrsqrtss 64(%edx,%eax), %xmm1, %xmm1
8341 vrsqrtss (%edx), %xmm1, %xmm1
8349 vshufpd $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
8353 vshufpd $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
8357 vshufpd $0, -485498096(%edx,%eax,4), %ymm4, %ymm4
8361 vshufpd $0, 485498096(%edx,%eax,4), %ymm4, %ymm4
8365 vshufpd $0, 485498096(%edx), %xmm1, %xmm1
8369 vshufpd $0, 485498096(%edx), %ymm4, %ymm4
8381 vshufpd $0, 64(%edx,%eax), %xmm1, %xmm1
8385 vshufpd $0, 64(%edx,%eax), %ymm4, %ymm4
8389 vshufpd $0, (%edx), %xmm1, %xmm1
8393 vshufpd $0, (%edx), %ymm4, %ymm4
8405 vshufps $0, -485498096(%edx,%eax,4), %xmm1, %xmm1
8409 vshufps $0, 485498096(%edx,%eax,4), %xmm1, %xmm1
8413 vshufps $0, -485498096(%edx,%eax,4), %ymm4, %ymm4
8417 vshufps $0, 485498096(%edx,%eax,4), %ymm4, %ymm4
8421 vshufps $0, 485498096(%edx), %xmm1, %xmm1
8425 vshufps $0, 485498096(%edx), %ymm4, %ymm4
8437 vshufps $0, 64(%edx,%eax), %xmm1, %xmm1
8441 vshufps $0, 64(%edx,%eax), %ymm4, %ymm4
8445 vshufps $0, (%edx), %xmm1, %xmm1
8449 vshufps $0, (%edx), %ymm4, %ymm4
8461 vsqrtpd -485498096(%edx,%eax,4), %xmm1
8465 vsqrtpd 485498096(%edx,%eax,4), %xmm1
8469 vsqrtpd -485498096(%edx,%eax,4), %ymm4
8473 vsqrtpd 485498096(%edx,%eax,4), %ymm4
8477 vsqrtpd 485498096(%edx), %xmm1
8481 vsqrtpd 485498096(%edx), %ymm4
8493 vsqrtpd 64(%edx,%eax), %xmm1
8497 vsqrtpd 64(%edx,%eax), %ymm4
8501 vsqrtpd (%edx), %xmm1
8505 vsqrtpd (%edx), %ymm4
8517 vsqrtps -485498096(%edx,%eax,4), %xmm1
8521 vsqrtps 485498096(%edx,%eax,4), %xmm1
8525 vsqrtps -485498096(%edx,%eax,4), %ymm4
8529 vsqrtps 485498096(%edx,%eax,4), %ymm4
8533 vsqrtps 485498096(%edx), %xmm1
8537 vsqrtps 485498096(%edx), %ymm4
8549 vsqrtps 64(%edx,%eax), %xmm1
8553 vsqrtps 64(%edx,%eax), %ymm4
8557 vsqrtps (%edx), %xmm1
8561 vsqrtps (%edx), %ymm4
8573 vsqrtsd -485498096(%edx,%eax,4), %xmm1, %xmm1
8577 vsqrtsd 485498096(%edx,%eax,4), %xmm1, %xmm1
8581 vsqrtsd 485498096(%edx), %xmm1, %xmm1
8589 vsqrtsd 64(%edx,%eax), %xmm1, %xmm1
8593 vsqrtsd (%edx), %xmm1, %xmm1
8601 vsqrtss -485498096(%edx,%eax,4), %xmm1, %xmm1
8605 vsqrtss 485498096(%edx,%eax,4), %xmm1, %xmm1
8609 vsqrtss 485498096(%edx), %xmm1, %xmm1
8617 vsqrtss 64(%edx,%eax), %xmm1, %xmm1
8621 vsqrtss (%edx), %xmm1, %xmm1
8629 vstmxcsr -485498096(%edx,%eax,4)
8633 vstmxcsr 485498096(%edx,%eax,4)
8637 vstmxcsr 485498096(%edx)
8645 vstmxcsr 64(%edx,%eax)
8649 vstmxcsr (%edx)
8653 vsubpd -485498096(%edx,%eax,4), %xmm1, %xmm1
8657 vsubpd 485498096(%edx,%eax,4), %xmm1, %xmm1
8661 vsubpd -485498096(%edx,%eax,4), %ymm4, %ymm4
8665 vsubpd 485498096(%edx,%eax,4), %ymm4, %ymm4
8669 vsubpd 485498096(%edx), %xmm1, %xmm1
8673 vsubpd 485498096(%edx), %ymm4, %ymm4
8685 vsubpd 64(%edx,%eax), %xmm1, %xmm1
8689 vsubpd 64(%edx,%eax), %ymm4, %ymm4
8693 vsubpd (%edx), %xmm1, %xmm1
8697 vsubpd (%edx), %ymm4, %ymm4
8709 vsubps -485498096(%edx,%eax,4), %xmm1, %xmm1
8713 vsubps 485498096(%edx,%eax,4), %xmm1, %xmm1
8717 vsubps -485498096(%edx,%eax,4), %ymm4, %ymm4
8721 vsubps 485498096(%edx,%eax,4), %ymm4, %ymm4
8725 vsubps 485498096(%edx), %xmm1, %xmm1
8729 vsubps 485498096(%edx), %ymm4, %ymm4
8741 vsubps 64(%edx,%eax), %xmm1, %xmm1
8745 vsubps 64(%edx,%eax), %ymm4, %ymm4
8749 vsubps (%edx), %xmm1, %xmm1
8753 vsubps (%edx), %ymm4, %ymm4
8765 vsubsd -485498096(%edx,%eax,4), %xmm1, %xmm1
8769 vsubsd 485498096(%edx,%eax,4), %xmm1, %xmm1
8773 vsubsd 485498096(%edx), %xmm1, %xmm1
8781 vsubsd 64(%edx,%eax), %xmm1, %xmm1
8785 vsubsd (%edx), %xmm1, %xmm1
8793 vsubss -485498096(%edx,%eax,4), %xmm1, %xmm1
8797 vsubss 485498096(%edx,%eax,4), %xmm1, %xmm1
8801 vsubss 485498096(%edx), %xmm1, %xmm1
8809 vsubss 64(%edx,%eax), %xmm1, %xmm1
8813 vsubss (%edx), %xmm1, %xmm1
8821 vtestpd -485498096(%edx,%eax,4), %xmm1
8825 vtestpd 485498096(%edx,%eax,4), %xmm1
8829 vtestpd -485498096(%edx,%eax,4), %ymm4
8833 vtestpd 485498096(%edx,%eax,4), %ymm4
8837 vtestpd 485498096(%edx), %xmm1
8841 vtestpd 485498096(%edx), %ymm4
8853 vtestpd 64(%edx,%eax), %xmm1
8857 vtestpd 64(%edx,%eax), %ymm4
8861 vtestpd (%edx), %xmm1
8865 vtestpd (%edx), %ymm4
8877 vtestps -485498096(%edx,%eax,4), %xmm1
8881 vtestps 485498096(%edx,%eax,4), %xmm1
8885 vtestps -485498096(%edx,%eax,4), %ymm4
8889 vtestps 485498096(%edx,%eax,4), %ymm4
8893 vtestps 485498096(%edx), %xmm1
8897 vtestps 485498096(%edx), %ymm4
8909 vtestps 64(%edx,%eax), %xmm1
8913 vtestps 64(%edx,%eax), %ymm4
8917 vtestps (%edx), %xmm1
8921 vtestps (%edx), %ymm4
8933 vucomisd -485498096(%edx,%eax,4), %xmm1
8937 vucomisd 485498096(%edx,%eax,4), %xmm1
8941 vucomisd 485498096(%edx), %xmm1
8949 vucomisd 64(%edx,%eax), %xmm1
8953 vucomisd (%edx), %xmm1
8961 vucomiss -485498096(%edx,%eax,4), %xmm1
8965 vucomiss 485498096(%edx,%eax,4), %xmm1
8969 vucomiss 485498096(%edx), %xmm1
8977 vucomiss 64(%edx,%eax), %xmm1
8981 vucomiss (%edx), %xmm1
8989 vunpckhpd -485498096(%edx,%eax,4), %xmm1, %xmm1
8993 vunpckhpd 485498096(%edx,%eax,4), %xmm1, %xmm1
8997 vunpckhpd -485498096(%edx,%eax,4), %ymm4, %ymm4
9001 vunpckhpd 485498096(%edx,%eax,4), %ymm4, %ymm4
9005 vunpckhpd 485498096(%edx), %xmm1, %xmm1
9009 vunpckhpd 485498096(%edx), %ymm4, %ymm4
9021 vunpckhpd 64(%edx,%eax), %xmm1, %xmm1
9025 vunpckhpd 64(%edx,%eax), %ymm4, %ymm4
9029 vunpckhpd (%edx), %xmm1, %xmm1
9033 vunpckhpd (%edx), %ymm4, %ymm4
9045 vunpckhps -485498096(%edx,%eax,4), %xmm1, %xmm1
9049 vunpckhps 485498096(%edx,%eax,4), %xmm1, %xmm1
9053 vunpckhps -485498096(%edx,%eax,4), %ymm4, %ymm4
9057 vunpckhps 485498096(%edx,%eax,4), %ymm4, %ymm4
9061 vunpckhps 485498096(%edx), %xmm1, %xmm1
9065 vunpckhps 485498096(%edx), %ymm4, %ymm4
9077 vunpckhps 64(%edx,%eax), %xmm1, %xmm1
9081 vunpckhps 64(%edx,%eax), %ymm4, %ymm4
9085 vunpckhps (%edx), %xmm1, %xmm1
9089 vunpckhps (%edx), %ymm4, %ymm4
9101 vunpcklpd -485498096(%edx,%eax,4), %xmm1, %xmm1
9105 vunpcklpd 485498096(%edx,%eax,4), %xmm1, %xmm1
9109 vunpcklpd -485498096(%edx,%eax,4), %ymm4, %ymm4
9113 vunpcklpd 485498096(%edx,%eax,4), %ymm4, %ymm4
9117 vunpcklpd 485498096(%edx), %xmm1, %xmm1
9121 vunpcklpd 485498096(%edx), %ymm4, %ymm4
9133 vunpcklpd 64(%edx,%eax), %xmm1, %xmm1
9137 vunpcklpd 64(%edx,%eax), %ymm4, %ymm4
9141 vunpcklpd (%edx), %xmm1, %xmm1
9145 vunpcklpd (%edx), %ymm4, %ymm4
9157 vunpcklps -485498096(%edx,%eax,4), %xmm1, %xmm1
9161 vunpcklps 485498096(%edx,%eax,4), %xmm1, %xmm1
9165 vunpcklps -485498096(%edx,%eax,4), %ymm4, %ymm4
9169 vunpcklps 485498096(%edx,%eax,4), %ymm4, %ymm4
9173 vunpcklps 485498096(%edx), %xmm1, %xmm1
9177 vunpcklps 485498096(%edx), %ymm4, %ymm4
9189 vunpcklps 64(%edx,%eax), %xmm1, %xmm1
9193 vunpcklps 64(%edx,%eax), %ymm4, %ymm4
9197 vunpcklps (%edx), %xmm1, %xmm1
9201 vunpcklps (%edx), %ymm4, %ymm4
9213 vxorpd -485498096(%edx,%eax,4), %xmm1, %xmm1
9217 vxorpd 485498096(%edx,%eax,4), %xmm1, %xmm1
9221 vxorpd -485498096(%edx,%eax,4), %ymm4, %ymm4
9225 vxorpd 485498096(%edx,%eax,4), %ymm4, %ymm4
9229 vxorpd 485498096(%edx), %xmm1, %xmm1
9233 vxorpd 485498096(%edx), %ymm4, %ymm4
9245 vxorpd 64(%edx,%eax), %xmm1, %xmm1
9249 vxorpd 64(%edx,%eax), %ymm4, %ymm4
9253 vxorpd (%edx), %xmm1, %xmm1
9257 vxorpd (%edx), %ymm4, %ymm4
9269 vxorps -485498096(%edx,%eax,4), %xmm1, %xmm1
9273 vxorps 485498096(%edx,%eax,4), %xmm1, %xmm1
9277 vxorps -485498096(%edx,%eax,4), %ymm4, %ymm4
9281 vxorps 485498096(%edx,%eax,4), %ymm4, %ymm4
9285 vxorps 485498096(%edx), %xmm1, %xmm1
9289 vxorps 485498096(%edx), %ymm4, %ymm4
9301 vxorps 64(%edx,%eax), %xmm1, %xmm1
9305 vxorps 64(%edx,%eax), %ymm4, %ymm4
9309 vxorps (%edx), %xmm1, %xmm1
9313 vxorps (%edx), %ymm4, %ymm4