Lines Matching refs:rbx
37 vaddss -4(%rcx,%rbx,8), %xmm10, %xmm11
41 vsubss -4(%rcx,%rbx,8), %xmm10, %xmm11
45 vmulss -4(%rcx,%rbx,8), %xmm10, %xmm11
49 vdivss -4(%rcx,%rbx,8), %xmm10, %xmm11
53 vaddsd -4(%rcx,%rbx,8), %xmm10, %xmm11
57 vsubsd -4(%rcx,%rbx,8), %xmm10, %xmm11
61 vmulsd -4(%rcx,%rbx,8), %xmm10, %xmm11
65 vdivsd -4(%rcx,%rbx,8), %xmm10, %xmm11
101 vaddps -4(%rcx,%rbx,8), %xmm10, %xmm11
105 vsubps -4(%rcx,%rbx,8), %xmm10, %xmm11
109 vmulps -4(%rcx,%rbx,8), %xmm10, %xmm11
113 vdivps -4(%rcx,%rbx,8), %xmm10, %xmm11
117 vaddpd -4(%rcx,%rbx,8), %xmm10, %xmm11
121 vsubpd -4(%rcx,%rbx,8), %xmm10, %xmm11
125 vmulpd -4(%rcx,%rbx,8), %xmm10, %xmm11
129 vdivpd -4(%rcx,%rbx,8), %xmm10, %xmm11
149 vmaxss -4(%rbx,%rcx,8), %xmm12, %xmm10
153 vmaxsd -4(%rbx,%rcx,8), %xmm12, %xmm10
157 vminss -4(%rbx,%rcx,8), %xmm12, %xmm10
161 vminsd -4(%rbx,%rcx,8), %xmm12, %xmm10
181 vmaxps -4(%rbx,%rcx,8), %xmm12, %xmm10
185 vmaxpd -4(%rbx,%rcx,8), %xmm12, %xmm10
189 vminps -4(%rbx,%rcx,8), %xmm12, %xmm10
193 vminpd -4(%rbx,%rcx,8), %xmm12, %xmm10
205 vandps -4(%rbx,%rcx,8), %xmm12, %xmm10
209 vandpd -4(%rbx,%rcx,8), %xmm12, %xmm10
221 vorps -4(%rbx,%rcx,8), %xmm12, %xmm10
225 vorpd -4(%rbx,%rcx,8), %xmm12, %xmm10
237 vxorps -4(%rbx,%rcx,8), %xmm12, %xmm10
241 vxorpd -4(%rbx,%rcx,8), %xmm12, %xmm10
253 vandnps -4(%rbx,%rcx,8), %xmm12, %xmm10
257 vandnpd -4(%rbx,%rcx,8), %xmm12, %xmm10
261 vmovss -4(%rbx,%rcx,8), %xmm10
269 vmovsd -4(%rbx,%rcx,8), %xmm10
293 vunpckhps -4(%rbx,%rcx,8), %xmm12, %xmm15
297 vunpckhpd -4(%rbx,%rcx,8), %xmm12, %xmm15
301 vunpcklps -4(%rbx,%rcx,8), %xmm12, %xmm15
305 vunpcklpd -4(%rbx,%rcx,8), %xmm12, %xmm15
337 vshufps $8, -4(%rbx,%rcx,8), %xmm12, %xmm13
345 vshufpd $8, -4(%rbx,%rcx,8), %xmm12, %xmm13
381 vcmpeqps -4(%rbx,%rcx,8), %xmm12, %xmm13
385 vcmpleps -4(%rbx,%rcx,8), %xmm12, %xmm13
389 vcmpltps -4(%rbx,%rcx,8), %xmm12, %xmm13
393 vcmpneqps -4(%rbx,%rcx,8), %xmm12, %xmm13
397 vcmpnleps -4(%rbx,%rcx,8), %xmm12, %xmm13
401 vcmpnltps -4(%rbx,%rcx,8), %xmm12, %xmm13
405 vcmpordps -4(%rbx,%rcx,8), %xmm6, %xmm2
409 vcmpunordps -4(%rbx,%rcx,8), %xmm12, %xmm13
445 vcmpeqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
449 vcmplepd -4(%rbx,%rcx,8), %xmm12, %xmm13
453 vcmpltpd -4(%rbx,%rcx,8), %xmm12, %xmm13
457 vcmpneqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
461 vcmpnlepd -4(%rbx,%rcx,8), %xmm12, %xmm13
465 vcmpnltpd -4(%rbx,%rcx,8), %xmm12, %xmm13
469 vcmpordpd -4(%rbx,%rcx,8), %xmm6, %xmm2
473 vcmpunordpd -4(%rbx,%rcx,8), %xmm12, %xmm13
509 vcmpeqss -4(%rbx,%rcx,8), %xmm12, %xmm13
513 vcmpless -4(%rbx,%rcx,8), %xmm12, %xmm13
517 vcmpltss -4(%rbx,%rcx,8), %xmm12, %xmm13
521 vcmpneqss -4(%rbx,%rcx,8), %xmm12, %xmm13
525 vcmpnless -4(%rbx,%rcx,8), %xmm12, %xmm13
529 vcmpnltss -4(%rbx,%rcx,8), %xmm12, %xmm13
533 vcmpordss -4(%rbx,%rcx,8), %xmm6, %xmm2
537 vcmpunordss -4(%rbx,%rcx,8), %xmm12, %xmm13
573 vcmpeqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
577 vcmplesd -4(%rbx,%rcx,8), %xmm12, %xmm13
581 vcmpltsd -4(%rbx,%rcx,8), %xmm12, %xmm13
585 vcmpneqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
589 vcmpnlesd -4(%rbx,%rcx,8), %xmm12, %xmm13
593 vcmpnltsd -4(%rbx,%rcx,8), %xmm12, %xmm13
597 vcmpordsd -4(%rbx,%rcx,8), %xmm6, %xmm2
601 vcmpunordsd -4(%rbx,%rcx,8), %xmm12, %xmm13
701 vcmpeq_uqps -4(%rbx,%rcx,8), %xmm12, %xmm13
705 vcmpngeps -4(%rbx,%rcx,8), %xmm12, %xmm13
709 vcmpngtps -4(%rbx,%rcx,8), %xmm12, %xmm13
713 vcmpfalseps -4(%rbx,%rcx,8), %xmm12, %xmm13
717 vcmpneq_oqps -4(%rbx,%rcx,8), %xmm12, %xmm13
721 vcmpgeps -4(%rbx,%rcx,8), %xmm12, %xmm13
725 vcmpgtps -4(%rbx,%rcx,8), %xmm6, %xmm2
729 vcmptrueps -4(%rbx,%rcx,8), %xmm12, %xmm13
733 vcmpeq_osps -4(%rbx,%rcx,8), %xmm12, %xmm13
737 vcmplt_oqps -4(%rbx,%rcx,8), %xmm12, %xmm13
741 vcmple_oqps -4(%rbx,%rcx,8), %xmm12, %xmm13
745 vcmpunord_sps -4(%rbx,%rcx,8), %xmm12, %xmm13
749 vcmpneq_usps -4(%rbx,%rcx,8), %xmm12, %xmm13
753 vcmpnlt_uqps -4(%rbx,%rcx,8), %xmm12, %xmm13
757 vcmpnle_uqps -4(%rbx,%rcx,8), %xmm6, %xmm2
761 vcmpord_sps -4(%rbx,%rcx,8), %xmm12, %xmm13
765 vcmpeq_usps -4(%rbx,%rcx,8), %xmm12, %xmm13
769 vcmpnge_uqps -4(%rbx,%rcx,8), %xmm12, %xmm13
773 vcmpngt_uqps -4(%rbx,%rcx,8), %xmm12, %xmm13
777 vcmpfalse_osps -4(%rbx,%rcx,8), %xmm12, %xmm13
781 vcmpneq_osps -4(%rbx,%rcx,8), %xmm12, %xmm13
785 vcmpge_oqps -4(%rbx,%rcx,8), %xmm12, %xmm13
789 vcmpgt_oqps -4(%rbx,%rcx,8), %xmm6, %xmm2
793 vcmptrue_usps -4(%rbx,%rcx,8), %xmm12, %xmm13
893 vcmpeq_uqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
897 vcmpngepd -4(%rbx,%rcx,8), %xmm12, %xmm13
901 vcmpngtpd -4(%rbx,%rcx,8), %xmm12, %xmm13
905 vcmpfalsepd -4(%rbx,%rcx,8), %xmm12, %xmm13
909 vcmpneq_oqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
913 vcmpgepd -4(%rbx,%rcx,8), %xmm12, %xmm13
917 vcmpgtpd -4(%rbx,%rcx,8), %xmm6, %xmm2
921 vcmptruepd -4(%rbx,%rcx,8), %xmm12, %xmm13
925 vcmpeq_ospd -4(%rbx,%rcx,8), %xmm12, %xmm13
929 vcmplt_oqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
933 vcmple_oqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
937 vcmpunord_spd -4(%rbx,%rcx,8), %xmm12, %xmm13
941 vcmpneq_uspd -4(%rbx,%rcx,8), %xmm12, %xmm13
945 vcmpnlt_uqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
949 vcmpnle_uqpd -4(%rbx,%rcx,8), %xmm6, %xmm2
953 vcmpord_spd -4(%rbx,%rcx,8), %xmm12, %xmm13
957 vcmpeq_uspd -4(%rbx,%rcx,8), %xmm12, %xmm13
961 vcmpnge_uqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
965 vcmpngt_uqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
969 vcmpfalse_ospd -4(%rbx,%rcx,8), %xmm12, %xmm13
973 vcmpneq_ospd -4(%rbx,%rcx,8), %xmm12, %xmm13
977 vcmpge_oqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
981 vcmpgt_oqpd -4(%rbx,%rcx,8), %xmm6, %xmm2
985 vcmptrue_uspd -4(%rbx,%rcx,8), %xmm12, %xmm13
1085 vcmpeq_uqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1089 vcmpngess -4(%rbx,%rcx,8), %xmm12, %xmm13
1093 vcmpngtss -4(%rbx,%rcx,8), %xmm12, %xmm13
1097 vcmpfalsess -4(%rbx,%rcx,8), %xmm12, %xmm13
1101 vcmpneq_oqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1105 vcmpgess -4(%rbx,%rcx,8), %xmm12, %xmm13
1109 vcmpgtss -4(%rbx,%rcx,8), %xmm6, %xmm2
1113 vcmptruess -4(%rbx,%rcx,8), %xmm12, %xmm13
1117 vcmpeq_osss -4(%rbx,%rcx,8), %xmm12, %xmm13
1121 vcmplt_oqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1125 vcmple_oqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1129 vcmpunord_sss -4(%rbx,%rcx,8), %xmm12, %xmm13
1133 vcmpneq_usss -4(%rbx,%rcx,8), %xmm12, %xmm13
1137 vcmpnlt_uqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1141 vcmpnle_uqss -4(%rbx,%rcx,8), %xmm6, %xmm2
1145 vcmpord_sss -4(%rbx,%rcx,8), %xmm12, %xmm13
1149 vcmpeq_usss -4(%rbx,%rcx,8), %xmm12, %xmm13
1153 vcmpnge_uqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1157 vcmpngt_uqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1161 vcmpfalse_osss -4(%rbx,%rcx,8), %xmm12, %xmm13
1165 vcmpneq_osss -4(%rbx,%rcx,8), %xmm12, %xmm13
1169 vcmpge_oqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1173 vcmpgt_oqss -4(%rbx,%rcx,8), %xmm6, %xmm2
1177 vcmptrue_usss -4(%rbx,%rcx,8), %xmm12, %xmm13
1277 vcmpeq_uqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1281 vcmpngesd -4(%rbx,%rcx,8), %xmm12, %xmm13
1285 vcmpngtsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1289 vcmpfalsesd -4(%rbx,%rcx,8), %xmm12, %xmm13
1293 vcmpneq_oqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1297 vcmpgesd -4(%rbx,%rcx,8), %xmm12, %xmm13
1301 vcmpgtsd -4(%rbx,%rcx,8), %xmm6, %xmm2
1305 vcmptruesd -4(%rbx,%rcx,8), %xmm12, %xmm13
1309 vcmpeq_ossd -4(%rbx,%rcx,8), %xmm12, %xmm13
1313 vcmplt_oqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1317 vcmple_oqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1321 vcmpunord_ssd -4(%rbx,%rcx,8), %xmm12, %xmm13
1325 vcmpneq_ussd -4(%rbx,%rcx,8), %xmm12, %xmm13
1329 vcmpnlt_uqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1333 vcmpnle_uqsd -4(%rbx,%rcx,8), %xmm6, %xmm2
1337 vcmpord_ssd -4(%rbx,%rcx,8), %xmm12, %xmm13
1341 vcmpeq_ussd -4(%rbx,%rcx,8), %xmm12, %xmm13
1345 vcmpnge_uqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1349 vcmpngt_uqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1353 vcmpfalse_ossd -4(%rbx,%rcx,8), %xmm12, %xmm13
1357 vcmpneq_ossd -4(%rbx,%rcx,8), %xmm12, %xmm13
1361 vcmpge_oqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1365 vcmpgt_oqsd -4(%rbx,%rcx,8), %xmm6, %xmm2
1369 vcmptrue_ussd -4(%rbx,%rcx,8), %xmm12, %xmm13
3101 vunpckhps -4(%rbx,%rcx,8), %ymm12, %ymm10
3105 vunpckhpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3109 vunpcklps -4(%rbx,%rcx,8), %ymm12, %ymm10
3113 vunpcklpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3273 vandps -4(%rbx,%rcx,8), %ymm12, %ymm10
3277 vandpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3289 vorps -4(%rbx,%rcx,8), %ymm12, %ymm10
3293 vorpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3305 vxorps -4(%rbx,%rcx,8), %ymm12, %ymm10
3309 vxorpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3321 vandnps -4(%rbx,%rcx,8), %ymm12, %ymm10
3325 vandnpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3465 vcmpeqps -4(%rbx,%rcx,8), %ymm12, %ymm13
3469 vcmpleps -4(%rbx,%rcx,8), %ymm12, %ymm13
3473 vcmpltps -4(%rbx,%rcx,8), %ymm12, %ymm13
3477 vcmpneqps -4(%rbx,%rcx,8), %ymm12, %ymm13
3481 vcmpnleps -4(%rbx,%rcx,8), %ymm12, %ymm13
3485 vcmpnltps -4(%rbx,%rcx,8), %ymm12, %ymm13
3489 vcmpordps -4(%rbx,%rcx,8), %ymm6, %ymm12
3493 vcmpunordps -4(%rbx,%rcx,8), %ymm12, %ymm13
3529 vcmpeqpd -4(%rbx,%rcx,8), %ymm12, %ymm13
3533 vcmplepd -4(%rbx,%rcx,8), %ymm12, %ymm13
3537 vcmpltpd -4(%rbx,%rcx,8), %ymm12, %ymm13
3541 vcmpneqpd -4(%rbx,%rcx,8), %ymm12, %ymm13
3545 vcmpnlepd -4(%rbx,%rcx,8), %ymm12, %ymm13
3549 vcmpnltpd -4(%rbx,%rcx,8), %ymm12, %ymm13
3553 vcmpordpd -4(%rbx,%rcx,8), %ymm6, %ymm12
3557 vcmpunordpd -4(%rbx,%rcx,8), %ymm12, %ymm13
4105 vmovaps %xmm3, (%r14,%rbx)
4109 vmovaps (%r14,%rbx), %xmm3