Lines Matching +full:9 +full:j
8 define <4 x i64> @vpaddq256_test(<4 x i64> %i, <4 x i64> %j) nounwind readnone {
9 %x = add <4 x i64> %i, %j
16 define <4 x i64> @vpaddq256_fold_test(<4 x i64> %i, <4 x i64>* %j) nounwind {
17 %tmp = load <4 x i64>, <4 x i64>* %j, align 4
33 define <4 x i64> @vpaddq256_broadcast2_test(<4 x i64> %i, i64* %j.ptr) nounwind {
34 %j = load i64, i64* %j.ptr
35 %j.0 = insertelement <4 x i64> undef, i64 %j, i32 0
36 %j.v = shufflevector <4 x i64> %j.0, <4 x i64> undef, <4 x i32> zeroinitializer
37 %x = add <4 x i64> %i, %j.v
44 define <8 x i32> @vpaddd256_test(<8 x i32> %i, <8 x i32> %j) nounwind readnone {
45 %x = add <8 x i32> %i, %j
52 define <8 x i32> @vpaddd256_fold_test(<8 x i32> %i, <8 x i32>* %j) nounwind {
53 %tmp = load <8 x i32>, <8 x i32>* %j, align 4
69 define <8 x i32> @vpaddd256_mask_test(<8 x i32> %i, <8 x i32> %j, <8 x i32> %mask1) nounwind readno…
71 %x = add <8 x i32> %i, %j
79 define <8 x i32> @vpaddd256_maskz_test(<8 x i32> %i, <8 x i32> %j, <8 x i32> %mask1) nounwind readn…
81 %x = add <8 x i32> %i, %j
89 define <8 x i32> @vpaddd256_mask_fold_test(<8 x i32> %i, <8 x i32>* %j.ptr, <8 x i32> %mask1) nounw…
91 %j = load <8 x i32>, <8 x i32>* %j.ptr
92 %x = add <8 x i32> %i, %j
110 define <8 x i32> @vpaddd256_maskz_fold_test(<8 x i32> %i, <8 x i32>* %j.ptr, <8 x i32> %mask1) noun…
112 %j = load <8 x i32>, <8 x i32>* %j.ptr
113 %x = add <8 x i32> %i, %j
131 define <4 x i64> @vpsubq256_test(<4 x i64> %i, <4 x i64> %j) nounwind readnone {
132 %x = sub <4 x i64> %i, %j
139 define <8 x i32> @vpsubd256_test(<8 x i32> %i, <8 x i32> %j) nounwind readnone {
140 %x = sub <8 x i32> %i, %j
147 define <8 x i32> @vpmulld256_test(<8 x i32> %i, <8 x i32> %j) {
148 %x = mul <8 x i32> %i, %j
179 ; CHECK: vaddps {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
182 <8 x float> %j, <8 x i32> %mask1)
185 %x = fadd <8 x float> %i, %j
191 ; CHECK: vmulps {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
194 <8 x float> %j, <8 x i32> %mask1)
197 %x = fmul <8 x float> %i, %j
203 ; CHECK: vminps {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
206 <8 x float> %j, <8 x i32> %mask1)
209 %cmp_res = fcmp olt <8 x float> %i, %j
210 %min = select <8 x i1> %cmp_res, <8 x float> %i, <8 x float> %j
216 ; CHECK: vmaxps {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
219 <8 x float> %j, <8 x i32> %mask1)
222 %cmp_res = fcmp ogt <8 x float> %i, %j
223 %max = select <8 x i1> %cmp_res, <8 x float> %i, <8 x float> %j
229 ; CHECK: vsubps {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
232 <8 x float> %j, <8 x i32> %mask1)
235 %x = fsub <8 x float> %i, %j
241 ; CHECK: vdivps {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
244 <8 x float> %j, <8 x i32> %mask1)
247 %x = fdiv <8 x float> %i, %j
253 ; CHECK: vmulpd {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
256 <4 x double> %j, <4 x i64> %mask1)
259 %x = fmul <4 x double> %i, %j
265 ; CHECK: vminpd {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
268 <4 x double> %j, <4 x i64> %mask1)
271 %cmp_res = fcmp olt <4 x double> %i, %j
272 %min = select <4 x i1> %cmp_res, <4 x double> %i, <4 x double> %j
278 ; CHECK: vmaxpd {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
281 <4 x double> %j, <4 x i64> %mask1)
284 %cmp_res = fcmp ogt <4 x double> %i, %j
285 %max = select <4 x i1> %cmp_res, <4 x double> %i, <4 x double> %j
291 ; CHECK: vsubpd {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
294 <4 x double> %j, <4 x i64> %mask1)
297 %x = fsub <4 x double> %i, %j
303 ; CHECK: vdivpd {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
306 <4 x double> %j, <4 x i64> %mask1)
309 %x = fdiv <4 x double> %i, %j
315 ; CHECK: vaddpd {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}}}
318 <4 x double> %j, <4 x i64> %mask1)
321 %x = fadd <4 x double> %i, %j
327 ; CHECK: vaddpd {{%ymm[0-9]{1,2}, %ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]} {z}}}
329 define <4 x double> @test_maskz_vaddpd_256(<4 x double> %i, <4 x double> %j,
332 %x = fadd <4 x double> %i, %j
338 ; CHECK: vaddpd (%rdi), {{.*%ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]}.*}}
341 <4 x double>* %j, <4 x i64> %mask1)
344 %tmp = load <4 x double>, <4 x double>* %j
351 ; CHECK: vaddpd (%rdi), {{.*%ymm[0-9]{1,2}, %ymm[0-9]{1,2} {%k[1-7]} {z}.*}}
353 define <4 x double> @test_maskz_fold_vaddpd_256(<4 x double> %i, <4 x double>* %j,
356 %tmp = load <4 x double>, <4 x double>* %j
365 define <4 x double> @test_broadcast2_vaddpd_256(<4 x double> %i, double* %j) nounwind {
366 %tmp = load double, double* %j
378 double* %j, <4 x i64> %mask1) nounwind {
380 %tmp = load double, double* %j
392 define <4 x double> @test_maskz_broadcast_vaddpd_256(<4 x double> %i, double* %j,
395 %tmp = load double, double* %j
409 define <2 x i64> @vpaddq128_test(<2 x i64> %i, <2 x i64> %j) nounwind readnone {
410 %x = add <2 x i64> %i, %j
417 define <2 x i64> @vpaddq128_fold_test(<2 x i64> %i, <2 x i64>* %j) nounwind {
418 %tmp = load <2 x i64>, <2 x i64>* %j, align 4
426 define <2 x i64> @vpaddq128_broadcast2_test(<2 x i64> %i, i64* %j) nounwind {
427 %tmp = load i64, i64* %j
428 %j.0 = insertelement <2 x i64> undef, i64 %tmp, i32 0
429 %j.1 = insertelement <2 x i64> %j.0, i64 %tmp, i32 1
430 %x = add <2 x i64> %i, %j.1
437 define <4 x i32> @vpaddd128_test(<4 x i32> %i, <4 x i32> %j) nounwind readnone {
438 %x = add <4 x i32> %i, %j
445 define <4 x i32> @vpaddd128_fold_test(<4 x i32> %i, <4 x i32>* %j) nounwind {
446 %tmp = load <4 x i32>, <4 x i32>* %j, align 4
462 define <4 x i32> @vpaddd128_mask_test(<4 x i32> %i, <4 x i32> %j, <4 x i32> %mask1) nounwind readno…
464 %x = add <4 x i32> %i, %j
472 define <4 x i32> @vpaddd128_maskz_test(<4 x i32> %i, <4 x i32> %j, <4 x i32> %mask1) nounwind readn…
474 %x = add <4 x i32> %i, %j
482 define <4 x i32> @vpaddd128_mask_fold_test(<4 x i32> %i, <4 x i32>* %j.ptr, <4 x i32> %mask1) nounw…
484 %j = load <4 x i32>, <4 x i32>* %j.ptr
485 %x = add <4 x i32> %i, %j
503 define <4 x i32> @vpaddd128_maskz_fold_test(<4 x i32> %i, <4 x i32>* %j.ptr, <4 x i32> %mask1) noun…
505 %j = load <4 x i32>, <4 x i32>* %j.ptr
506 %x = add <4 x i32> %i, %j
524 define <2 x i64> @vpsubq128_test(<2 x i64> %i, <2 x i64> %j) nounwind readnone {
525 %x = sub <2 x i64> %i, %j
532 define <4 x i32> @vpsubd128_test(<4 x i32> %i, <4 x i32> %j) nounwind readnone {
533 %x = sub <4 x i32> %i, %j
540 define <4 x i32> @vpmulld128_test(<4 x i32> %i, <4 x i32> %j) {
541 %x = mul <4 x i32> %i, %j
572 ; CHECK: vaddps {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
575 <4 x float> %j, <4 x i32> %mask1)
578 %x = fadd <4 x float> %i, %j
584 ; CHECK: vmulps {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
587 <4 x float> %j, <4 x i32> %mask1)
590 %x = fmul <4 x float> %i, %j
596 ; CHECK: vminps {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
599 <4 x float> %j, <4 x i32> %mask1)
602 %cmp_res = fcmp olt <4 x float> %i, %j
603 %min = select <4 x i1> %cmp_res, <4 x float> %i, <4 x float> %j
609 ; CHECK: vmaxps {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
612 <4 x float> %j, <4 x i32> %mask1)
615 %cmp_res = fcmp ogt <4 x float> %i, %j
616 %max = select <4 x i1> %cmp_res, <4 x float> %i, <4 x float> %j
622 ; CHECK: vsubps {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
625 <4 x float> %j, <4 x i32> %mask1)
628 %x = fsub <4 x float> %i, %j
635 ; CHECK: vdivps {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
638 <4 x float> %j, <4 x i32> %mask1)
641 %x = fdiv <4 x float> %i, %j
647 ; CHECK: vmulpd {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
650 <2 x double> %j, <2 x i64> %mask1)
653 %x = fmul <2 x double> %i, %j
659 ; CHECK: vminpd {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
662 <2 x double> %j, <2 x i64> %mask1)
665 %cmp_res = fcmp olt <2 x double> %i, %j
666 %min = select <2 x i1> %cmp_res, <2 x double> %i, <2 x double> %j
672 ; CHECK: vmaxpd {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
675 <2 x double> %j, <2 x i64> %mask1)
678 %cmp_res = fcmp ogt <2 x double> %i, %j
679 %max = select <2 x i1> %cmp_res, <2 x double> %i, <2 x double> %j
685 ; CHECK: vsubpd {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
688 <2 x double> %j, <2 x i64> %mask1)
691 %x = fsub <2 x double> %i, %j
697 ; CHECK: vdivpd {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
700 <2 x double> %j, <2 x i64> %mask1)
703 %x = fdiv <2 x double> %i, %j
709 ; CHECK: vaddpd {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}}}
712 <2 x double> %j, <2 x i64> %mask1)
715 %x = fadd <2 x double> %i, %j
721 ; CHECK: vaddpd {{%xmm[0-9]{1,2}, %xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]} {z}}}
723 define <2 x double> @test_maskz_vaddpd_128(<2 x double> %i, <2 x double> %j,
726 %x = fadd <2 x double> %i, %j
732 ; CHECK: vaddpd (%rdi), {{.*%xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]}.*}}
735 <2 x double>* %j, <2 x i64> %mask1)
738 %tmp = load <2 x double>, <2 x double>* %j
745 ; CHECK: vaddpd (%rdi), {{.*%xmm[0-9]{1,2}, %xmm[0-9]{1,2} {%k[1-7]} {z}.*}}
747 define <2 x double> @test_maskz_fold_vaddpd_128(<2 x double> %i, <2 x double>* %j,
750 %tmp = load <2 x double>, <2 x double>* %j
759 define <2 x double> @test_broadcast2_vaddpd_128(<2 x double> %i, double* %j) nounwind {
760 %tmp = load double, double* %j
761 %j.0 = insertelement <2 x double> undef, double %tmp, i64 0
762 %j.1 = insertelement <2 x double> %j.0, double %tmp, i64 1
763 %x = fadd <2 x double> %j.1, %i
771 double* %j, <2 x i64> %mask1)
774 %tmp = load double, double* %j
775 %j.0 = insertelement <2 x double> undef, double %tmp, i64 0
776 %j.1 = insertelement <2 x double> %j.0, double %tmp, i64 1
777 %x = fadd <2 x double> %j.1, %i
785 define <2 x double> @test_maskz_broadcast_vaddpd_128(<2 x double> %i, double* %j,
788 %tmp = load double, double* %j
789 %j.0 = insertelement <2 x double> undef, double %tmp, i64 0
790 %j.1 = insertelement <2 x double> %j.0, double %tmp, i64 1
791 %x = fadd <2 x double> %j.1, %i