// RUN: %clang_cc1 %s -triple=x86_64-apple-darwin -target-feature +avx -emit-llvm -o - -Werror | FileCheck %s // RUN: %clang_cc1 %s -triple=x86_64-apple-darwin -target-feature +avx -fno-signed-char -emit-llvm -o - -Werror | FileCheck %s // Don't include mm_malloc.h, it's system specific. #define __MM_MALLOC_H #include // NOTE: This should match the tests in llvm/test/CodeGen/X86/sse-intrinsics-fast-isel.ll __m256d test_mm256_add_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_add_pd // CHECK: fadd <4 x double> return _mm256_add_pd(A, B); } __m256 test_mm256_add_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_add_ps // CHECK: fadd <8 x float> return _mm256_add_ps(A, B); } __m256d test_mm256_addsub_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_addsub_pd // CHECK: call <4 x double> @llvm.x86.avx.addsub.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}) return _mm256_addsub_pd(A, B); } __m256 test_mm256_addsub_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_addsub_ps // CHECK: call <8 x float> @llvm.x86.avx.addsub.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}) return _mm256_addsub_ps(A, B); } __m256d test_mm256_and_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_and_pd // CHECK: and <4 x i64> return _mm256_and_pd(A, B); } __m256 test_mm256_and_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_and_ps // CHECK: and <8 x i32> return _mm256_and_ps(A, B); } __m256d test_mm256_andnot_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_andnot_pd // CHECK: xor <4 x i64> %{{.*}}, // CHECK: and <4 x i64> return _mm256_andnot_pd(A, B); } __m256 test_mm256_andnot_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_andnot_ps // CHECK: xor <8 x i32> %{{.*}}, // CHECK: and <8 x i32> return _mm256_andnot_ps(A, B); } __m256d test_mm256_blend_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_blend_pd // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> %{{.*}}, <4 x i32> return _mm256_blend_pd(A, B, 0x35); } __m256 test_mm256_blend_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_blend_ps // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> %{{.*}}, <8 x i32> return _mm256_blend_ps(A, B, 0x35); } __m256d test_mm256_blendv_pd(__m256d V1, __m256d V2, __m256d V3) { // CHECK-LABEL: test_mm256_blendv_pd // CHECK: call <4 x double> @llvm.x86.avx.blendv.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}) return _mm256_blendv_pd(V1, V2, V3); } __m256 test_mm256_blendv_ps(__m256 V1, __m256 V2, __m256 V3) { // CHECK-LABEL: test_mm256_blendv_ps // CHECK: call <8 x float> @llvm.x86.avx.blendv.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}) return _mm256_blendv_ps(V1, V2, V3); } __m256d test_mm256_broadcast_pd(__m128d* A) { // CHECK-LABEL: test_mm256_broadcast_pd // CHECK: call <4 x double> @llvm.x86.avx.vbroadcastf128.pd.256(i8* %{{.*}}) return _mm256_broadcast_pd(A); } __m256 test_mm256_broadcast_ps(__m128* A) { // CHECK-LABEL: test_mm256_broadcast_ps // CHECK: call <8 x float> @llvm.x86.avx.vbroadcastf128.ps.256(i8* %{{.*}}) return _mm256_broadcast_ps(A); } __m256d test_mm256_broadcast_sd(double* A) { // CHECK-LABEL: test_mm256_broadcast_sd // CHECK: load double, double* %{{.*}} // CHECK: insertelement <4 x double> undef, double %{{.*}}, i32 0 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 1 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 2 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 3 return _mm256_broadcast_sd(A); } __m128d test_mm_broadcast_ss(float* A) { // CHECK-LABEL: test_mm_broadcast_ss // CHECK: load float, float* %{{.*}} // CHECK: insertelement <4 x float> undef, float %{{.*}}, i32 0 // CHECK: insertelement <4 x float> %{{.*}}, float %{{.*}}, i32 1 // CHECK: insertelement <4 x float> %{{.*}}, float %{{.*}}, i32 2 // CHECK: insertelement <4 x float> %{{.*}}, float %{{.*}}, i32 3 return _mm_broadcast_ss(A); } __m256d test_mm256_broadcast_ss(float* A) { // CHECK-LABEL: test_mm256_broadcast_ss // CHECK: load float, float* %{{.*}} // CHECK: insertelement <8 x float> undef, float %{{.*}}, i32 0 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 1 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 2 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 3 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 4 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 5 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 6 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 7 return _mm256_broadcast_ss(A); } __m256 test_mm256_castpd_ps(__m256d A) { // CHECK-LABEL: test_mm256_castpd_ps // CHECK: bitcast <4 x double> %{{.*}} to <8 x float> return _mm256_castpd_ps(A); } __m256i test_mm256_castpd_si256(__m256d A) { // CHECK-LABEL: test_mm256_castpd_si256 // CHECK: bitcast <4 x double> %{{.*}} to <4 x i64> return _mm256_castpd_si256(A); } __m256d test_mm256_castpd128_pd256(__m128d A) { // CHECK-LABEL: test_mm256_castpd128_pd256 // CHECK: shufflevector <2 x double> %{{.*}}, <2 x double> %{{.*}}, <4 x i32> return _mm256_castpd128_pd256(A); } __m128d test_mm256_castpd256_pd128(__m256d A) { // CHECK-LABEL: test_mm256_castpd256_pd128 // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> %{{.*}}, <2 x i32> return _mm256_castpd256_pd128(A); } __m256d test_mm256_castps_pd(__m256 A) { // CHECK-LABEL: test_mm256_castps_pd // CHECK: bitcast <8 x float> %{{.*}} to <4 x double> return _mm256_castps_pd(A); } __m256i test_mm256_castps_si256(__m256 A) { // CHECK-LABEL: test_mm256_castps_si256 // CHECK: bitcast <8 x float> %{{.*}} to <4 x i64> return _mm256_castps_si256(A); } __m256 test_mm256_castps128_ps256(__m128 A) { // CHECK-LABEL: test_mm256_castps128_ps256 // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> %{{.*}}, <8 x i32> return _mm256_castps128_ps256(A); } __m128 test_mm256_castps256_ps128(__m256 A) { // CHECK-LABEL: test_mm256_castps256_ps128 // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> %{{.*}}, <4 x i32> return _mm256_castps256_ps128(A); } __m256i test_mm256_castsi128_si256(__m128i A) { // CHECK-LABEL: test_mm256_castsi128_si256 // CHECK: shufflevector <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <4 x i32> return _mm256_castsi128_si256(A); } __m256d test_mm256_castsi256_pd(__m256i A) { // CHECK-LABEL: test_mm256_castsi256_pd // CHECK: bitcast <4 x i64> %{{.*}} to <4 x double> return _mm256_castsi256_pd(A); } __m256 test_mm256_castsi256_ps(__m256i A) { // CHECK-LABEL: test_mm256_castsi256_ps // CHECK: bitcast <4 x i64> %{{.*}} to <8 x float> return _mm256_castsi256_ps(A); } __m128i test_mm256_castsi256_si128(__m256i A) { // CHECK-LABEL: test_mm256_castsi256_si128 // CHECK: shufflevector <4 x i64> %{{.*}}, <4 x i64> %{{.*}}, <2 x i32> return _mm256_castsi256_si128(A); } __m256d test_mm256_ceil_pd(__m256d x) { // CHECK-LABEL: test_mm256_ceil_pd // CHECK: call <4 x double> @llvm.x86.avx.round.pd.256(<4 x double> %{{.*}}, i32 2) return _mm256_ceil_pd(x); } __m256 test_mm_ceil_ps(__m256 x) { // CHECK-LABEL: test_mm_ceil_ps // CHECK: call <8 x float> @llvm.x86.avx.round.ps.256(<8 x float> %{{.*}}, i32 2) return _mm256_ceil_ps(x); } __m128d test_mm_cmp_pd(__m128d A, __m128d B) { // CHECK-LABEL: test_mm_cmp_pd // CHECK: call <2 x double> @llvm.x86.sse2.cmp.pd(<2 x double> %{{.*}}, <2 x double> %{{.*}}, i8 13) return _mm_cmp_pd(A, B, _CMP_GE_OS); } __m256d test_mm256_cmp_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_cmp_pd // CHECK: call <4 x double> @llvm.x86.avx.cmp.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i8 13) return _mm256_cmp_pd(A, B, _CMP_GE_OS); } __m128 test_mm_cmp_ps(__m128 A, __m128 B) { // CHECK-LABEL: test_mm_cmp_ps // CHECK: call <4 x float> @llvm.x86.sse.cmp.ps(<4 x float> %{{.*}}, <4 x float> %{{.*}}, i8 13) return _mm_cmp_ps(A, B, _CMP_GE_OS); } __m256 test_mm256_cmp_ps(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_cmp_ps // CHECK: call <8 x float> @llvm.x86.avx.cmp.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i8 13) return _mm256_cmp_ps(A, B, _CMP_GE_OS); } __m128d test_mm_cmp_sd(__m128d A, __m128d B) { // CHECK-LABEL: test_mm_cmp_sd // CHECK: call <2 x double> @llvm.x86.sse2.cmp.sd(<2 x double> %{{.*}}, <2 x double> %{{.*}}, i8 13) return _mm_cmp_sd(A, B, _CMP_GE_OS); } __m128 test_mm_cmp_ss(__m128 A, __m128 B) { // CHECK-LABEL: test_mm_cmp_ss // CHECK: call <4 x float> @llvm.x86.sse.cmp.ss(<4 x float> %{{.*}}, <4 x float> %{{.*}}, i8 13) return _mm_cmp_ss(A, B, _CMP_GE_OS); } __m256d test_mm256_cvtepi32_pd(__m128i A) { // CHECK-LABEL: test_mm256_cvtepi32_pd // CHECK: sitofp <4 x i32> %{{.*}} to <4 x double> return _mm256_cvtepi32_pd(A); } __m256 test_mm256_cvtepi32_ps(__m256i A) { // CHECK-LABEL: test_mm256_cvtepi32_ps // CHECK: call <8 x float> @llvm.x86.avx.cvtdq2.ps.256(<8 x i32> %{{.*}}) return _mm256_cvtepi32_ps(A); } __m128i test_mm256_cvtpd_epi32(__m256d A) { // CHECK-LABEL: test_mm256_cvtpd_epi32 // CHECK: call <4 x i32> @llvm.x86.avx.cvt.pd2dq.256(<4 x double> %{{.*}}) return _mm256_cvtpd_epi32(A); } __m128 test_mm256_cvtpd_ps(__m256d A) { // CHECK-LABEL: test_mm256_cvtpd_ps // CHECK: call <4 x float> @llvm.x86.avx.cvt.pd2.ps.256(<4 x double> %{{.*}}) return _mm256_cvtpd_ps(A); } __m256i test_mm256_cvtps_epi32(__m256 A) { // CHECK-LABEL: test_mm256_cvtps_epi32 // CHECK: call <8 x i32> @llvm.x86.avx.cvt.ps2dq.256(<8 x float> %{{.*}}) return _mm256_cvtps_epi32(A); } __m256d test_mm256_cvtps_pd(__m128 A) { // CHECK-LABEL: test_mm256_cvtps_pd // CHECK: fpext <4 x float> %{{.*}} to <4 x double> return _mm256_cvtps_pd(A); } __m128i test_mm256_cvttpd_epi32(__m256d A) { // CHECK-LABEL: test_mm256_cvttpd_epi32 // CHECK: fptosi <4 x double> %{{.*}} to <4 x i32> return _mm256_cvttpd_epi32(A); } __m256i test_mm256_cvttps_epi32(__m256 A) { // CHECK-LABEL: test_mm256_cvttps_epi32 // CHECK: fptosi <8 x float> %{{.*}} to <8 x i32> return _mm256_cvttps_epi32(A); } __m256d test_mm256_div_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_div_pd // CHECK: fdiv <4 x double> return _mm256_div_pd(A, B); } __m256 test_mm256_div_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_div_ps // CHECK: fdiv <8 x float> return _mm256_div_ps(A, B); } __m256 test_mm256_dp_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_dp_ps // CHECK: call <8 x float> @llvm.x86.avx.dp.ps.256(<8 x float> {{.*}}, <8 x float> {{.*}}, i8 7) return _mm256_dp_ps(A, B, 7); } int test_mm256_extract_epi8(__m256i A) { // CHECK-LABEL: test_mm256_extract_epi8 // CHECK: and i32 %{{.*}}, 31 // CHECK: extractelement <32 x i8> %{{.*}}, i32 %{{.*}} // CHECK: zext i8 %{{.*}} to i32 return _mm256_extract_epi8(A, 32); } int test_mm256_extract_epi16(__m256i A) { // CHECK-LABEL: test_mm256_extract_epi16 // CHECK: and i32 %{{.*}}, 15 // CHECK: extractelement <16 x i16> %{{.*}}, i32 %{{.*}} // CHECK: zext i16 %{{.*}} to i32 return _mm256_extract_epi16(A, 16); } int test_mm256_extract_epi32(__m256i A) { // CHECK-LABEL: test_mm256_extract_epi32 // CHECK: and i32 %{{.*}}, 7 // CHECK: extractelement <8 x i32> %{{.*}}, i32 %{{.*}} return _mm256_extract_epi32(A, 8); } long long test_mm256_extract_epi64(__m256i A) { // CHECK-LABEL: test_mm256_extract_epi64 // CHECK: and i32 %{{.*}}, 3 // CHECK: extractelement <4 x i64> %{{.*}}, i32 %{{.*}} return _mm256_extract_epi64(A, 5); } __m128d test_mm256_extractf128_pd(__m256d A) { // CHECK-LABEL: test_mm256_extractf128_pd // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> undef, <2 x i32> return _mm256_extractf128_pd(A, 1); } __m128 test_mm256_extractf128_ps(__m256 A) { // CHECK-LABEL: test_mm256_extractf128_ps // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> undef, <4 x i32> return _mm256_extractf128_ps(A, 1); } __m128i test_mm256_extractf128_si256(__m256i A) { // CHECK-LABEL: test_mm256_extractf128_si256 // CHECK: shufflevector <4 x i64> %{{.*}}, <4 x i64> undef, <2 x i32> return _mm256_extractf128_si256(A, 1); } __m256d test_mm256_floor_pd(__m256d x) { // CHECK-LABEL: test_mm256_floor_pd // CHECK: call <4 x double> @llvm.x86.avx.round.pd.256(<4 x double> %{{.*}}, i32 1) return _mm256_floor_pd(x); } __m256 test_mm_floor_ps(__m256 x) { // CHECK-LABEL: test_mm_floor_ps // CHECK: call <8 x float> @llvm.x86.avx.round.ps.256(<8 x float> %{{.*}}, i32 1) return _mm256_floor_ps(x); } __m256d test_mm256_hadd_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_hadd_pd // CHECK: call <4 x double> @llvm.x86.avx.hadd.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}) return _mm256_hadd_pd(A, B); } __m256 test_mm256_hadd_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_hadd_ps // CHECK: call <8 x float> @llvm.x86.avx.hadd.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}) return _mm256_hadd_ps(A, B); } __m256d test_mm256_hsub_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_hsub_pd // CHECK: call <4 x double> @llvm.x86.avx.hsub.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}) return _mm256_hsub_pd(A, B); } __m256 test_mm256_hsub_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_hsub_ps // CHECK: call <8 x float> @llvm.x86.avx.hsub.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}) return _mm256_hsub_ps(A, B); } __m256i test_mm256_insert_epi8(__m256i x, char b) { // CHECK-LABEL: test_mm256_insert_epi8 // CHECK: and i32 %{{.*}}, 31 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 %{{.*}} return _mm256_insert_epi8(x, b, 17); } __m256i test_mm256_insert_epi16(__m256i x, int b) { // CHECK-LABEL: test_mm256_insert_epi16 // CHECK: and i32 %{{.*}}, 15 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 %{{.*}} return _mm256_insert_epi16(x, b, 4); } __m256i test_mm256_insert_epi32(__m256i x, int b) { // CHECK-LABEL: test_mm256_insert_epi32 // CHECK: and i32 %{{.*}}, 7 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 %{{.*}} return _mm256_insert_epi32(x, b, 5); } __m256i test_mm256_insert_epi64(__m256i x, long long b) { // CHECK-LABEL: test_mm256_insert_epi64 // CHECK: and i32 %{{.*}}, 3 // CHECK: insertelement <4 x i64> %{{.*}}, i64 %{{.*}}, i32 %{{.*}} return _mm256_insert_epi64(x, b, 2); } __m256d test_mm256_insertf128_pd(__m256d A, __m128d B) { // CHECK-LABEL: test_mm256_insertf128_pd // CHECK: shufflevector <2 x double> %{{.*}}, <2 x double> %{{.*}}, <4 x i32> // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> %{{.*}}, <4 x i32> return _mm256_insertf128_pd(A, B, 0); } __m256 test_mm256_insertf128_ps(__m256 A, __m128 B) { // CHECK-LABEL: test_mm256_insertf128_ps // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> %{{.*}}, <8 x i32> // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> %{{.*}}, <8 x i32> return _mm256_insertf128_ps(A, B, 1); } __m256i test_mm256_insertf128_si256(__m256i A, __m128i B) { // CHECK-LABEL: test_mm256_insertf128_si256 // CHECK: shufflevector <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <4 x i32> // CHECK: shufflevector <4 x i64> %{{.*}}, <4 x i64> %{{.*}}, <4 x i32> return _mm256_insertf128_si256(A, B, 0); } __m256i test_mm256_lddqu_si256(__m256i* A) { // CHECK-LABEL: test_mm256_lddqu_si256 // CHECK: call <32 x i8> @llvm.x86.avx.ldu.dq.256(i8* %{{.*}}) return _mm256_lddqu_si256(A); } __m256d test_mm256_load_pd(double* A) { // CHECK-LABEL: test_mm256_load_pd // CHECK: load <4 x double>, <4 x double>* %{{.*}}, align 32 return _mm256_load_pd(A); } __m256 test_mm256_load_ps(float* A) { // CHECK-LABEL: test_mm256_load_ps // CHECK: load <8 x float>, <8 x float>* %{{.*}}, align 32 return _mm256_load_ps(A); } __m256i test_mm256_load_si256(__m256i* A) { // CHECK-LABEL: test_mm256_load_si256 // CHECK: load <4 x i64>, <4 x i64>* %{{.*}}, align 32 return _mm256_load_si256(A); } __m256d test_mm256_loadu_pd(double* A) { // CHECK-LABEL: test_mm256_loadu_pd // CHECK: load <4 x double>, <4 x double>* %{{.*}}, align 1{{$}} return _mm256_loadu_pd(A); } __m256 test_mm256_loadu_ps(float* A) { // CHECK-LABEL: test_mm256_loadu_ps // CHECK: load <8 x float>, <8 x float>* %{{.*}}, align 1{{$}} return _mm256_loadu_ps(A); } __m256i test_mm256_loadu_si256(__m256i* A) { // CHECK-LABEL: test_mm256_loadu_si256 // CHECK: load <4 x i64>, <4 x i64>* %{{.+}}, align 1{{$}} return _mm256_loadu_si256(A); } __m256 test_mm256_loadu2_m128(float* A, float* B) { // CHECK-LABEL: test_mm256_loadu2_m128 // CHECK: load <4 x float>, <4 x float>* %{{.*}}, align 1{{$}} // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> %{{.*}}, <8 x i32> // CHECK: load <4 x float>, <4 x float>* %{{.*}}, align 1{{$}} // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> %{{.*}}, <8 x i32> // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> %{{.*}}, <8 x i32> return _mm256_loadu2_m128(A, B); } __m256d test_mm256_loadu2_m128d(double* A, double* B) { // CHECK-LABEL: test_mm256_loadu2_m128d // CHECK: load <2 x double>, <2 x double>* %{{.*}}, align 1{{$}} // CHECK: shufflevector <2 x double> %{{.*}}, <2 x double> %{{.*}}, <4 x i32> // CHECK: load <2 x double>, <2 x double>* %{{.*}}, align 1{{$}} // CHECK: shufflevector <2 x double> %{{.*}}, <2 x double> %{{.*}}, <4 x i32> // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> %{{.*}}, <4 x i32> return _mm256_loadu2_m128d(A, B); } __m256i test_mm256_loadu2_m128i(__m128i* A, __m128i* B) { // CHECK-LABEL: test_mm256_loadu2_m128i // CHECK: load <2 x i64>, <2 x i64>* %{{.*}}, align 1{{$}} // CHECK: shufflevector <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <4 x i32> // CHECK: load <2 x i64>, <2 x i64>* %{{.*}}, align 1{{$}} // CHECK: shufflevector <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <4 x i32> // CHECK: shufflevector <4 x i64> %{{.*}}, <4 x i64> %{{.*}}, <4 x i32> return _mm256_loadu2_m128i(A, B); } __m128d test_mm_maskload_pd(double* A, __m128i B) { // CHECK-LABEL: test_mm_maskload_pd // CHECK: call <2 x double> @llvm.x86.avx.maskload.pd(i8* %{{.*}}, <2 x i64> %{{.*}}) return _mm_maskload_pd(A, B); } __m256d test_mm256_maskload_pd(double* A, __m256i B) { // CHECK-LABEL: test_mm256_maskload_pd // CHECK: call <4 x double> @llvm.x86.avx.maskload.pd.256(i8* %{{.*}}, <4 x i64> %{{.*}}) return _mm256_maskload_pd(A, B); } __m128 test_mm_maskload_ps(float* A, __m128i B) { // CHECK-LABEL: test_mm_maskload_ps // CHECK: call <4 x float> @llvm.x86.avx.maskload.ps(i8* %{{.*}}, <4 x i32> %{{.*}}) return _mm_maskload_ps(A, B); } __m256d test_mm256_maskload_ps(float* A, __m256i B) { // CHECK-LABEL: test_mm256_maskload_ps // CHECK: call <8 x float> @llvm.x86.avx.maskload.ps.256(i8* %{{.*}}, <8 x i32> %{{.*}}) return _mm256_maskload_ps(A, B); } void test_mm_maskstore_pd(double* A, __m128i B, __m128d C) { // CHECK-LABEL: test_mm_maskstore_pd // CHECK: call void @llvm.x86.avx.maskstore.pd(i8* %{{.*}}, <2 x i64> %{{.*}}, <2 x double> %{{.*}}) _mm_maskstore_pd(A, B, C); } void test_mm256_maskstore_pd(double* A, __m256i B, __m256d C) { // CHECK-LABEL: test_mm256_maskstore_pd // CHECK: call void @llvm.x86.avx.maskstore.pd.256(i8* %{{.*}}, <4 x i64> %{{.*}}, <4 x double> %{{.*}}) _mm256_maskstore_pd(A, B, C); } void test_mm_maskstore_ps(float* A, __m128i B, __m128 C) { // CHECK-LABEL: test_mm_maskstore_ps // CHECK: call void @llvm.x86.avx.maskstore.ps(i8* %{{.*}}, <4 x i32> %{{.*}}, <4 x float> %{{.*}}) _mm_maskstore_ps(A, B, C); } void test_mm256_maskstore_ps(float* A, __m256i B, __m256 C) { // CHECK-LABEL: test_mm256_maskstore_ps // CHECK: call void @llvm.x86.avx.maskstore.ps.256(i8* %{{.*}}, <8 x i32> %{{.*}}, <8 x float> %{{.*}}) _mm256_maskstore_ps(A, B, C); } __m256d test_mm256_max_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_max_pd // CHECK: call <4 x double> @llvm.x86.avx.max.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}) return _mm256_max_pd(A, B); } __m256 test_mm256_max_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_max_ps // CHECK: call <8 x float> @llvm.x86.avx.max.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}) return _mm256_max_ps(A, B); } __m256d test_mm256_min_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_min_pd // CHECK: call <4 x double> @llvm.x86.avx.min.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}) return _mm256_min_pd(A, B); } __m256 test_mm256_min_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_min_ps // CHECK: call <8 x float> @llvm.x86.avx.min.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}) return _mm256_min_ps(A, B); } __m256d test_mm256_movedup_pd(__m256d A) { // CHECK-LABEL: test_mm256_movedup_pd // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> %{{.*}}, <4 x i32> return _mm256_movedup_pd(A); } __m256 test_mm256_movehdup_ps(__m256 A) { // CHECK-LABEL: test_mm256_movehdup_ps // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> %{{.*}}, <8 x i32> return _mm256_movehdup_ps(A); } __m256 test_mm256_moveldup_ps(__m256 A) { // CHECK-LABEL: test_mm256_moveldup_ps // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> %{{.*}}, <8 x i32> return _mm256_moveldup_ps(A); } int test_mm256_movemask_pd(__m256d A) { // CHECK-LABEL: test_mm256_movemask_pd // CHECK: call i32 @llvm.x86.avx.movmsk.pd.256(<4 x double> %{{.*}}) return _mm256_movemask_pd(A); } int test_mm256_movemask_ps(__m256 A) { // CHECK-LABEL: test_mm256_movemask_ps // CHECK: call i32 @llvm.x86.avx.movmsk.ps.256(<8 x float> %{{.*}}) return _mm256_movemask_ps(A); } __m256d test_mm256_mul_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_mul_pd // CHECK: fmul <4 x double> return _mm256_mul_pd(A, B); } __m256 test_mm256_mul_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_mul_ps // CHECK: fmul <8 x float> return _mm256_mul_ps(A, B); } __m256d test_mm256_or_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_or_pd // CHECK: or <4 x i64> return _mm256_or_pd(A, B); } __m256 test_mm256_or_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_or_ps // CHECK: or <8 x i32> return _mm256_or_ps(A, B); } __m128d test_mm_permute_pd(__m128d A) { // CHECK-LABEL: test_mm_permute_pd // CHECK: shufflevector <2 x double> %{{.*}}, <2 x double> undef, <2 x i32> return _mm_permute_pd(A, 1); } __m256d test_mm256_permute_pd(__m256d A) { // CHECK-LABEL: test_mm256_permute_pd // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> undef, <4 x i32> return _mm256_permute_pd(A, 5); } __m128 test_mm_permute_ps(__m128 A) { // CHECK-LABEL: test_mm_permute_ps // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> undef, <4 x i32> return _mm_permute_ps(A, 0x1b); } // Test case for PR12401 __m128 test2_mm_permute_ps(__m128 a) { // CHECK-LABEL: test2_mm_permute_ps // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> undef, <4 x i32> return _mm_permute_ps(a, 0xe6); } __m256 test_mm256_permute_ps(__m256 A) { // CHECK-LABEL: test_mm256_permute_ps // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> undef, <8 x i32> return _mm256_permute_ps(A, 0x1b); } __m256d test_mm256_permute2f128_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_permute2f128_pd // CHECK: call <4 x double> @llvm.x86.avx.vperm2f128.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i8 49) return _mm256_permute2f128_pd(A, B, 0x31); } __m256 test_mm256_permute2f128_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_permute2f128_ps // CHECK: call <8 x float> @llvm.x86.avx.vperm2f128.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i8 19) return _mm256_permute2f128_ps(A, B, 0x13); } __m256i test_mm256_permute2f128_si256(__m256i A, __m256i B) { // CHECK-LABEL: test_mm256_permute2f128_si256 // CHECK: call <8 x i32> @llvm.x86.avx.vperm2f128.si.256(<8 x i32> %{{.*}}, <8 x i32> %{{.*}}, i8 32) return _mm256_permute2f128_si256(A, B, 0x20); } __m128d test_mm_permutevar_pd(__m128d A, __m128i B) { // CHECK-LABEL: test_mm_permutevar_pd // CHECK: call <2 x double> @llvm.x86.avx.vpermilvar.pd(<2 x double> %{{.*}}, <2 x i64> %{{.*}}) return _mm_permutevar_pd(A, B); } __m256d test_mm256_permutevar_pd(__m256d A, __m256i B) { // CHECK-LABEL: test_mm256_permutevar_pd // CHECK: call <4 x double> @llvm.x86.avx.vpermilvar.pd.256(<4 x double> %{{.*}}, <4 x i64> %{{.*}}) return _mm256_permutevar_pd(A, B); } __m128 test_mm_permutevar_ps(__m128 A, __m128i B) { // CHECK-LABEL: test_mm_permutevar_ps // CHECK: call <4 x float> @llvm.x86.avx.vpermilvar.ps(<4 x float> %{{.*}}, <4 x i32> %{{.*}}) return _mm_permutevar_ps(A, B); } __m256 test_mm256_permutevar_ps(__m256 A, __m256i B) { // CHECK-LABEL: test_mm256_permutevar_ps // CHECK: call <8 x float> @llvm.x86.avx.vpermilvar.ps.256(<8 x float> %{{.*}}, <8 x i32> %{{.*}}) return _mm256_permutevar_ps(A, B); } __m256 test_mm256_rcp_ps(__m256 A) { // CHECK-LABEL: test_mm256_rcp_ps // CHECK: call <8 x float> @llvm.x86.avx.rcp.ps.256(<8 x float> %{{.*}}) return _mm256_rcp_ps(A); } __m256d test_mm256_round_pd(__m256d x) { // CHECK-LABEL: test_mm256_round_pd // CHECK: call <4 x double> @llvm.x86.avx.round.pd.256(<4 x double> %{{.*}}, i32 4) return _mm256_round_pd(x, 4); } __m256 test_mm256_round_ps(__m256 x) { // CHECK-LABEL: test_mm256_round_ps // CHECK: call <8 x float> @llvm.x86.avx.round.ps.256(<8 x float> %{{.*}}, i32 4) return _mm256_round_ps(x, 4); } __m256 test_mm256_rsqrt_ps(__m256 A) { // CHECK-LABEL: test_mm256_rsqrt_ps // CHECK: call <8 x float> @llvm.x86.avx.rsqrt.ps.256(<8 x float> %{{.*}}) return _mm256_rsqrt_ps(A); } __m256i test_mm256_set_epi8(char A0, char A1, char A2, char A3, char A4, char A5, char A6, char A7, char A8, char A9, char A10, char A11, char A12, char A13, char A14, char A15, char A16, char A17, char A18, char A19, char A20, char A21, char A22, char A23, char A24, char A25, char A26, char A27, char A28, char A29, char A30, char A31) { // CHECK-LABEL: test_mm256_set_epi8 // CHECK: insertelement <32 x i8> undef, i8 %{{.*}}, i32 0 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 1 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 2 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 3 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 4 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 5 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 6 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 7 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 8 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 9 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 10 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 11 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 12 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 13 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 14 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 15 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 16 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 17 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 18 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 19 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 20 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 21 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 22 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 23 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 24 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 25 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 26 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 27 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 28 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 29 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 30 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 31 return _mm256_set_epi8(A0, A1, A2, A3, A4, A5, A6, A7, A8, A9, A10, A11, A12, A13, A14, A15, A16, A17, A18, A19, A20, A21, A22, A23, A24, A25, A26, A27, A28, A29, A30, A31); } __m256i test_mm256_set_epi16(short A0, short A1, short A2, short A3, short A4, short A5, short A6, short A7, short A8, short A9, short A10, short A11, short A12, short A13, short A14, short A15) { // CHECK-LABEL: test_mm256_set_epi16 // CHECK: insertelement <16 x i16> undef, i16 %{{.*}}, i32 0 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 1 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 2 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 3 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 4 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 5 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 6 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 7 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 8 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 9 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 10 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 11 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 12 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 13 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 14 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 15 return _mm256_set_epi16(A0, A1, A2, A3, A4, A5, A6, A7, A8, A9, A10, A11, A12, A13, A14, A15); } __m256i test_mm256_set_epi32(int A0, int A1, int A2, int A3, int A4, int A5, int A6, int A7) { // CHECK-LABEL: test_mm256_set_epi32 // CHECK: insertelement <8 x i32> undef, i32 %{{.*}}, i32 0 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 1 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 2 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 3 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 4 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 5 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 6 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 7 return _mm256_set_epi32(A0, A1, A2, A3, A4, A5, A6, A7); } __m256i test_mm256_set_epi64x(long long A0, long long A1, long long A2, long long A3) { // CHECK-LABEL: test_mm256_set_epi64x // CHECK: insertelement <4 x i64> undef, i64 %{{.*}}, i32 0 // CHECK: insertelement <4 x i64> %{{.*}}, i64 %{{.*}}, i32 1 // CHECK: insertelement <4 x i64> %{{.*}}, i64 %{{.*}}, i32 2 // CHECK: insertelement <4 x i64> %{{.*}}, i64 %{{.*}}, i32 3 return _mm256_set_epi64x(A0, A1, A2, A3); } __m256 test_mm256_set_m128(__m128 A, __m128 B) { // CHECK-LABEL: test_mm256_set_m128 // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> %{{.*}}, <8 x i32> return _mm256_set_m128(A, B); } __m256d test_mm256_set_m128d(__m128d A, __m128d B) { // CHECK-LABEL: test_mm256_set_m128d // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> %{{.*}}, <8 x i32> return _mm256_set_m128d(A, B); } __m256i test_mm256_set_m128i(__m128i A, __m128i B) { // CHECK-LABEL: test_mm256_set_m128i // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> %{{.*}}, <8 x i32> return _mm256_set_m128i(A, B); } __m256d test_mm256_set_pd(double A0, double A1, double A2, double A3) { // CHECK-LABEL: test_mm256_set_pd // CHECK: insertelement <4 x double> undef, double %{{.*}}, i32 0 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 1 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 2 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 3 return _mm256_set_pd(A0, A1, A2, A3); } __m256 test_mm256_set_ps(float A0, float A1, float A2, float A3, float A4, float A5, float A6, float A7) { // CHECK-LABEL: test_mm256_set_ps // CHECK: insertelement <8 x float> undef, float %{{.*}}, i32 0 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 1 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 2 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 3 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 4 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 5 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 6 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 7 return _mm256_set_ps(A0, A1, A2, A3, A4, A5, A6, A7); } __m256i test_mm256_set1_epi8(char A) { // CHECK-LABEL: test_mm256_set1_epi8 // CHECK: insertelement <32 x i8> undef, i8 %{{.*}}, i32 0 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 1 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 2 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 3 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 4 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 5 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 6 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 7 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 8 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 9 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 10 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 11 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 12 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 13 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 14 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 15 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 16 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 17 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 18 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 19 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 20 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 21 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 22 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 23 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 24 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 25 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 26 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 27 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 28 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 29 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 30 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 31 return _mm256_set1_epi8(A); } __m256i test_mm256_set1_epi16(short A) { // CHECK-LABEL: test_mm256_set1_epi16 // CHECK: insertelement <16 x i16> undef, i16 %{{.*}}, i32 0 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 1 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 2 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 3 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 4 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 5 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 6 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 7 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 8 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 9 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 10 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 11 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 12 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 13 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 14 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 15 return _mm256_set1_epi16(A); } __m256i test_mm256_set1_epi32(int A) { // CHECK-LABEL: test_mm256_set1_epi32 // CHECK: insertelement <8 x i32> undef, i32 %{{.*}}, i32 0 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 1 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 2 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 3 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 4 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 5 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 6 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 7 return _mm256_set1_epi32(A); } __m256i test_mm256_set1_epi64x(long long A) { // CHECK-LABEL: test_mm256_set1_epi64x // CHECK: insertelement <4 x i64> undef, i64 %{{.*}}, i32 0 // CHECK: insertelement <4 x i64> %{{.*}}, i64 %{{.*}}, i32 1 // CHECK: insertelement <4 x i64> %{{.*}}, i64 %{{.*}}, i32 2 // CHECK: insertelement <4 x i64> %{{.*}}, i64 %{{.*}}, i32 3 return _mm256_set1_epi64x(A); } __m256d test_mm256_set1_pd(double A) { // CHECK-LABEL: test_mm256_set1_pd // CHECK: insertelement <4 x double> undef, double %{{.*}}, i32 0 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 1 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 2 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 3 return _mm256_set1_pd(A); } __m256 test_mm256_set1_ps(float A) { // CHECK-LABEL: test_mm256_set1_ps // CHECK: insertelement <8 x float> undef, float %{{.*}}, i32 0 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 1 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 2 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 3 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 4 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 5 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 6 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 7 return _mm256_set1_ps(A); } __m256i test_mm256_setr_epi8(char A0, char A1, char A2, char A3, char A4, char A5, char A6, char A7, char A8, char A9, char A10, char A11, char A12, char A13, char A14, char A15, char A16, char A17, char A18, char A19, char A20, char A21, char A22, char A23, char A24, char A25, char A26, char A27, char A28, char A29, char A30, char A31) { // CHECK-LABEL: test_mm256_setr_epi8 // CHECK: insertelement <32 x i8> undef, i8 %{{.*}}, i32 0 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 1 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 2 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 3 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 4 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 5 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 6 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 7 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 8 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 9 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 10 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 11 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 12 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 13 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 14 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 15 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 16 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 17 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 18 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 19 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 20 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 21 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 22 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 23 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 24 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 25 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 26 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 27 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 28 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 29 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 30 // CHECK: insertelement <32 x i8> %{{.*}}, i8 %{{.*}}, i32 31 return _mm256_setr_epi8(A0, A1, A2, A3, A4, A5, A6, A7, A8, A9, A10, A11, A12, A13, A14, A15, A16, A17, A18, A19, A20, A21, A22, A23, A24, A25, A26, A27, A28, A29, A30, A31); } __m256i test_mm256_setr_epi16(short A0, short A1, short A2, short A3, short A4, short A5, short A6, short A7, short A8, short A9, short A10, short A11, short A12, short A13, short A14, short A15) { // CHECK-LABEL: test_mm256_setr_epi16 // CHECK: insertelement <16 x i16> undef, i16 %{{.*}}, i32 0 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 1 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 2 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 3 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 4 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 5 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 6 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 7 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 8 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 9 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 10 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 11 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 12 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 13 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 14 // CHECK: insertelement <16 x i16> %{{.*}}, i16 %{{.*}}, i32 15 return _mm256_setr_epi16(A0, A1, A2, A3, A4, A5, A6, A7, A8, A9, A10, A11, A12, A13, A14, A15); } __m256i test_mm256_setr_epi32(int A0, int A1, int A2, int A3, int A4, int A5, int A6, int A7) { // CHECK-LABEL: test_mm256_setr_epi32 // CHECK: insertelement <8 x i32> undef, i32 %{{.*}}, i32 0 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 1 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 2 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 3 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 4 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 5 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 6 // CHECK: insertelement <8 x i32> %{{.*}}, i32 %{{.*}}, i32 7 return _mm256_setr_epi32(A0, A1, A2, A3, A4, A5, A6, A7); } __m256i test_mm256_setr_epi64x(long long A0, long long A1, long long A2, long long A3) { // CHECK-LABEL: test_mm256_setr_epi64x // CHECK: insertelement <4 x i64> undef, i64 %{{.*}}, i32 0 // CHECK: insertelement <4 x i64> %{{.*}}, i64 %{{.*}}, i32 1 // CHECK: insertelement <4 x i64> %{{.*}}, i64 %{{.*}}, i32 2 // CHECK: insertelement <4 x i64> %{{.*}}, i64 %{{.*}}, i32 3 return _mm256_setr_epi64x(A0, A1, A2, A3); } __m256 test_mm256_setr_m128(__m128 A, __m128 B) { // CHECK-LABEL: test_mm256_setr_m128 // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> %{{.*}}, <8 x i32> return _mm256_setr_m128(A, B); } __m256d test_mm256_setr_m128d(__m128d A, __m128d B) { // CHECK-LABEL: test_mm256_setr_m128d // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> %{{.*}}, <8 x i32> return _mm256_setr_m128d(A, B); } __m256i test_mm256_setr_m128i(__m128i A, __m128i B) { // CHECK-LABEL: test_mm256_setr_m128i // CHECK: shufflevector <4 x float> %{{.*}}, <4 x float> %{{.*}}, <8 x i32> return _mm256_setr_m128i(A, B); } __m256d test_mm256_setr_pd(double A0, double A1, double A2, double A3) { // CHECK-LABEL: test_mm256_setr_pd // CHECK: insertelement <4 x double> undef, double %{{.*}}, i32 0 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 1 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 2 // CHECK: insertelement <4 x double> %{{.*}}, double %{{.*}}, i32 3 return _mm256_setr_pd(A0, A1, A2, A3); } __m256 test_mm256_setr_ps(float A0, float A1, float A2, float A3, float A4, float A5, float A6, float A7) { // CHECK-LABEL: test_mm256_setr_ps // CHECK: insertelement <8 x float> undef, float %{{.*}}, i32 0 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 1 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 2 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 3 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 4 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 5 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 6 // CHECK: insertelement <8 x float> %{{.*}}, float %{{.*}}, i32 7 return _mm256_setr_ps(A0, A1, A2, A3, A4, A5, A6, A7); } __m256d test_mm256_setzero_pd() { // CHECK-LABEL: test_mm256_setzero_pd // CHECK: store <4 x double> zeroinitializer return _mm256_setzero_pd(); } __m256 test_mm256_setzero_ps() { // CHECK-LABEL: test_mm256_setzero_ps // CHECK: store <8 x float> zeroinitializer return _mm256_setzero_ps(); } __m256i test_mm256_setzero_si256() { // CHECK-LABEL: test_mm256_setzero_si256 // CHECK: store <4 x i64> zeroinitializer return _mm256_setzero_si256(); } __m256d test_mm256_shuffle_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_shuffle_pd // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> %{{.*}}, <4 x i32> return _mm256_shuffle_pd(A, B, 0); } __m256 test_mm256_shuffle_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_shuffle_ps // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> %{{.*}}, <8 x i32> return _mm256_shuffle_ps(A, B, 0); } __m256d test_mm256_sqrt_pd(__m256d A) { // CHECK-LABEL: test_mm256_sqrt_pd // CHECK: call <4 x double> @llvm.x86.avx.sqrt.pd.256(<4 x double> %{{.*}}) return _mm256_sqrt_pd(A); } __m256 test_mm256_sqrt_ps(__m256 A) { // CHECK-LABEL: test_mm256_sqrt_ps // CHECK: call <8 x float> @llvm.x86.avx.sqrt.ps.256(<8 x float> %{{.*}}) return _mm256_sqrt_ps(A); } void test_mm256_store_pd(double* A, __m256d B) { // CHECK-LABEL: test_mm256_store_pd // CHECK: store <4 x double> %{{.*}}, <4 x double>* %{{.*}}, align 32 _mm256_store_pd(A, B); } void test_mm256_store_ps(float* A, __m256 B) { // CHECK-LABEL: test_mm256_store_ps // CHECK: store <8 x float> %{{.*}}, <8 x float>* %{{.*}}, align 32 _mm256_store_ps(A, B); } void test_mm256_store_si256(__m256i* A, __m256i B) { // CHECK-LABEL: test_mm256_store_si256 // CHECK: store <4 x i64> %{{.*}}, <4 x i64>* %{{.*}}, align 32 _mm256_store_si256(A, B); } void test_mm256_storeu_pd(double* A, __m256d B) { // CHECK-LABEL: test_mm256_storeu_pd // CHECK: store <4 x double> %{{.*}}, <4 x double>* %{{.*}}, align 1{{$}} // CHECK-NEXT: ret void _mm256_storeu_pd(A, B); } void test_mm256_storeu_ps(float* A, __m256 B) { // CHECK-LABEL: test_mm256_storeu_ps // CHECK: store <8 x float> %{{.*}}, <8 x float>* %{{.*}}, align 1{{$}} // CHECk-NEXT: ret void _mm256_storeu_ps(A, B); } void test_mm256_storeu_si256(__m256i* A, __m256i B) { // CHECK-LABEL: test_mm256_storeu_si256 // CHECK: store <4 x i64> %{{.*}}, <4 x i64>* %{{.*}}, align 1{{$}} // CHECk-NEXT: ret void _mm256_storeu_si256(A, B); } void test_mm256_storeu2_m128(float* A, float* B, __m256 C) { // CHECK-LABEL: test_mm256_storeu2_m128 // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> %{{.*}}, <4 x i32> // CHECK: store <4 x float> %{{.*}}, <4 x float>* %{{.*}}, align 1{{$}} // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> undef, <4 x i32> // CHECK: store <4 x float> %{{.*}}, <4 x float>* %{{.*}}, align 1{{$}} _mm256_storeu2_m128(A, B, C); } void test_mm256_storeu2_m128d(double* A, double* B, __m256d C) { // CHECK-LABEL: test_mm256_storeu2_m128d // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> %{{.*}}, <2 x i32> // CHECK: store <2 x double> %{{.*}}, <2 x double>* %{{.*}}, align 1{{$}} // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> undef, <2 x i32> // CHECK: store <2 x double> %{{.*}}, <2 x double>* %{{.*}}, align 1{{$}} _mm256_storeu2_m128d(A, B, C); } void test_mm256_storeu2_m128i(__m128i* A, __m128i* B, __m256i C) { // CHECK-LABEL: test_mm256_storeu2_m128i // CHECK: shufflevector <4 x i64> %{{.*}}, <4 x i64> %{{.*}}, <2 x i32> // CHECK: store <2 x i64> %{{.*}}, <2 x i64>* %{{.*}}, align 1{{$}} // CHECK: shufflevector <4 x i64> %{{.*}}, <4 x i64> undef, <2 x i32> // CHECK: store <2 x i64> %{{.*}}, <2 x i64>* %{{.*}}, align 1{{$}} _mm256_storeu2_m128i(A, B, C); } void test_mm256_stream_pd(double* A, __m256d B) { // CHECK-LABEL: test_mm256_stream_pd // CHECK: store <4 x double> %{{.*}}, <4 x double>* %{{.*}}, align 32, !nontemporal _mm256_stream_pd(A, B); } void test_mm256_stream_ps(float* A, __m256 B) { // CHECK-LABEL: test_mm256_stream_ps // CHECK: store <8 x float> %{{.*}}, <8 x float>* %{{.*}}, align 32, !nontemporal _mm256_stream_ps(A, B); } void test_mm256_stream_si256(__m256i* A, __m256i B) { // CHECK-LABEL: test_mm256_stream_si256 // CHECK: store <4 x i64> %{{.*}}, <4 x i64>* %{{.*}}, align 32, !nontemporal _mm256_stream_si256(A, B); } __m256d test_mm256_sub_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_sub_pd // CHECK: fsub <4 x double> return _mm256_sub_pd(A, B); } __m256 test_mm256_sub_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_sub_ps // CHECK: fsub <8 x float> return _mm256_sub_ps(A, B); } int test_mm_testc_pd(__m128d A, __m128d B) { // CHECK-LABEL: test_mm_testc_pd // CHECK: call i32 @llvm.x86.avx.vtestc.pd(<2 x double> %{{.*}}, <2 x double> %{{.*}}) return _mm_testc_pd(A, B); } int test_mm256_testc_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_testc_pd // CHECK: call i32 @llvm.x86.avx.vtestc.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}) return _mm256_testc_pd(A, B); } int test_mm_testc_ps(__m128 A, __m128 B) { // CHECK-LABEL: test_mm_testc_ps // CHECK: call i32 @llvm.x86.avx.vtestc.ps(<4 x float> %{{.*}}, <4 x float> %{{.*}}) return _mm_testc_ps(A, B); } int test_mm256_testc_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_testc_ps // CHECK: call i32 @llvm.x86.avx.vtestc.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}) return _mm256_testc_ps(A, B); } int test_mm256_testc_si256(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_testc_si256 // CHECK: call i32 @llvm.x86.avx.ptestc.256(<4 x i64> %{{.*}}, <4 x i64> %{{.*}}) return _mm256_testc_si256(A, B); } int test_mm_testnzc_pd(__m128d A, __m128d B) { // CHECK-LABEL: test_mm_testnzc_pd // CHECK: call i32 @llvm.x86.avx.vtestnzc.pd(<2 x double> %{{.*}}, <2 x double> %{{.*}}) return _mm_testnzc_pd(A, B); } int test_mm256_testnzc_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_testnzc_pd // CHECK: call i32 @llvm.x86.avx.vtestnzc.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}) return _mm256_testnzc_pd(A, B); } int test_mm_testnzc_ps(__m128 A, __m128 B) { // CHECK-LABEL: test_mm_testnzc_ps // CHECK: call i32 @llvm.x86.avx.vtestnzc.ps(<4 x float> %{{.*}}, <4 x float> %{{.*}}) return _mm_testnzc_ps(A, B); } int test_mm256_testnzc_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_testnzc_ps // CHECK: call i32 @llvm.x86.avx.vtestnzc.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}) return _mm256_testnzc_ps(A, B); } int test_mm256_testnzc_si256(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_testnzc_si256 // CHECK: call i32 @llvm.x86.avx.ptestnzc.256(<4 x i64> %{{.*}}, <4 x i64> %{{.*}}) return _mm256_testnzc_si256(A, B); } int test_mm_testz_pd(__m128d A, __m128d B) { // CHECK-LABEL: test_mm_testz_pd // CHECK: call i32 @llvm.x86.avx.vtestz.pd(<2 x double> %{{.*}}, <2 x double> %{{.*}}) return _mm_testz_pd(A, B); } int test_mm256_testz_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_testz_pd // CHECK: call i32 @llvm.x86.avx.vtestz.pd.256(<4 x double> %{{.*}}, <4 x double> %{{.*}}) return _mm256_testz_pd(A, B); } int test_mm_testz_ps(__m128 A, __m128 B) { // CHECK-LABEL: test_mm_testz_ps // CHECK: call i32 @llvm.x86.avx.vtestz.ps(<4 x float> %{{.*}}, <4 x float> %{{.*}}) return _mm_testz_ps(A, B); } int test_mm256_testz_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_testz_ps // CHECK: call i32 @llvm.x86.avx.vtestz.ps.256(<8 x float> %{{.*}}, <8 x float> %{{.*}}) return _mm256_testz_ps(A, B); } int test_mm256_testz_si256(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_testz_si256 // CHECK: call i32 @llvm.x86.avx.ptestz.256(<4 x i64> %{{.*}}, <4 x i64> %{{.*}}) return _mm256_testz_si256(A, B); } __m256 test_mm256_undefined_ps() { // CHECK-LABEL: @test_mm256_undefined_ps // CHECK: ret <8 x float> undef return _mm256_undefined_ps(); } __m256d test_mm256_undefined_pd() { // CHECK-LABEL: @test_mm256_undefined_pd // CHECK: ret <4 x double> undef return _mm256_undefined_pd(); } __m256i test_mm256_undefined_si256() { // CHECK-LABEL: @test_mm256_undefined_si256 // CHECK: ret <4 x i64> undef return _mm256_undefined_si256(); } __m256d test_mm256_unpackhi_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_unpackhi_pd // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> %{{.*}}, <4 x i32> return _mm256_unpackhi_pd(A, B); } __m256 test_mm256_unpackhi_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_unpackhi_ps // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> %{{.*}}, <8 x i32> return _mm256_unpackhi_ps(A, B); } __m256d test_mm256_unpacklo_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_unpacklo_pd // CHECK: shufflevector <4 x double> %{{.*}}, <4 x double> %{{.*}}, <4 x i32> return _mm256_unpacklo_pd(A, B); } __m256 test_mm256_unpacklo_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_unpacklo_ps // CHECK: shufflevector <8 x float> %{{.*}}, <8 x float> %{{.*}}, <8 x i32> return _mm256_unpacklo_ps(A, B); } __m256d test_mm256_xor_pd(__m256d A, __m256d B) { // CHECK-LABEL: test_mm256_xor_pd // CHECK: xor <4 x i64> return _mm256_xor_pd(A, B); } __m256 test_mm256_xor_ps(__m256 A, __m256 B) { // CHECK-LABEL: test_mm256_xor_ps // CHECK: xor <8 x i32> return _mm256_xor_ps(A, B); } void test_mm256_zeroall() { // CHECK-LABEL: test_mm256_zeroall // CHECK: call void @llvm.x86.avx.vzeroall() return _mm256_zeroall(); } void test_mm256_zeroupper() { // CHECK-LABEL: test_mm256_zeroupper // CHECK: call void @llvm.x86.avx.vzeroupper() return _mm256_zeroupper(); } double test_mm256_cvtsd_f64(__m256d __a) { // CHECK-LABEL: @test_mm256_cvtsd_f64 // CHECK: extractelement <4 x double> %{{.*}}, i32 0 return _mm256_cvtsd_f64(__a); } int test_mm256_cvtsi256_si32(__m256i __a) { // CHECK-LABEL: @test_mm256_cvtsi256_si32 // CHECK: extractelement <8 x i32> %{{.*}}, i32 0 return _mm256_cvtsi256_si32(__a); } float test_mm256_cvtss_f32(__m256 __a) { // CHECK-LABEL: @test_mm256_cvtss_f32 // CHECK: extractelement <8 x float> %{{.*}}, i32 0 return _mm256_cvtss_f32(__a); }