/external/clang/test/CodeGen/ |
D | avx512vldq-builtins.c | 14 __m256i test_mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_mullo_epi64() argument 17 return (__m256i) _mm256_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm256_mask_mullo_epi64() 20 __m256i test_mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_mullo_epi64() argument 23 return (__m256i) _mm256_maskz_mullo_epi64 (__U, __A, __B); in test_mm256_maskz_mullo_epi64() 32 __m128i test_mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in test_mm_mask_mullo_epi64() argument 35 return (__m128i) _mm_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm_mask_mullo_epi64() 38 __m128i test_mm_maskz_mullo_epi64 (__mmask8 __U, __m128i __A, __m128i __B) { in test_mm_maskz_mullo_epi64() argument 41 return (__m128i) _mm_maskz_mullo_epi64 (__U, __A, __B); in test_mm_maskz_mullo_epi64() 44 __m256d test_mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in test_mm256_mask_andnot_pd() argument 47 return (__m256d) _mm256_mask_andnot_pd ( __W, __U, __A, __B); in test_mm256_mask_andnot_pd() [all …]
|
D | avx512vl-builtins.c | 608 __m256i test_mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_add_epi32() argument 612 return _mm256_mask_add_epi32(__W, __U, __A, __B); in test_mm256_mask_add_epi32() 615 __m256i test_mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi32() argument 618 return _mm256_maskz_add_epi32(__U, __A, __B); in test_mm256_maskz_add_epi32() 621 __m256i test_mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_add_epi64() argument 625 return _mm256_mask_add_epi64(__W,__U,__A,__B); in test_mm256_mask_add_epi64() 628 __m256i test_mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi64() argument 631 return _mm256_maskz_add_epi64 (__U,__A,__B); in test_mm256_maskz_add_epi64() 634 __m256i test_mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_sub_epi32() argument 638 return _mm256_mask_sub_epi32 (__W,__U,__A,__B); in test_mm256_mask_sub_epi32() [all …]
|
D | avx512dq-builtins.c | 14 __m512i test_mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_mask_mullo_epi64() argument 17 return (__m512i) _mm512_mask_mullo_epi64(__W, __U, __A, __B); in test_mm512_mask_mullo_epi64() 20 __m512i test_mm512_maskz_mullo_epi64 (__mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_mullo_epi64() argument 23 return (__m512i) _mm512_maskz_mullo_epi64(__U, __A, __B); in test_mm512_maskz_mullo_epi64() 32 __m512d test_mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_mask_xor_pd() argument 35 return (__m512d) _mm512_mask_xor_pd(__W, __U, __A, __B); in test_mm512_mask_xor_pd() 38 __m512d test_mm512_maskz_xor_pd (__mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_maskz_xor_pd() argument 41 return (__m512d) _mm512_maskz_xor_pd(__U, __A, __B); in test_mm512_maskz_xor_pd() 50 __m512 test_mm512_mask_xor_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in test_mm512_mask_xor_ps() argument 53 return (__m512) _mm512_mask_xor_ps(__W, __U, __A, __B); in test_mm512_mask_xor_ps() [all …]
|
D | avx512f-builtins.c | 15 __m512d test_mm512_mask_sqrt_pd (__m512d __W, __mmask8 __U, __m512d __A) in test_mm512_mask_sqrt_pd() argument 19 return _mm512_mask_sqrt_pd (__W,__U,__A); in test_mm512_mask_sqrt_pd() 22 __m512d test_mm512_maskz_sqrt_pd (__mmask8 __U, __m512d __A) in test_mm512_maskz_sqrt_pd() argument 26 return _mm512_maskz_sqrt_pd (__U,__A); in test_mm512_maskz_sqrt_pd() 29 __m512d test_mm512_mask_sqrt_round_pd(__m512d __W,__mmask8 __U,__m512d __A) in test_mm512_mask_sqrt_round_pd() argument 33 return _mm512_mask_sqrt_round_pd(__W,__U,__A,_MM_FROUND_CUR_DIRECTION); in test_mm512_mask_sqrt_round_pd() 36 __m512d test_mm512_maskz_sqrt_round_pd(__mmask8 __U,__m512d __A) in test_mm512_maskz_sqrt_round_pd() argument 40 return _mm512_maskz_sqrt_round_pd(__U,__A,_MM_FROUND_CUR_DIRECTION); in test_mm512_maskz_sqrt_round_pd() 57 __m512 test_mm512_mask_sqrt_ps(__m512 __W, __mmask16 __U, __m512 __A) in test_mm512_mask_sqrt_ps() argument 61 return _mm512_mask_sqrt_ps( __W, __U, __A); in test_mm512_mask_sqrt_ps() [all …]
|
D | avx512vlbw-builtins.c | 738 __m256i test_mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in test_mm256_mask_add_epi8() argument 741 return _mm256_mask_add_epi8(__W, __U , __A, __B); in test_mm256_mask_add_epi8() 744 __m256i test_mm256_maskz_add_epi8 (__mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi8() argument 747 return _mm256_maskz_add_epi8(__U , __A, __B); in test_mm256_maskz_add_epi8() 749 __m256i test_mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_mask_add_epi16() argument 752 return _mm256_mask_add_epi16(__W, __U , __A, __B); in test_mm256_mask_add_epi16() 755 __m256i test_mm256_maskz_add_epi16 (__mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi16() argument 758 return _mm256_maskz_add_epi16(__U , __A, __B); in test_mm256_maskz_add_epi16() 761 __m256i test_mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_mask_sub_epi8() argument 764 return _mm256_mask_sub_epi8(__W, __U , __A, __B); in test_mm256_mask_sub_epi8() [all …]
|
D | avx512vlcd-builtins.c | 38 __m128i test_mm_mask_conflict_epi64(__m128i __W, __mmask8 __U, __m128i __A) { in test_mm_mask_conflict_epi64() argument 41 return _mm_mask_conflict_epi64(__W, __U, __A); in test_mm_mask_conflict_epi64() 44 __m128i test_mm_maskz_conflict_epi64(__mmask8 __U, __m128i __A) { in test_mm_maskz_conflict_epi64() argument 47 return _mm_maskz_conflict_epi64(__U, __A); in test_mm_maskz_conflict_epi64() 56 __m256i test_mm256_mask_conflict_epi64(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi64() argument 59 return _mm256_mask_conflict_epi64(__W, __U, __A); in test_mm256_mask_conflict_epi64() 62 __m256i test_mm256_maskz_conflict_epi64(__mmask8 __U, __m256i __A) { in test_mm256_maskz_conflict_epi64() argument 65 return _mm256_maskz_conflict_epi64(__U, __A); in test_mm256_maskz_conflict_epi64() 74 __m128i test_mm_mask_conflict_epi32(__m128i __W, __mmask8 __U, __m128i __A) { in test_mm_mask_conflict_epi32() argument 77 return _mm_mask_conflict_epi32(__W, __U, __A); in test_mm_mask_conflict_epi32() [all …]
|
D | avx512bw-builtins.c | 379 __m512i test_mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_add_epi8() argument 382 return _mm512_mask_add_epi8(__W, __U, __A, __B); in test_mm512_mask_add_epi8() 385 __m512i test_mm512_maskz_add_epi8 (__mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_add_epi8() argument 388 return _mm512_maskz_add_epi8(__U, __A, __B); in test_mm512_maskz_add_epi8() 397 __m512i test_mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_sub_epi8() argument 400 return _mm512_mask_sub_epi8(__W, __U, __A, __B); in test_mm512_mask_sub_epi8() 403 __m512i test_mm512_maskz_sub_epi8 (__mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_sub_epi8() argument 406 return _mm512_maskz_sub_epi8(__U, __A, __B); in test_mm512_maskz_sub_epi8() 415 __m512i test_mm512_mask_add_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in test_mm512_mask_add_epi16() argument 418 return _mm512_mask_add_epi16(__W, __U, __A, __B); in test_mm512_mask_add_epi16() [all …]
|
/external/llvm-project/clang/test/CodeGen/X86/ |
D | avx512vldq-builtins.c | 12 __m256i test_mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_mullo_epi64() argument 16 return (__m256i) _mm256_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm256_mask_mullo_epi64() 19 __m256i test_mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_mullo_epi64() argument 23 return (__m256i) _mm256_maskz_mullo_epi64 (__U, __A, __B); in test_mm256_maskz_mullo_epi64() 32 __m128i test_mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in test_mm_mask_mullo_epi64() argument 36 return (__m128i) _mm_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm_mask_mullo_epi64() 39 __m128i test_mm_maskz_mullo_epi64 (__mmask8 __U, __m128i __A, __m128i __B) { in test_mm_maskz_mullo_epi64() argument 43 return (__m128i) _mm_maskz_mullo_epi64 (__U, __A, __B); in test_mm_maskz_mullo_epi64() 46 __m256d test_mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in test_mm256_mask_andnot_pd() argument 51 return (__m256d) _mm256_mask_andnot_pd ( __W, __U, __A, __B); in test_mm256_mask_andnot_pd() [all …]
|
D | avx512vlvbmi2-builtins.c | 5 __m128i test_mm_mask_compress_epi16(__m128i __S, __mmask8 __U, __m128i __D) { in test_mm_mask_compress_epi16() argument 8 return _mm_mask_compress_epi16(__S, __U, __D); in test_mm_mask_compress_epi16() 11 __m128i test_mm_maskz_compress_epi16(__mmask8 __U, __m128i __D) { in test_mm_maskz_compress_epi16() argument 14 return _mm_maskz_compress_epi16(__U, __D); in test_mm_maskz_compress_epi16() 17 __m128i test_mm_mask_compress_epi8(__m128i __S, __mmask16 __U, __m128i __D) { in test_mm_mask_compress_epi8() argument 20 return _mm_mask_compress_epi8(__S, __U, __D); in test_mm_mask_compress_epi8() 23 __m128i test_mm_maskz_compress_epi8(__mmask16 __U, __m128i __D) { in test_mm_maskz_compress_epi8() argument 26 return _mm_maskz_compress_epi8(__U, __D); in test_mm_maskz_compress_epi8() 29 void test_mm_mask_compressstoreu_epi16(void *__P, __mmask8 __U, __m128i __D) { in test_mm_mask_compressstoreu_epi16() argument 32 _mm_mask_compressstoreu_epi16(__P, __U, __D); in test_mm_mask_compressstoreu_epi16() [all …]
|
D | avx512dq-builtins.c | 258 __m512i test_mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_mask_mullo_epi64() argument 262 return (__m512i) _mm512_mask_mullo_epi64(__W, __U, __A, __B); in test_mm512_mask_mullo_epi64() 265 __m512i test_mm512_maskz_mullo_epi64 (__mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_mullo_epi64() argument 269 return (__m512i) _mm512_maskz_mullo_epi64(__U, __A, __B); in test_mm512_maskz_mullo_epi64() 278 __m512d test_mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_mask_xor_pd() argument 283 return (__m512d) _mm512_mask_xor_pd(__W, __U, __A, __B); in test_mm512_mask_xor_pd() 286 __m512d test_mm512_maskz_xor_pd (__mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_maskz_xor_pd() argument 291 return (__m512d) _mm512_maskz_xor_pd(__U, __A, __B); in test_mm512_maskz_xor_pd() 300 __m512 test_mm512_mask_xor_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in test_mm512_mask_xor_ps() argument 305 return (__m512) _mm512_mask_xor_ps(__W, __U, __A, __B); in test_mm512_mask_xor_ps() [all …]
|
D | avx512vbmi2-builtins.c | 5 __m512i test_mm512_mask_compress_epi16(__m512i __S, __mmask32 __U, __m512i __D) { in test_mm512_mask_compress_epi16() argument 8 return _mm512_mask_compress_epi16(__S, __U, __D); in test_mm512_mask_compress_epi16() 11 __m512i test_mm512_maskz_compress_epi16(__mmask32 __U, __m512i __D) { in test_mm512_maskz_compress_epi16() argument 14 return _mm512_maskz_compress_epi16(__U, __D); in test_mm512_maskz_compress_epi16() 17 __m512i test_mm512_mask_compress_epi8(__m512i __S, __mmask64 __U, __m512i __D) { in test_mm512_mask_compress_epi8() argument 20 return _mm512_mask_compress_epi8(__S, __U, __D); in test_mm512_mask_compress_epi8() 23 __m512i test_mm512_maskz_compress_epi8(__mmask64 __U, __m512i __D) { in test_mm512_maskz_compress_epi8() argument 26 return _mm512_maskz_compress_epi8(__U, __D); in test_mm512_maskz_compress_epi8() 29 void test_mm512_mask_compressstoreu_epi16(void *__P, __mmask32 __U, __m512i __D) { in test_mm512_mask_compressstoreu_epi16() argument 32 _mm512_mask_compressstoreu_epi16(__P, __U, __D); in test_mm512_mask_compressstoreu_epi16() [all …]
|
D | avx512vl-builtins.c | 605 __m256i test_mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_add_epi32() argument 610 return _mm256_mask_add_epi32(__W, __U, __A, __B); in test_mm256_mask_add_epi32() 613 __m256i test_mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi32() argument 617 return _mm256_maskz_add_epi32(__U, __A, __B); in test_mm256_maskz_add_epi32() 620 __m256i test_mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_add_epi64() argument 625 return _mm256_mask_add_epi64(__W,__U,__A,__B); in test_mm256_mask_add_epi64() 628 __m256i test_mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi64() argument 632 return _mm256_maskz_add_epi64 (__U,__A,__B); in test_mm256_maskz_add_epi64() 635 __m256i test_mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_sub_epi32() argument 640 return _mm256_mask_sub_epi32 (__W,__U,__A,__B); in test_mm256_mask_sub_epi32() [all …]
|
D | avx512vlbw-builtins.c | 735 __m256i test_mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in test_mm256_mask_add_epi8() argument 739 return _mm256_mask_add_epi8(__W, __U , __A, __B); in test_mm256_mask_add_epi8() 742 __m256i test_mm256_maskz_add_epi8 (__mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi8() argument 746 return _mm256_maskz_add_epi8(__U , __A, __B); in test_mm256_maskz_add_epi8() 748 __m256i test_mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_mask_add_epi16() argument 752 return _mm256_mask_add_epi16(__W, __U , __A, __B); in test_mm256_mask_add_epi16() 755 __m256i test_mm256_maskz_add_epi16 (__mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi16() argument 759 return _mm256_maskz_add_epi16(__U , __A, __B); in test_mm256_maskz_add_epi16() 762 __m256i test_mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_mask_sub_epi8() argument 766 return _mm256_mask_sub_epi8(__W, __U , __A, __B); in test_mm256_mask_sub_epi8() [all …]
|
D | avx512f-builtins.c | 13 __m512d test_mm512_mask_sqrt_pd (__m512d __W, __mmask8 __U, __m512d __A) in test_mm512_mask_sqrt_pd() argument 19 return _mm512_mask_sqrt_pd (__W,__U,__A); in test_mm512_mask_sqrt_pd() 22 __m512d test_mm512_maskz_sqrt_pd (__mmask8 __U, __m512d __A) in test_mm512_maskz_sqrt_pd() argument 28 return _mm512_maskz_sqrt_pd (__U,__A); in test_mm512_maskz_sqrt_pd() 31 __m512d test_mm512_mask_sqrt_round_pd(__m512d __W,__mmask8 __U,__m512d __A) in test_mm512_mask_sqrt_round_pd() argument 37 return _mm512_mask_sqrt_round_pd(__W,__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); in test_mm512_mask_sqrt_round_pd() 40 __m512d test_mm512_maskz_sqrt_round_pd(__mmask8 __U,__m512d __A) in test_mm512_maskz_sqrt_round_pd() argument 46 return _mm512_maskz_sqrt_round_pd(__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); in test_mm512_maskz_sqrt_round_pd() 63 __m512 test_mm512_mask_sqrt_ps(__m512 __W, __mmask16 __U, __m512 __A) in test_mm512_mask_sqrt_ps() argument 69 return _mm512_mask_sqrt_ps( __W, __U, __A); in test_mm512_mask_sqrt_ps() [all …]
|
D | avx512f-builtins-constrained.c | 20 __m512d test_mm512_mask_sqrt_pd (__m512d __W, __mmask8 __U, __m512d __A) in test_mm512_mask_sqrt_pd() argument 28 return _mm512_mask_sqrt_pd (__W,__U,__A); in test_mm512_mask_sqrt_pd() 31 __m512d test_mm512_maskz_sqrt_pd (__mmask8 __U, __m512d __A) in test_mm512_maskz_sqrt_pd() argument 39 return _mm512_maskz_sqrt_pd (__U,__A); in test_mm512_maskz_sqrt_pd() 51 __m512 test_mm512_mask_sqrt_ps(__m512 __W, __mmask16 __U, __m512 __A) in test_mm512_mask_sqrt_ps() argument 59 return _mm512_mask_sqrt_ps( __W, __U, __A); in test_mm512_mask_sqrt_ps() 62 __m512 test_mm512_maskz_sqrt_ps( __mmask16 __U, __m512 __A) in test_mm512_maskz_sqrt_ps() argument 70 return _mm512_maskz_sqrt_ps(__U ,__A); in test_mm512_maskz_sqrt_ps() 80 __m256i test_mm512_mask_cvt_roundps_ph(__m256i __W , __mmask16 __U, __m512 __A) in test_mm512_mask_cvt_roundps_ph() argument 84 return _mm512_mask_cvt_roundps_ph(__W, __U, __A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); in test_mm512_mask_cvt_roundps_ph() [all …]
|
D | avx512vlcd-builtins.c | 64 __m128i test_mm_mask_conflict_epi64(__m128i __W, __mmask8 __U, __m128i __A) { in test_mm_mask_conflict_epi64() argument 68 return _mm_mask_conflict_epi64(__W, __U, __A); in test_mm_mask_conflict_epi64() 71 __m128i test_mm_maskz_conflict_epi64(__mmask8 __U, __m128i __A) { in test_mm_maskz_conflict_epi64() argument 75 return _mm_maskz_conflict_epi64(__U, __A); in test_mm_maskz_conflict_epi64() 84 __m256i test_mm256_mask_conflict_epi64(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi64() argument 88 return _mm256_mask_conflict_epi64(__W, __U, __A); in test_mm256_mask_conflict_epi64() 91 __m256i test_mm256_maskz_conflict_epi64(__mmask8 __U, __m256i __A) { in test_mm256_maskz_conflict_epi64() argument 95 return _mm256_maskz_conflict_epi64(__U, __A); in test_mm256_maskz_conflict_epi64() 104 __m128i test_mm_mask_conflict_epi32(__m128i __W, __mmask8 __U, __m128i __A) { in test_mm_mask_conflict_epi32() argument 108 return _mm_mask_conflict_epi32(__W, __U, __A); in test_mm_mask_conflict_epi32() [all …]
|
D | avx512vl-builtins-constrained.c | 9 __m128 test_mm_mask_cvtph_ps(__m128 __W, __mmask8 __U, __m128i __A) { in test_mm_mask_cvtph_ps() argument 17 return _mm_mask_cvtph_ps(__W, __U, __A); in test_mm_mask_cvtph_ps() 20 __m128 test_mm_maskz_cvtph_ps(__mmask8 __U, __m128i __A) { in test_mm_maskz_cvtph_ps() argument 28 return _mm_maskz_cvtph_ps(__U, __A); in test_mm_maskz_cvtph_ps() 31 __m256 test_mm256_mask_cvtph_ps(__m256 __W, __mmask8 __U, __m128i __A) { in test_mm256_mask_cvtph_ps() argument 38 return _mm256_mask_cvtph_ps(__W, __U, __A); in test_mm256_mask_cvtph_ps() 41 __m256 test_mm256_maskz_cvtph_ps(__mmask8 __U, __m128i __A) { in test_mm256_maskz_cvtph_ps() argument 48 return _mm256_maskz_cvtph_ps(__U, __A); in test_mm256_maskz_cvtph_ps() 51 __m128i test_mm_mask_cvtps_ph(__m128i __W, __mmask8 __U, __m128 __A) { in test_mm_mask_cvtps_ph() argument 54 return _mm_mask_cvtps_ph(__W, __U, __A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC); in test_mm_mask_cvtps_ph() [all …]
|
D | avx512vlvnni-builtins.c | 5 __m256i test_mm256_mask_dpbusd_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_dpbusd_epi32() argument 9 return _mm256_mask_dpbusd_epi32(__S, __U, __A, __B); in test_mm256_mask_dpbusd_epi32() 12 __m256i test_mm256_maskz_dpbusd_epi32(__mmask8 __U, __m256i __S, __m256i __A, __m256i __B) { in test_mm256_maskz_dpbusd_epi32() argument 16 return _mm256_maskz_dpbusd_epi32(__U, __S, __A, __B); in test_mm256_maskz_dpbusd_epi32() 25 __m256i test_mm256_mask_dpbusds_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_dpbusds_epi32() argument 29 return _mm256_mask_dpbusds_epi32(__S, __U, __A, __B); in test_mm256_mask_dpbusds_epi32() 32 __m256i test_mm256_maskz_dpbusds_epi32(__mmask8 __U, __m256i __S, __m256i __A, __m256i __B) { in test_mm256_maskz_dpbusds_epi32() argument 36 return _mm256_maskz_dpbusds_epi32(__U, __S, __A, __B); in test_mm256_maskz_dpbusds_epi32() 45 __m256i test_mm256_mask_dpwssd_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_dpwssd_epi32() argument 49 return _mm256_mask_dpwssd_epi32(__S, __U, __A, __B); in test_mm256_mask_dpwssd_epi32() [all …]
|
D | avx512bw-builtins.c | 775 __m512i test_mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_add_epi8() argument 779 return _mm512_mask_add_epi8(__W, __U, __A, __B); in test_mm512_mask_add_epi8() 782 __m512i test_mm512_maskz_add_epi8 (__mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_add_epi8() argument 786 return _mm512_maskz_add_epi8(__U, __A, __B); in test_mm512_maskz_add_epi8() 795 __m512i test_mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_sub_epi8() argument 799 return _mm512_mask_sub_epi8(__W, __U, __A, __B); in test_mm512_mask_sub_epi8() 802 __m512i test_mm512_maskz_sub_epi8 (__mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_sub_epi8() argument 806 return _mm512_maskz_sub_epi8(__U, __A, __B); in test_mm512_maskz_sub_epi8() 815 __m512i test_mm512_mask_add_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in test_mm512_mask_add_epi16() argument 819 return _mm512_mask_add_epi16(__W, __U, __A, __B); in test_mm512_mask_add_epi16() [all …]
|
D | avx512vlbitalg-builtins.c | 11 __m256i test_mm256_mask_popcnt_epi16(__m256i __A, __mmask16 __U, __m256i __B) { in test_mm256_mask_popcnt_epi16() argument 15 return _mm256_mask_popcnt_epi16(__A, __U, __B); in test_mm256_mask_popcnt_epi16() 17 __m256i test_mm256_maskz_popcnt_epi16(__mmask16 __U, __m256i __B) { in test_mm256_maskz_popcnt_epi16() argument 21 return _mm256_maskz_popcnt_epi16(__U, __B); in test_mm256_maskz_popcnt_epi16() 30 __m128i test_mm_mask_popcnt_epi16(__m128i __A, __mmask8 __U, __m128i __B) { in test_mm_mask_popcnt_epi16() argument 34 return _mm_mask_popcnt_epi16(__A, __U, __B); in test_mm_mask_popcnt_epi16() 36 __m128i test_mm_maskz_popcnt_epi16(__mmask8 __U, __m128i __B) { in test_mm_maskz_popcnt_epi16() argument 40 return _mm_maskz_popcnt_epi16(__U, __B); in test_mm_maskz_popcnt_epi16() 49 __m256i test_mm256_mask_popcnt_epi8(__m256i __A, __mmask32 __U, __m256i __B) { in test_mm256_mask_popcnt_epi8() argument 53 return _mm256_mask_popcnt_epi8(__A, __U, __B); in test_mm256_mask_popcnt_epi8() [all …]
|
/external/llvm-project/clang/lib/Headers/ |
D | avx512vlintrin.h | 227 _mm256_mask_add_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi32() argument 229 return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U, in _mm256_mask_add_epi32() 235 _mm256_maskz_add_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() argument 237 return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U, in _mm256_maskz_add_epi32() 243 _mm256_mask_add_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi64() argument 245 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, in _mm256_mask_add_epi64() 251 _mm256_maskz_add_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() argument 253 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, in _mm256_maskz_add_epi64() 259 _mm256_mask_sub_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi32() argument 261 return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U, in _mm256_mask_sub_epi32() [all …]
|
D | avx512vldqintrin.h | 27 _mm256_mask_mullo_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() argument 28 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, in _mm256_mask_mullo_epi64() 34 _mm256_maskz_mullo_epi64(__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() argument 35 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, in _mm256_maskz_mullo_epi64() 46 _mm_mask_mullo_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() argument 47 return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U, in _mm_mask_mullo_epi64() 53 _mm_maskz_mullo_epi64(__mmask8 __U, __m128i __A, __m128i __B) { in _mm_maskz_mullo_epi64() argument 54 return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U, in _mm_maskz_mullo_epi64() 60 _mm256_mask_andnot_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() argument 61 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_mask_andnot_pd() [all …]
|
D | avx512vlvbmi2intrin.h | 22 _mm_mask_compress_epi16(__m128i __S, __mmask8 __U, __m128i __D) in _mm_mask_compress_epi16() argument 26 __U); in _mm_mask_compress_epi16() 30 _mm_maskz_compress_epi16(__mmask8 __U, __m128i __D) in _mm_maskz_compress_epi16() argument 34 __U); in _mm_maskz_compress_epi16() 38 _mm_mask_compress_epi8(__m128i __S, __mmask16 __U, __m128i __D) in _mm_mask_compress_epi8() argument 42 __U); in _mm_mask_compress_epi8() 46 _mm_maskz_compress_epi8(__mmask16 __U, __m128i __D) in _mm_maskz_compress_epi8() argument 50 __U); in _mm_maskz_compress_epi8() 54 _mm_mask_compressstoreu_epi16(void *__P, __mmask8 __U, __m128i __D) in _mm_mask_compressstoreu_epi16() argument 57 __U); in _mm_mask_compressstoreu_epi16() [all …]
|
/external/clang/lib/Headers/ |
D | avx512vlintrin.h | 619 _mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi32() argument 625 (__mmask8) __U); in _mm256_mask_add_epi32() 629 _mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() argument 635 (__mmask8) __U); in _mm256_maskz_add_epi32() 639 _mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi64() argument 645 (__mmask8) __U); in _mm256_mask_add_epi64() 649 _mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() argument 655 (__mmask8) __U); in _mm256_maskz_add_epi64() 659 _mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi32() argument 665 (__mmask8) __U); in _mm256_mask_sub_epi32() [all …]
|
D | avx512vldqintrin.h | 40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() argument 44 (__mmask8) __U); in _mm256_mask_mullo_epi64() 48 _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() argument 53 (__mmask8) __U); in _mm256_maskz_mullo_epi64() 62 _mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() argument 66 (__mmask8) __U); in _mm_mask_mullo_epi64() 70 _mm_maskz_mullo_epi64 (__mmask8 __U, __m128i __A, __m128i __B) { in _mm_maskz_mullo_epi64() argument 75 (__mmask8) __U); in _mm_maskz_mullo_epi64() 79 _mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() argument 83 (__mmask8) __U); in _mm256_mask_andnot_pd() [all …]
|