/external/clang/test/CodeGen/ |
D | avx512vldq-builtins.c | 14 __m256i test_mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_mullo_epi64() argument 17 return (__m256i) _mm256_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm256_mask_mullo_epi64() 32 __m128i test_mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in test_mm_mask_mullo_epi64() argument 35 return (__m128i) _mm_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm_mask_mullo_epi64() 44 __m256d test_mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in test_mm256_mask_andnot_pd() argument 47 return (__m256d) _mm256_mask_andnot_pd ( __W, __U, __A, __B); in test_mm256_mask_andnot_pd() 56 __m128d test_mm_mask_andnot_pd (__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in test_mm_mask_andnot_pd() argument 59 return (__m128d) _mm_mask_andnot_pd ( __W, __U, __A, __B); in test_mm_mask_andnot_pd() 68 __m256 test_mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_mask_andnot_ps() argument 71 return (__m256) _mm256_mask_andnot_ps ( __W, __U, __A, __B); in test_mm256_mask_andnot_ps() [all …]
|
D | avx512dq-builtins.c | 14 __m512i test_mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_mask_mullo_epi64() argument 17 return (__m512i) _mm512_mask_mullo_epi64(__W, __U, __A, __B); in test_mm512_mask_mullo_epi64() 32 __m512d test_mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_mask_xor_pd() argument 35 return (__m512d) _mm512_mask_xor_pd(__W, __U, __A, __B); in test_mm512_mask_xor_pd() 50 __m512 test_mm512_mask_xor_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in test_mm512_mask_xor_ps() argument 53 return (__m512) _mm512_mask_xor_ps(__W, __U, __A, __B); in test_mm512_mask_xor_ps() 68 __m512d test_mm512_mask_or_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_mask_or_pd() argument 71 return (__m512d) _mm512_mask_or_pd(__W, __U, __A, __B); in test_mm512_mask_or_pd() 86 __m512 test_mm512_mask_or_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in test_mm512_mask_or_ps() argument 89 return (__m512) _mm512_mask_or_ps(__W, __U, __A, __B); in test_mm512_mask_or_ps() [all …]
|
D | avx512vlbw-builtins.c | 738 __m256i test_mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in test_mm256_mask_add_epi8() argument 741 return _mm256_mask_add_epi8(__W, __U , __A, __B); in test_mm256_mask_add_epi8() 749 __m256i test_mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_mask_add_epi16() argument 752 return _mm256_mask_add_epi16(__W, __U , __A, __B); in test_mm256_mask_add_epi16() 761 __m256i test_mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_mask_sub_epi8() argument 764 return _mm256_mask_sub_epi8(__W, __U , __A, __B); in test_mm256_mask_sub_epi8() 773 __m256i test_mm256_mask_sub_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_mask_sub_epi16() argument 776 return _mm256_mask_sub_epi16(__W, __U , __A, __B); in test_mm256_mask_sub_epi16() 784 __m128i test_mm_mask_add_epi8 (__m128i __W, __mmask16 __U, __m128i __A, __m128i __B) { in test_mm_mask_add_epi8() argument 787 return _mm_mask_add_epi8(__W, __U , __A, __B); in test_mm_mask_add_epi8() [all …]
|
D | avx512vl-builtins.c | 608 __m256i test_mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_add_epi32() argument 612 return _mm256_mask_add_epi32(__W, __U, __A, __B); in test_mm256_mask_add_epi32() 621 __m256i test_mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_add_epi64() argument 625 return _mm256_mask_add_epi64(__W,__U,__A,__B); in test_mm256_mask_add_epi64() 634 __m256i test_mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_sub_epi32() argument 638 return _mm256_mask_sub_epi32 (__W,__U,__A,__B); in test_mm256_mask_sub_epi32() 647 __m256i test_mm256_mask_sub_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_sub_epi64() argument 651 return _mm256_mask_sub_epi64 (__W,__U,__A,__B); in test_mm256_mask_sub_epi64() 660 __m128i test_mm_mask_add_epi32 (__m128i __W, __mmask8 __U, __m128i __A, in test_mm_mask_add_epi32() argument 664 return _mm_mask_add_epi32(__W,__U,__A,__B); in test_mm_mask_add_epi32() [all …]
|
D | avx512bw-builtins.c | 379 __m512i test_mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_add_epi8() argument 382 return _mm512_mask_add_epi8(__W, __U, __A, __B); in test_mm512_mask_add_epi8() 397 __m512i test_mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_sub_epi8() argument 400 return _mm512_mask_sub_epi8(__W, __U, __A, __B); in test_mm512_mask_sub_epi8() 415 __m512i test_mm512_mask_add_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in test_mm512_mask_add_epi16() argument 418 return _mm512_mask_add_epi16(__W, __U, __A, __B); in test_mm512_mask_add_epi16() 433 __m512i test_mm512_mask_sub_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in test_mm512_mask_sub_epi16() argument 436 return _mm512_mask_sub_epi16(__W, __U, __A, __B); in test_mm512_mask_sub_epi16() 451 __m512i test_mm512_mask_mullo_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in test_mm512_mask_mullo_epi16() argument 454 return _mm512_mask_mullo_epi16(__W, __U, __A, __B); in test_mm512_mask_mullo_epi16() [all …]
|
D | avx512f-builtins.c | 15 __m512d test_mm512_mask_sqrt_pd (__m512d __W, __mmask8 __U, __m512d __A) in test_mm512_mask_sqrt_pd() argument 19 return _mm512_mask_sqrt_pd (__W,__U,__A); in test_mm512_mask_sqrt_pd() 29 __m512d test_mm512_mask_sqrt_round_pd(__m512d __W,__mmask8 __U,__m512d __A) in test_mm512_mask_sqrt_round_pd() argument 33 return _mm512_mask_sqrt_round_pd(__W,__U,__A,_MM_FROUND_CUR_DIRECTION); in test_mm512_mask_sqrt_round_pd() 57 __m512 test_mm512_mask_sqrt_ps(__m512 __W, __mmask16 __U, __m512 __A) in test_mm512_mask_sqrt_ps() argument 61 return _mm512_mask_sqrt_ps( __W, __U, __A); in test_mm512_mask_sqrt_ps() 71 __m512 test_mm512_mask_sqrt_round_ps(__m512 __W,__mmask16 __U,__m512 __A) in test_mm512_mask_sqrt_round_ps() argument 75 return _mm512_mask_sqrt_round_ps(__W,__U,__A,_MM_FROUND_CUR_DIRECTION); in test_mm512_mask_sqrt_round_ps() 99 __m512d test_mm512_mask_rsqrt14_pd (__m512d __W, __mmask8 __U, __m512d __A) in test_mm512_mask_rsqrt14_pd() argument 103 return _mm512_mask_rsqrt14_pd (__W,__U,__A); in test_mm512_mask_rsqrt14_pd() [all …]
|
D | avx512vlcd-builtins.c | 38 __m128i test_mm_mask_conflict_epi64(__m128i __W, __mmask8 __U, __m128i __A) { in test_mm_mask_conflict_epi64() argument 41 return _mm_mask_conflict_epi64(__W, __U, __A); in test_mm_mask_conflict_epi64() 56 __m256i test_mm256_mask_conflict_epi64(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi64() argument 59 return _mm256_mask_conflict_epi64(__W, __U, __A); in test_mm256_mask_conflict_epi64() 74 __m128i test_mm_mask_conflict_epi32(__m128i __W, __mmask8 __U, __m128i __A) { in test_mm_mask_conflict_epi32() argument 77 return _mm_mask_conflict_epi32(__W, __U, __A); in test_mm_mask_conflict_epi32() 92 __m256i test_mm256_mask_conflict_epi32(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi32() argument 95 return _mm256_mask_conflict_epi32(__W, __U, __A); in test_mm256_mask_conflict_epi32() 110 __m128i test_mm_mask_lzcnt_epi32(__m128i __W, __mmask8 __U, __m128i __A) { in test_mm_mask_lzcnt_epi32() argument 114 return _mm_mask_lzcnt_epi32(__W, __U, __A); in test_mm_mask_lzcnt_epi32() [all …]
|
D | avx512cdintrin.c | 13 __m512i test_mm512_mask_conflict_epi64(__m512i __W, __mmask8 __U, __m512i __A) { in test_mm512_mask_conflict_epi64() argument 16 return _mm512_mask_conflict_epi64(__W,__U,__A); in test_mm512_mask_conflict_epi64() 28 __m512i test_mm512_mask_conflict_epi32(__m512i __W, __mmask16 __U, __m512i __A) { in test_mm512_mask_conflict_epi32() argument 31 return _mm512_mask_conflict_epi32(__W,__U,__A); in test_mm512_mask_conflict_epi32() 43 __m512i test_mm512_mask_lzcnt_epi32(__m512i __W, __mmask16 __U, __m512i __A) { in test_mm512_mask_lzcnt_epi32() argument 47 return _mm512_mask_lzcnt_epi32(__W,__U,__A); in test_mm512_mask_lzcnt_epi32() 60 __m512i test_mm512_mask_lzcnt_epi64(__m512i __W, __mmask8 __U, __m512i __A) { in test_mm512_mask_lzcnt_epi64() argument 64 return _mm512_mask_lzcnt_epi64(__W,__U,__A); in test_mm512_mask_lzcnt_epi64()
|
D | avx512ifmavl-builtins.c | 13 __m128i test_mm_mask_madd52hi_epu64(__m128i __W, __mmask8 __M, __m128i __X, __m128i __Y) { in test_mm_mask_madd52hi_epu64() argument 16 return _mm_mask_madd52hi_epu64(__W, __M, __X, __Y); in test_mm_mask_madd52hi_epu64() 31 __m256i test_mm256_mask_madd52hi_epu64(__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) { in test_mm256_mask_madd52hi_epu64() argument 34 return _mm256_mask_madd52hi_epu64(__W, __M, __X, __Y); in test_mm256_mask_madd52hi_epu64() 49 __m128i test_mm_mask_madd52lo_epu64(__m128i __W, __mmask8 __M, __m128i __X, __m128i __Y) { in test_mm_mask_madd52lo_epu64() argument 52 return _mm_mask_madd52lo_epu64(__W, __M, __X, __Y); in test_mm_mask_madd52lo_epu64() 67 __m256i test_mm256_mask_madd52lo_epu64(__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) { in test_mm256_mask_madd52lo_epu64() argument 70 return _mm256_mask_madd52lo_epu64(__W, __M, __X, __Y); in test_mm256_mask_madd52lo_epu64()
|
D | avx512vbmivl-builtin.c | 20 __m128i test_mm_mask_permutexvar_epi8(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B) { in test_mm_mask_permutexvar_epi8() argument 23 return _mm_mask_permutexvar_epi8(__W, __M, __A, __B); in test_mm_mask_permutexvar_epi8() 38 __m256i test_mm256_mask_permutexvar_epi8(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B) { in test_mm256_mask_permutexvar_epi8() argument 41 return _mm256_mask_permutexvar_epi8(__W, __M, __A, __B); in test_mm256_mask_permutexvar_epi8() 92 __m128i test_mm_mask_multishift_epi64_epi8(__m128i __W, __mmask16 __M, __m128i __X, __m128i __Y) { in test_mm_mask_multishift_epi64_epi8() argument 95 return _mm_mask_multishift_epi64_epi8(__W, __M, __X, __Y); in test_mm_mask_multishift_epi64_epi8() 110 __m256i test_mm256_mask_multishift_epi64_epi8(__m256i __W, __mmask32 __M, __m256i __X, __m256i __Y)… in test_mm256_mask_multishift_epi64_epi8() argument 113 return _mm256_mask_multishift_epi64_epi8(__W, __M, __X, __Y); in test_mm256_mask_multishift_epi64_epi8()
|
D | avx512ifma-builtins.c | 14 __m512i test_mm512_mask_madd52hi_epu64(__m512i __W, __mmask8 __M, __m512i __X, __m512i __Y) { in test_mm512_mask_madd52hi_epu64() argument 17 return _mm512_mask_madd52hi_epu64(__W, __M, __X, __Y); in test_mm512_mask_madd52hi_epu64() 32 __m512i test_mm512_mask_madd52lo_epu64(__m512i __W, __mmask8 __M, __m512i __X, __m512i __Y) { in test_mm512_mask_madd52lo_epu64() argument 35 return _mm512_mask_madd52lo_epu64(__W, __M, __X, __Y); in test_mm512_mask_madd52lo_epu64()
|
D | avx512vbmi-builtins.c | 44 __m512i test_mm512_mask_permutexvar_epi8(__m512i __W, __mmask64 __M, __m512i __A, __m512i __B) { in test_mm512_mask_permutexvar_epi8() argument 47 return _mm512_mask_permutexvar_epi8(__W, __M, __A, __B); in test_mm512_mask_permutexvar_epi8() 50 __m512i test_mm512_mask_multishift_epi64_epi8(__m512i __W, __mmask64 __M, __m512i __X, __m512i __Y)… in test_mm512_mask_multishift_epi64_epi8() argument 53 return _mm512_mask_multishift_epi64_epi8(__W, __M, __X, __Y); in test_mm512_mask_multishift_epi64_epi8()
|
/external/clang/lib/Headers/ |
D | avx512vldqintrin.h | 40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() argument 43 (__v4di) __W, in _mm256_mask_mullo_epi64() 62 _mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() argument 65 (__v2di) __W, in _mm_mask_mullo_epi64() 79 _mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() argument 82 (__v4df) __W, in _mm256_mask_andnot_pd() 96 _mm_mask_andnot_pd (__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_andnot_pd() argument 99 (__v2df) __W, in _mm_mask_andnot_pd() 113 _mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() argument 116 (__v8sf) __W, in _mm256_mask_andnot_ps() [all …]
|
D | avx512vlbwintrin.h | 618 _mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in _mm256_mask_add_epi8() argument 621 (__v32qi) __W, in _mm256_mask_add_epi8() 635 _mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in _mm256_mask_add_epi16() argument 638 (__v16hi) __W, in _mm256_mask_add_epi16() 652 _mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in _mm256_mask_sub_epi8() argument 655 (__v32qi) __W, in _mm256_mask_sub_epi8() 669 _mm256_mask_sub_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in _mm256_mask_sub_epi16() argument 672 (__v16hi) __W, in _mm256_mask_sub_epi16() 685 _mm_mask_add_epi8 (__m128i __W, __mmask16 __U, __m128i __A, __m128i __B) { in _mm_mask_add_epi8() argument 688 (__v16qi) __W, in _mm_mask_add_epi8() [all …]
|
D | avx512vlintrin.h | 619 _mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi32() argument 624 (__v8si) __W, in _mm256_mask_add_epi32() 639 _mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi64() argument 644 (__v4di) __W, in _mm256_mask_add_epi64() 659 _mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi32() argument 664 (__v8si) __W, in _mm256_mask_sub_epi32() 679 _mm256_mask_sub_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi64() argument 684 (__v4di) __W, in _mm256_mask_sub_epi64() 699 _mm_mask_add_epi32 (__m128i __W, __mmask8 __U, __m128i __A, in _mm_mask_add_epi32() argument 704 (__v4si) __W, in _mm_mask_add_epi32() [all …]
|
D | avx512vlcdintrin.h | 68 _mm_mask_conflict_epi64 (__m128i __W, __mmask8 __U, __m128i __A) in _mm_mask_conflict_epi64() argument 71 (__v2di) __W, in _mm_mask_conflict_epi64() 93 _mm256_mask_conflict_epi64 (__m256i __W, __mmask8 __U, __m256i __A) in _mm256_mask_conflict_epi64() argument 96 (__v4di) __W, in _mm256_mask_conflict_epi64() 117 _mm_mask_conflict_epi32 (__m128i __W, __mmask8 __U, __m128i __A) in _mm_mask_conflict_epi32() argument 120 (__v4si) __W, in _mm_mask_conflict_epi32() 141 _mm256_mask_conflict_epi32 (__m256i __W, __mmask8 __U, __m256i __A) in _mm256_mask_conflict_epi32() argument 144 (__v8si) __W, in _mm256_mask_conflict_epi32() 167 _mm_mask_lzcnt_epi32 (__m128i __W, __mmask8 __U, __m128i __A) in _mm_mask_lzcnt_epi32() argument 170 (__v4si) __W, in _mm_mask_lzcnt_epi32() [all …]
|
D | avx512bwintrin.h | 353 _mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in _mm512_mask_add_epi8() argument 356 (__v64qi) __W, in _mm512_mask_add_epi8() 374 _mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in _mm512_mask_sub_epi8() argument 377 (__v64qi) __W, in _mm512_mask_sub_epi8() 395 _mm512_mask_add_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in _mm512_mask_add_epi16() argument 398 (__v32hi) __W, in _mm512_mask_add_epi16() 416 _mm512_mask_sub_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in _mm512_mask_sub_epi16() argument 419 (__v32hi) __W, in _mm512_mask_sub_epi16() 437 _mm512_mask_mullo_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in _mm512_mask_mullo_epi16() argument 440 (__v32hi) __W, in _mm512_mask_mullo_epi16() [all …]
|
D | avx512cdintrin.h | 43 _mm512_mask_conflict_epi64 (__m512i __W, __mmask8 __U, __m512i __A) in _mm512_mask_conflict_epi64() argument 46 (__v8di) __W, in _mm512_mask_conflict_epi64() 67 _mm512_mask_conflict_epi32 (__m512i __W, __mmask16 __U, __m512i __A) in _mm512_mask_conflict_epi32() argument 70 (__v16si) __W, in _mm512_mask_conflict_epi32() 91 _mm512_mask_lzcnt_epi32 (__m512i __W, __mmask16 __U, __m512i __A) in _mm512_mask_lzcnt_epi32() argument 94 (__v16si) __W, in _mm512_mask_lzcnt_epi32() 115 _mm512_mask_lzcnt_epi64 (__m512i __W, __mmask8 __U, __m512i __A) in _mm512_mask_lzcnt_epi64() argument 118 (__v8di) __W, in _mm512_mask_lzcnt_epi64()
|
D | avx512ifmavlintrin.h | 46 _mm_mask_madd52hi_epu64 (__m128i __W, __mmask8 __M, __m128i __X, __m128i __Y) in _mm_mask_madd52hi_epu64() argument 48 return (__m128i) __builtin_ia32_vpmadd52huq128_mask ((__v2di) __W, in _mm_mask_madd52hi_epu64() 73 _mm256_mask_madd52hi_epu64 (__m256i __W, __mmask8 __M, __m256i __X, in _mm256_mask_madd52hi_epu64() argument 76 return (__m256i) __builtin_ia32_vpmadd52huq256_mask ((__v4di) __W, in _mm256_mask_madd52hi_epu64() 101 _mm_mask_madd52lo_epu64 (__m128i __W, __mmask8 __M, __m128i __X, __m128i __Y) in _mm_mask_madd52lo_epu64() argument 103 return (__m128i) __builtin_ia32_vpmadd52luq128_mask ((__v2di) __W, in _mm_mask_madd52lo_epu64() 128 _mm256_mask_madd52lo_epu64 (__m256i __W, __mmask8 __M, __m256i __X, in _mm256_mask_madd52lo_epu64() argument 131 return (__m256i) __builtin_ia32_vpmadd52luq256_mask ((__v4di) __W, in _mm256_mask_madd52lo_epu64()
|
D | avx512fintrin.h | 562 _mm512_mask_andnot_epi32(__m512i __W, __mmask16 __U, __m512i __A, __m512i __B) in _mm512_mask_andnot_epi32() argument 566 (__v16si)__W); in _mm512_mask_andnot_epi32() 583 _mm512_mask_andnot_epi64(__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) in _mm512_mask_andnot_epi64() argument 587 (__v8di)__W); in _mm512_mask_andnot_epi64() 740 _mm512_mask_add_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) in _mm512_mask_add_epi64() argument 744 (__v8di) __W, in _mm512_mask_add_epi64() 765 _mm512_mask_sub_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) in _mm512_mask_sub_epi64() argument 769 (__v8di) __W, in _mm512_mask_sub_epi64() 790 _mm512_mask_add_epi32 (__m512i __W, __mmask16 __U, __m512i __A, __m512i __B) in _mm512_mask_add_epi32() argument 794 (__v16si) __W, in _mm512_mask_add_epi32() [all …]
|
D | avx512dqintrin.h | 40 _mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in _mm512_mask_mullo_epi64() argument 43 (__v8di) __W, in _mm512_mask_mullo_epi64() 62 _mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in _mm512_mask_xor_pd() argument 65 (__v8df) __W, in _mm512_mask_xor_pd() 84 _mm512_mask_xor_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in _mm512_mask_xor_ps() argument 87 (__v16sf) __W, in _mm512_mask_xor_ps() 106 _mm512_mask_or_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in _mm512_mask_or_pd() argument 109 (__v8df) __W, in _mm512_mask_or_pd() 128 _mm512_mask_or_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in _mm512_mask_or_ps() argument 131 (__v16sf) __W, in _mm512_mask_or_ps() [all …]
|
D | avx512vbmivlintrin.h | 148 _mm_mask_permutexvar_epi8 (__m128i __W, __mmask16 __M, __m128i __A, in _mm_mask_permutexvar_epi8() argument 153 (__v16qi) __W, in _mm_mask_permutexvar_epi8() 177 _mm256_mask_permutexvar_epi8 (__m256i __W, __mmask32 __M, __m256i __A, in _mm256_mask_permutexvar_epi8() argument 182 (__v32qi) __W, in _mm256_mask_permutexvar_epi8() 187 _mm_mask_multishift_epi64_epi8 (__m128i __W, __mmask16 __M, __m128i __X, __m128i __Y) in _mm_mask_multishift_epi64_epi8() argument 191 (__v16qi) __W, in _mm_mask_multishift_epi64_epi8() 216 _mm256_mask_multishift_epi64_epi8 (__m256i __W, __mmask32 __M, __m256i __X, __m256i __Y) in _mm256_mask_multishift_epi64_epi8() argument 220 (__v32qi) __W, in _mm256_mask_multishift_epi64_epi8()
|
D | avx512ifmaintrin.h | 44 _mm512_mask_madd52hi_epu64 (__m512i __W, __mmask8 __M, __m512i __X, in _mm512_mask_madd52hi_epu64() argument 47 return (__m512i) __builtin_ia32_vpmadd52huq512_mask ((__v8di) __W, in _mm512_mask_madd52hi_epu64() 72 _mm512_mask_madd52lo_epu64 (__m512i __W, __mmask8 __M, __m512i __X, in _mm512_mask_madd52lo_epu64() argument 75 return (__m512i) __builtin_ia32_vpmadd52luq512_mask ((__v8di) __W, in _mm512_mask_madd52lo_epu64()
|
D | avx512vbmiintrin.h | 98 _mm512_mask_permutexvar_epi8 (__m512i __W, __mmask64 __M, __m512i __A, in _mm512_mask_permutexvar_epi8() argument 103 (__v64qi) __W, in _mm512_mask_permutexvar_epi8() 108 _mm512_mask_multishift_epi64_epi8 (__m512i __W, __mmask64 __M, __m512i __X, __m512i __Y) in _mm512_mask_multishift_epi64_epi8() argument 112 (__v64qi) __W, in _mm512_mask_multishift_epi64_epi8()
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/ |
D | avx512-load-store.ll | 7 define <4 x float> @test_mm_mask_move_ss(<4 x float> %__W, i8 zeroext %__U, <4 x float> %__A, <4 x … 24 %__W.elt.i = extractelement <4 x float> %__W, i32 0 25 %vecext1.i = select i1 %tobool.i, float %__B.elt.i, float %__W.elt.i 52 define <2 x double> @test_mm_mask_move_sd(<2 x double> %__W, i8 zeroext %__U, <2 x double> %__A, <2… 69 %__W.elt.i = extractelement <2 x double> %__W, i32 0 70 %vecext1.i = select i1 %tobool.i, double %__B.elt.i, double %__W.elt.i 97 define void @test_mm_mask_store_ss(float* %__W, i8 zeroext %__U, <4 x float> %__A) local_unnamed_ad… 112 %0 = bitcast float* %__W to <16 x float>* 121 define void @test_mm_mask_store_sd(double* %__W, i8 zeroext %__U, <2 x double> %__A) local_unnamed_… 136 %0 = bitcast double* %__W to <8 x double>* [all …]
|