/external/v8/third_party/llvm-build/Release+Asserts/lib/clang/3.9.0/include/ |
D | xopintrin.h | 37 _mm_maccs_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_maccs_epi16() argument 39 return (__m128i)__builtin_ia32_vpmacssww((__v8hi)__A, (__v8hi)__B, (__v8hi)__C); in _mm_maccs_epi16() 43 _mm_macc_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_macc_epi16() argument 45 return (__m128i)__builtin_ia32_vpmacsww((__v8hi)__A, (__v8hi)__B, (__v8hi)__C); in _mm_macc_epi16() 49 _mm_maccsd_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_maccsd_epi16() argument 51 return (__m128i)__builtin_ia32_vpmacsswd((__v8hi)__A, (__v8hi)__B, (__v4si)__C); in _mm_maccsd_epi16() 55 _mm_maccd_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_maccd_epi16() argument 57 return (__m128i)__builtin_ia32_vpmacswd((__v8hi)__A, (__v8hi)__B, (__v4si)__C); in _mm_maccd_epi16() 61 _mm_maccs_epi32(__m128i __A, __m128i __B, __m128i __C) in _mm_maccs_epi32() argument 63 return (__m128i)__builtin_ia32_vpmacssdd((__v4si)__A, (__v4si)__B, (__v4si)__C); in _mm_maccs_epi32() [all …]
|
D | fma4intrin.h | 37 _mm_macc_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_macc_ps() argument 39 return (__m128)__builtin_ia32_vfmaddps(__A, __B, __C); in _mm_macc_ps() 43 _mm_macc_pd(__m128d __A, __m128d __B, __m128d __C) in _mm_macc_pd() argument 45 return (__m128d)__builtin_ia32_vfmaddpd(__A, __B, __C); in _mm_macc_pd() 49 _mm_macc_ss(__m128 __A, __m128 __B, __m128 __C) in _mm_macc_ss() argument 51 return (__m128)__builtin_ia32_vfmaddss(__A, __B, __C); in _mm_macc_ss() 55 _mm_macc_sd(__m128d __A, __m128d __B, __m128d __C) in _mm_macc_sd() argument 57 return (__m128d)__builtin_ia32_vfmaddsd(__A, __B, __C); in _mm_macc_sd() 61 _mm_msub_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_msub_ps() argument 63 return (__m128)__builtin_ia32_vfmsubps(__A, __B, __C); in _mm_msub_ps() [all …]
|
D | fmaintrin.h | 35 _mm_fmadd_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_fmadd_ps() argument 37 return (__m128)__builtin_ia32_vfmaddps(__A, __B, __C); in _mm_fmadd_ps() 41 _mm_fmadd_pd(__m128d __A, __m128d __B, __m128d __C) in _mm_fmadd_pd() argument 43 return (__m128d)__builtin_ia32_vfmaddpd(__A, __B, __C); in _mm_fmadd_pd() 47 _mm_fmadd_ss(__m128 __A, __m128 __B, __m128 __C) in _mm_fmadd_ss() argument 49 return (__m128)__builtin_ia32_vfmaddss(__A, __B, __C); in _mm_fmadd_ss() 53 _mm_fmadd_sd(__m128d __A, __m128d __B, __m128d __C) in _mm_fmadd_sd() argument 55 return (__m128d)__builtin_ia32_vfmaddsd(__A, __B, __C); in _mm_fmadd_sd() 59 _mm_fmsub_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_fmsub_ps() argument 61 return (__m128)__builtin_ia32_vfmsubps(__A, __B, __C); in _mm_fmsub_ps() [all …]
|
D | avx512bwintrin.h | 350 _mm512_add_epi8 (__m512i __A, __m512i __B) { in _mm512_add_epi8() argument 351 return (__m512i) ((__v64qi) __A + (__v64qi) __B); in _mm512_add_epi8() 355 _mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in _mm512_mask_add_epi8() argument 357 (__v64qi) __B, in _mm512_mask_add_epi8() 363 _mm512_maskz_add_epi8 (__mmask64 __U, __m512i __A, __m512i __B) { in _mm512_maskz_add_epi8() argument 365 (__v64qi) __B, in _mm512_maskz_add_epi8() 371 _mm512_sub_epi8 (__m512i __A, __m512i __B) { in _mm512_sub_epi8() argument 372 return (__m512i) ((__v64qi) __A - (__v64qi) __B); in _mm512_sub_epi8() 376 _mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in _mm512_mask_sub_epi8() argument 378 (__v64qi) __B, in _mm512_mask_sub_epi8() [all …]
|
D | avx512fintrin.h | 421 _mm512_andnot_epi32 (__m512i __A, __m512i __B) in _mm512_andnot_epi32() argument 424 (__v16si) __B, in _mm512_andnot_epi32() 431 _mm512_mask_andnot_epi32 (__m512i __W, __mmask16 __U, __m512i __A, __m512i __B) in _mm512_mask_andnot_epi32() argument 434 (__v16si) __B, in _mm512_mask_andnot_epi32() 440 _mm512_maskz_andnot_epi32 (__mmask16 __U, __m512i __A, __m512i __B) in _mm512_maskz_andnot_epi32() argument 443 (__v16si) __B, in _mm512_maskz_andnot_epi32() 450 _mm512_andnot_epi64 (__m512i __A, __m512i __B) in _mm512_andnot_epi64() argument 453 (__v8di) __B, in _mm512_andnot_epi64() 460 _mm512_mask_andnot_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) in _mm512_mask_andnot_epi64() argument 463 (__v8di) __B, in _mm512_mask_andnot_epi64() [all …]
|
D | avx512vbmivlintrin.h | 37 __m128i __B) in _mm_mask2_permutex2var_epi8() argument 42 (__v16qi) __B, in _mm_mask2_permutex2var_epi8() 49 __mmask32 __U, __m256i __B) in _mm256_mask2_permutex2var_epi8() argument 54 (__v32qi) __B, in _mm256_mask2_permutex2var_epi8() 60 _mm_permutex2var_epi8 (__m128i __A, __m128i __I, __m128i __B) in _mm_permutex2var_epi8() argument 65 (__v16qi) __B, in _mm_permutex2var_epi8() 72 __m128i __B) in _mm_mask_permutex2var_epi8() argument 77 (__v16qi) __B, in _mm_mask_permutex2var_epi8() 84 __m128i __B) in _mm_maskz_permutex2var_epi8() argument 89 (__v16qi) __B, in _mm_maskz_permutex2var_epi8() [all …]
|
D | avx512vlbwintrin.h | 618 _mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in _mm256_mask_add_epi8() argument 620 (__v32qi) __B, in _mm256_mask_add_epi8() 626 _mm256_maskz_add_epi8 (__mmask32 __U, __m256i __A, __m256i __B) { in _mm256_maskz_add_epi8() argument 628 (__v32qi) __B, in _mm256_maskz_add_epi8() 635 _mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in _mm256_mask_add_epi16() argument 637 (__v16hi) __B, in _mm256_mask_add_epi16() 643 _mm256_maskz_add_epi16 (__mmask16 __U, __m256i __A, __m256i __B) { in _mm256_maskz_add_epi16() argument 645 (__v16hi) __B, in _mm256_maskz_add_epi16() 652 _mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in _mm256_mask_sub_epi8() argument 654 (__v32qi) __B, in _mm256_mask_sub_epi8() [all …]
|
D | avx512vldqintrin.h | 35 _mm256_mullo_epi64 (__m256i __A, __m256i __B) { in _mm256_mullo_epi64() argument 36 return (__m256i) ((__v4di) __A * (__v4di) __B); in _mm256_mullo_epi64() 40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() argument 42 (__v4di) __B, in _mm256_mask_mullo_epi64() 48 _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() argument 50 (__v4di) __B, in _mm256_maskz_mullo_epi64() 57 _mm_mullo_epi64 (__m128i __A, __m128i __B) { in _mm_mullo_epi64() argument 58 return (__m128i) ((__v2di) __A * (__v2di) __B); in _mm_mullo_epi64() 62 _mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() argument 64 (__v2di) __B, in _mm_mask_mullo_epi64() [all …]
|
D | avx512vlintrin.h | 620 __m256i __B) in _mm256_mask_add_epi32() argument 623 (__v8si) __B, in _mm256_mask_add_epi32() 629 _mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() argument 632 (__v8si) __B, in _mm256_maskz_add_epi32() 640 __m256i __B) in _mm256_mask_add_epi64() argument 643 (__v4di) __B, in _mm256_mask_add_epi64() 649 _mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() argument 652 (__v4di) __B, in _mm256_maskz_add_epi64() 660 __m256i __B) in _mm256_mask_sub_epi32() argument 663 (__v8si) __B, in _mm256_mask_sub_epi32() [all …]
|
D | avx512dqintrin.h | 35 _mm512_mullo_epi64 (__m512i __A, __m512i __B) { in _mm512_mullo_epi64() argument 36 return (__m512i) ((__v8di) __A * (__v8di) __B); in _mm512_mullo_epi64() 40 _mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in _mm512_mask_mullo_epi64() argument 42 (__v8di) __B, in _mm512_mask_mullo_epi64() 48 _mm512_maskz_mullo_epi64 (__mmask8 __U, __m512i __A, __m512i __B) { in _mm512_maskz_mullo_epi64() argument 50 (__v8di) __B, in _mm512_maskz_mullo_epi64() 57 _mm512_xor_pd (__m512d __A, __m512d __B) { in _mm512_xor_pd() argument 58 return (__m512d) ((__v8di) __A ^ (__v8di) __B); in _mm512_xor_pd() 62 _mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in _mm512_mask_xor_pd() argument 64 (__v8df) __B, in _mm512_mask_xor_pd() [all …]
|
/external/clang/lib/Headers/ |
D | xopintrin.h | 37 _mm_maccs_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_maccs_epi16() argument 39 return (__m128i)__builtin_ia32_vpmacssww((__v8hi)__A, (__v8hi)__B, (__v8hi)__C); in _mm_maccs_epi16() 43 _mm_macc_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_macc_epi16() argument 45 return (__m128i)__builtin_ia32_vpmacsww((__v8hi)__A, (__v8hi)__B, (__v8hi)__C); in _mm_macc_epi16() 49 _mm_maccsd_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_maccsd_epi16() argument 51 return (__m128i)__builtin_ia32_vpmacsswd((__v8hi)__A, (__v8hi)__B, (__v4si)__C); in _mm_maccsd_epi16() 55 _mm_maccd_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_maccd_epi16() argument 57 return (__m128i)__builtin_ia32_vpmacswd((__v8hi)__A, (__v8hi)__B, (__v4si)__C); in _mm_maccd_epi16() 61 _mm_maccs_epi32(__m128i __A, __m128i __B, __m128i __C) in _mm_maccs_epi32() argument 63 return (__m128i)__builtin_ia32_vpmacssdd((__v4si)__A, (__v4si)__B, (__v4si)__C); in _mm_maccs_epi32() [all …]
|
D | fma4intrin.h | 37 _mm_macc_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_macc_ps() argument 39 return (__m128)__builtin_ia32_vfmaddps(__A, __B, __C); in _mm_macc_ps() 43 _mm_macc_pd(__m128d __A, __m128d __B, __m128d __C) in _mm_macc_pd() argument 45 return (__m128d)__builtin_ia32_vfmaddpd(__A, __B, __C); in _mm_macc_pd() 49 _mm_macc_ss(__m128 __A, __m128 __B, __m128 __C) in _mm_macc_ss() argument 51 return (__m128)__builtin_ia32_vfmaddss(__A, __B, __C); in _mm_macc_ss() 55 _mm_macc_sd(__m128d __A, __m128d __B, __m128d __C) in _mm_macc_sd() argument 57 return (__m128d)__builtin_ia32_vfmaddsd(__A, __B, __C); in _mm_macc_sd() 61 _mm_msub_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_msub_ps() argument 63 return (__m128)__builtin_ia32_vfmsubps(__A, __B, __C); in _mm_msub_ps() [all …]
|
D | fmaintrin.h | 35 _mm_fmadd_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_fmadd_ps() argument 37 return (__m128)__builtin_ia32_vfmaddps(__A, __B, __C); in _mm_fmadd_ps() 41 _mm_fmadd_pd(__m128d __A, __m128d __B, __m128d __C) in _mm_fmadd_pd() argument 43 return (__m128d)__builtin_ia32_vfmaddpd(__A, __B, __C); in _mm_fmadd_pd() 47 _mm_fmadd_ss(__m128 __A, __m128 __B, __m128 __C) in _mm_fmadd_ss() argument 49 return (__m128)__builtin_ia32_vfmaddss(__A, __B, __C); in _mm_fmadd_ss() 53 _mm_fmadd_sd(__m128d __A, __m128d __B, __m128d __C) in _mm_fmadd_sd() argument 55 return (__m128d)__builtin_ia32_vfmaddsd(__A, __B, __C); in _mm_fmadd_sd() 59 _mm_fmsub_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_fmsub_ps() argument 61 return (__m128)__builtin_ia32_vfmsubps(__A, __B, __C); in _mm_fmsub_ps() [all …]
|
D | avx512bwintrin.h | 350 _mm512_add_epi8 (__m512i __A, __m512i __B) { in _mm512_add_epi8() argument 351 return (__m512i) ((__v64qi) __A + (__v64qi) __B); in _mm512_add_epi8() 355 _mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in _mm512_mask_add_epi8() argument 357 (__v64qi) __B, in _mm512_mask_add_epi8() 363 _mm512_maskz_add_epi8 (__mmask64 __U, __m512i __A, __m512i __B) { in _mm512_maskz_add_epi8() argument 365 (__v64qi) __B, in _mm512_maskz_add_epi8() 371 _mm512_sub_epi8 (__m512i __A, __m512i __B) { in _mm512_sub_epi8() argument 372 return (__m512i) ((__v64qi) __A - (__v64qi) __B); in _mm512_sub_epi8() 376 _mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in _mm512_mask_sub_epi8() argument 378 (__v64qi) __B, in _mm512_mask_sub_epi8() [all …]
|
D | avx512vlbwintrin.h | 613 _mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in _mm256_mask_add_epi8() argument 615 (__v32qi) __B, in _mm256_mask_add_epi8() 621 _mm256_maskz_add_epi8 (__mmask32 __U, __m256i __A, __m256i __B) { in _mm256_maskz_add_epi8() argument 623 (__v32qi) __B, in _mm256_maskz_add_epi8() 630 _mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in _mm256_mask_add_epi16() argument 632 (__v16hi) __B, in _mm256_mask_add_epi16() 638 _mm256_maskz_add_epi16 (__mmask16 __U, __m256i __A, __m256i __B) { in _mm256_maskz_add_epi16() argument 640 (__v16hi) __B, in _mm256_maskz_add_epi16() 647 _mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in _mm256_mask_sub_epi8() argument 649 (__v32qi) __B, in _mm256_mask_sub_epi8() [all …]
|
D | avx512vldqintrin.h | 35 _mm256_mullo_epi64 (__m256i __A, __m256i __B) { in _mm256_mullo_epi64() argument 36 return (__m256i) ((__v4di) __A * (__v4di) __B); in _mm256_mullo_epi64() 40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() argument 42 (__v4di) __B, in _mm256_mask_mullo_epi64() 48 _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() argument 50 (__v4di) __B, in _mm256_maskz_mullo_epi64() 57 _mm_mullo_epi64 (__m128i __A, __m128i __B) { in _mm_mullo_epi64() argument 58 return (__m128i) ((__v2di) __A * (__v2di) __B); in _mm_mullo_epi64() 62 _mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() argument 64 (__v2di) __B, in _mm_mask_mullo_epi64() [all …]
|
D | avx512fintrin.h | 242 _mm512_andnot_epi32 (__m512i __A, __m512i __B) in _mm512_andnot_epi32() argument 245 (__v16si) __B, in _mm512_andnot_epi32() 252 _mm512_mask_andnot_epi32 (__m512i __W, __mmask16 __U, __m512i __A, __m512i __B) in _mm512_mask_andnot_epi32() argument 255 (__v16si) __B, in _mm512_mask_andnot_epi32() 261 _mm512_maskz_andnot_epi32 (__mmask16 __U, __m512i __A, __m512i __B) in _mm512_maskz_andnot_epi32() argument 264 (__v16si) __B, in _mm512_maskz_andnot_epi32() 271 _mm512_andnot_epi64 (__m512i __A, __m512i __B) in _mm512_andnot_epi64() argument 274 (__v8di) __B, in _mm512_andnot_epi64() 281 _mm512_mask_andnot_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) in _mm512_mask_andnot_epi64() argument 284 (__v8di) __B, in _mm512_mask_andnot_epi64() [all …]
|
D | avx512vlintrin.h | 615 __m256i __B) in _mm256_mask_add_epi32() argument 618 (__v8si) __B, in _mm256_mask_add_epi32() 624 _mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() argument 627 (__v8si) __B, in _mm256_maskz_add_epi32() 635 __m256i __B) in _mm256_mask_add_epi64() argument 638 (__v4di) __B, in _mm256_mask_add_epi64() 644 _mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() argument 647 (__v4di) __B, in _mm256_maskz_add_epi64() 655 __m256i __B) in _mm256_mask_sub_epi32() argument 658 (__v8si) __B, in _mm256_mask_sub_epi32() [all …]
|
D | avx512dqintrin.h | 35 _mm512_mullo_epi64 (__m512i __A, __m512i __B) { in _mm512_mullo_epi64() argument 36 return (__m512i) ((__v8di) __A * (__v8di) __B); in _mm512_mullo_epi64() 40 _mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in _mm512_mask_mullo_epi64() argument 42 (__v8di) __B, in _mm512_mask_mullo_epi64() 48 _mm512_maskz_mullo_epi64 (__mmask8 __U, __m512i __A, __m512i __B) { in _mm512_maskz_mullo_epi64() argument 50 (__v8di) __B, in _mm512_maskz_mullo_epi64() 57 _mm512_xor_pd (__m512d __A, __m512d __B) { in _mm512_xor_pd() argument 58 return (__m512d) ((__v8di) __A ^ (__v8di) __B); in _mm512_xor_pd() 62 _mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in _mm512_mask_xor_pd() argument 64 (__v8df) __B, in _mm512_mask_xor_pd() [all …]
|
/external/clang/test/CodeGen/ |
D | avx512f-builtins.c | 204 __m512d test_mm512_fmadd_round_pd(__m512d __A, __m512d __B, __m512d __C) { in test_mm512_fmadd_round_pd() argument 207 return _mm512_fmadd_round_pd(__A, __B, __C, _MM_FROUND_TO_NEAREST_INT); in test_mm512_fmadd_round_pd() 210 __m512d test_mm512_mask_fmadd_round_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { in test_mm512_mask_fmadd_round_pd() argument 213 return _mm512_mask_fmadd_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_NEAREST_INT); in test_mm512_mask_fmadd_round_pd() 215 __m512d test_mm512_mask3_fmadd_round_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { in test_mm512_mask3_fmadd_round_pd() argument 218 return _mm512_mask3_fmadd_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_NEAREST_INT); in test_mm512_mask3_fmadd_round_pd() 220 __m512d test_mm512_maskz_fmadd_round_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { in test_mm512_maskz_fmadd_round_pd() argument 223 return _mm512_maskz_fmadd_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_NEAREST_INT); in test_mm512_maskz_fmadd_round_pd() 225 __m512d test_mm512_fmsub_round_pd(__m512d __A, __m512d __B, __m512d __C) { in test_mm512_fmsub_round_pd() argument 228 return _mm512_fmsub_round_pd(__A, __B, __C, _MM_FROUND_TO_NEAREST_INT); in test_mm512_fmsub_round_pd() [all …]
|
D | avx512bw-builtins.c | 345 __m512i test_mm512_add_epi8 (__m512i __A, __m512i __B) { in test_mm512_add_epi8() argument 348 return _mm512_add_epi8(__A,__B); in test_mm512_add_epi8() 351 __m512i test_mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_add_epi8() argument 354 return _mm512_mask_add_epi8(__W, __U, __A, __B); in test_mm512_mask_add_epi8() 357 __m512i test_mm512_maskz_add_epi8 (__mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_add_epi8() argument 360 return _mm512_maskz_add_epi8(__U, __A, __B); in test_mm512_maskz_add_epi8() 363 __m512i test_mm512_sub_epi8 (__m512i __A, __m512i __B) { in test_mm512_sub_epi8() argument 366 return _mm512_sub_epi8(__A, __B); in test_mm512_sub_epi8() 369 __m512i test_mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_sub_epi8() argument 372 return _mm512_mask_sub_epi8(__W, __U, __A, __B); in test_mm512_mask_sub_epi8() [all …]
|
D | avx512vl-builtins.c | 560 __m512i test_mm512_maskz_andnot_epi32 (__mmask16 __k,__m512i __A, __m512i __B) { in test_mm512_maskz_andnot_epi32() argument 563 return _mm512_maskz_andnot_epi32(__k,__A,__B); in test_mm512_maskz_andnot_epi32() 566 __m512i test_mm512_mask_andnot_epi32 (__mmask16 __k,__m512i __A, __m512i __B, __m512i __src) { in test_mm512_mask_andnot_epi32() argument 569 return _mm512_mask_andnot_epi32(__src,__k,__A,__B); in test_mm512_mask_andnot_epi32() 572 __m512i test_mm512_andnot_epi32(__m512i __A, __m512i __B) { in test_mm512_andnot_epi32() argument 575 return _mm512_andnot_epi32(__A,__B); in test_mm512_andnot_epi32() 578 __m512i test_mm512_maskz_andnot_epi64 (__mmask8 __k,__m512i __A, __m512i __B) { in test_mm512_maskz_andnot_epi64() argument 581 return _mm512_maskz_andnot_epi64(__k,__A,__B); in test_mm512_maskz_andnot_epi64() 584 __m512i test_mm512_mask_andnot_epi64 (__mmask8 __k,__m512i __A, __m512i __B, __m512i __src) { in test_mm512_mask_andnot_epi64() argument 587 return _mm512_mask_andnot_epi64(__src,__k,__A,__B); in test_mm512_mask_andnot_epi64() [all …]
|
D | avx512vlbw-builtins.c | 682 __m256i test_mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in test_mm256_mask_add_epi8() argument 685 return _mm256_mask_add_epi8(__W, __U , __A, __B); in test_mm256_mask_add_epi8() 688 __m256i test_mm256_maskz_add_epi8 (__mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi8() argument 691 return _mm256_maskz_add_epi8(__U , __A, __B); in test_mm256_maskz_add_epi8() 693 __m256i test_mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_mask_add_epi16() argument 696 return _mm256_mask_add_epi16(__W, __U , __A, __B); in test_mm256_mask_add_epi16() 699 __m256i test_mm256_maskz_add_epi16 (__mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi16() argument 702 return _mm256_maskz_add_epi16(__U , __A, __B); in test_mm256_maskz_add_epi16() 705 __m256i test_mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_mask_sub_epi8() argument 708 return _mm256_mask_sub_epi8(__W, __U , __A, __B); in test_mm256_mask_sub_epi8() [all …]
|
D | avx512vldq-builtins.c | 8 __m256i test_mm256_mullo_epi64 (__m256i __A, __m256i __B) { in test_mm256_mullo_epi64() argument 11 return _mm256_mullo_epi64(__A, __B); in test_mm256_mullo_epi64() 14 __m256i test_mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_mullo_epi64() argument 17 return (__m256i) _mm256_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm256_mask_mullo_epi64() 20 __m256i test_mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_mullo_epi64() argument 23 return (__m256i) _mm256_maskz_mullo_epi64 (__U, __A, __B); in test_mm256_maskz_mullo_epi64() 26 __m128i test_mm_mullo_epi64 (__m128i __A, __m128i __B) { in test_mm_mullo_epi64() argument 29 return (__m128i) _mm_mullo_epi64(__A, __B); in test_mm_mullo_epi64() 32 __m128i test_mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in test_mm_mask_mullo_epi64() argument 35 return (__m128i) _mm_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm_mask_mullo_epi64() [all …]
|
D | avx512dq-builtins.c | 8 __m512i test_mm512_mullo_epi64 (__m512i __A, __m512i __B) { in test_mm512_mullo_epi64() argument 11 return (__m512i) ((__v8di) __A * (__v8di) __B); in test_mm512_mullo_epi64() 14 __m512i test_mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_mask_mullo_epi64() argument 17 return (__m512i) _mm512_mask_mullo_epi64(__W, __U, __A, __B); in test_mm512_mask_mullo_epi64() 20 __m512i test_mm512_maskz_mullo_epi64 (__mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_mullo_epi64() argument 23 return (__m512i) _mm512_maskz_mullo_epi64(__U, __A, __B); in test_mm512_maskz_mullo_epi64() 26 __m512d test_mm512_xor_pd (__m512d __A, __m512d __B) { in test_mm512_xor_pd() argument 29 return (__m512d) _mm512_xor_pd(__A, __B); in test_mm512_xor_pd() 32 __m512d test_mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_mask_xor_pd() argument 35 return (__m512d) _mm512_mask_xor_pd(__W, __U, __A, __B); in test_mm512_mask_xor_pd() [all …]
|