Home
last modified time | relevance | path

Searched refs:__W (Results 1 – 25 of 38) sorted by relevance

12

/external/clang/test/CodeGen/
Davx512vldq-builtins.c14 __m256i test_mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_mullo_epi64() argument
17 return (__m256i) _mm256_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm256_mask_mullo_epi64()
32 __m128i test_mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in test_mm_mask_mullo_epi64() argument
35 return (__m128i) _mm_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm_mask_mullo_epi64()
44 __m256d test_mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in test_mm256_mask_andnot_pd() argument
47 return (__m256d) _mm256_mask_andnot_pd ( __W, __U, __A, __B); in test_mm256_mask_andnot_pd()
56 __m128d test_mm_mask_andnot_pd (__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in test_mm_mask_andnot_pd() argument
59 return (__m128d) _mm_mask_andnot_pd ( __W, __U, __A, __B); in test_mm_mask_andnot_pd()
68 __m256 test_mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_mask_andnot_ps() argument
71 return (__m256) _mm256_mask_andnot_ps ( __W, __U, __A, __B); in test_mm256_mask_andnot_ps()
[all …]
Davx512dq-builtins.c14 __m512i test_mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_mask_mullo_epi64() argument
17 return (__m512i) _mm512_mask_mullo_epi64(__W, __U, __A, __B); in test_mm512_mask_mullo_epi64()
32 __m512d test_mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_mask_xor_pd() argument
35 return (__m512d) _mm512_mask_xor_pd(__W, __U, __A, __B); in test_mm512_mask_xor_pd()
50 __m512 test_mm512_mask_xor_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in test_mm512_mask_xor_ps() argument
53 return (__m512) _mm512_mask_xor_ps(__W, __U, __A, __B); in test_mm512_mask_xor_ps()
68 __m512d test_mm512_mask_or_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_mask_or_pd() argument
71 return (__m512d) _mm512_mask_or_pd(__W, __U, __A, __B); in test_mm512_mask_or_pd()
86 __m512 test_mm512_mask_or_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in test_mm512_mask_or_ps() argument
89 return (__m512) _mm512_mask_or_ps(__W, __U, __A, __B); in test_mm512_mask_or_ps()
[all …]
Davx512vlbw-builtins.c738 __m256i test_mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in test_mm256_mask_add_epi8() argument
741 return _mm256_mask_add_epi8(__W, __U , __A, __B); in test_mm256_mask_add_epi8()
749 __m256i test_mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_mask_add_epi16() argument
752 return _mm256_mask_add_epi16(__W, __U , __A, __B); in test_mm256_mask_add_epi16()
761 __m256i test_mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_mask_sub_epi8() argument
764 return _mm256_mask_sub_epi8(__W, __U , __A, __B); in test_mm256_mask_sub_epi8()
773 __m256i test_mm256_mask_sub_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_mask_sub_epi16() argument
776 return _mm256_mask_sub_epi16(__W, __U , __A, __B); in test_mm256_mask_sub_epi16()
784 __m128i test_mm_mask_add_epi8 (__m128i __W, __mmask16 __U, __m128i __A, __m128i __B) { in test_mm_mask_add_epi8() argument
787 return _mm_mask_add_epi8(__W, __U , __A, __B); in test_mm_mask_add_epi8()
[all …]
Davx512vl-builtins.c608 __m256i test_mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_add_epi32() argument
612 return _mm256_mask_add_epi32(__W, __U, __A, __B); in test_mm256_mask_add_epi32()
621 __m256i test_mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_add_epi64() argument
625 return _mm256_mask_add_epi64(__W,__U,__A,__B); in test_mm256_mask_add_epi64()
634 __m256i test_mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_sub_epi32() argument
638 return _mm256_mask_sub_epi32 (__W,__U,__A,__B); in test_mm256_mask_sub_epi32()
647 __m256i test_mm256_mask_sub_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_sub_epi64() argument
651 return _mm256_mask_sub_epi64 (__W,__U,__A,__B); in test_mm256_mask_sub_epi64()
660 __m128i test_mm_mask_add_epi32 (__m128i __W, __mmask8 __U, __m128i __A, in test_mm_mask_add_epi32() argument
664 return _mm_mask_add_epi32(__W,__U,__A,__B); in test_mm_mask_add_epi32()
[all …]
Davx512bw-builtins.c379 __m512i test_mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_add_epi8() argument
382 return _mm512_mask_add_epi8(__W, __U, __A, __B); in test_mm512_mask_add_epi8()
397 __m512i test_mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_sub_epi8() argument
400 return _mm512_mask_sub_epi8(__W, __U, __A, __B); in test_mm512_mask_sub_epi8()
415 __m512i test_mm512_mask_add_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in test_mm512_mask_add_epi16() argument
418 return _mm512_mask_add_epi16(__W, __U, __A, __B); in test_mm512_mask_add_epi16()
433 __m512i test_mm512_mask_sub_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in test_mm512_mask_sub_epi16() argument
436 return _mm512_mask_sub_epi16(__W, __U, __A, __B); in test_mm512_mask_sub_epi16()
451 __m512i test_mm512_mask_mullo_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in test_mm512_mask_mullo_epi16() argument
454 return _mm512_mask_mullo_epi16(__W, __U, __A, __B); in test_mm512_mask_mullo_epi16()
[all …]
Davx512f-builtins.c15 __m512d test_mm512_mask_sqrt_pd (__m512d __W, __mmask8 __U, __m512d __A) in test_mm512_mask_sqrt_pd() argument
19 return _mm512_mask_sqrt_pd (__W,__U,__A); in test_mm512_mask_sqrt_pd()
29 __m512d test_mm512_mask_sqrt_round_pd(__m512d __W,__mmask8 __U,__m512d __A) in test_mm512_mask_sqrt_round_pd() argument
33 return _mm512_mask_sqrt_round_pd(__W,__U,__A,_MM_FROUND_CUR_DIRECTION); in test_mm512_mask_sqrt_round_pd()
57 __m512 test_mm512_mask_sqrt_ps(__m512 __W, __mmask16 __U, __m512 __A) in test_mm512_mask_sqrt_ps() argument
61 return _mm512_mask_sqrt_ps( __W, __U, __A); in test_mm512_mask_sqrt_ps()
71 __m512 test_mm512_mask_sqrt_round_ps(__m512 __W,__mmask16 __U,__m512 __A) in test_mm512_mask_sqrt_round_ps() argument
75 return _mm512_mask_sqrt_round_ps(__W,__U,__A,_MM_FROUND_CUR_DIRECTION); in test_mm512_mask_sqrt_round_ps()
99 __m512d test_mm512_mask_rsqrt14_pd (__m512d __W, __mmask8 __U, __m512d __A) in test_mm512_mask_rsqrt14_pd() argument
103 return _mm512_mask_rsqrt14_pd (__W,__U,__A); in test_mm512_mask_rsqrt14_pd()
[all …]
Davx512vlcd-builtins.c38 __m128i test_mm_mask_conflict_epi64(__m128i __W, __mmask8 __U, __m128i __A) { in test_mm_mask_conflict_epi64() argument
41 return _mm_mask_conflict_epi64(__W, __U, __A); in test_mm_mask_conflict_epi64()
56 __m256i test_mm256_mask_conflict_epi64(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi64() argument
59 return _mm256_mask_conflict_epi64(__W, __U, __A); in test_mm256_mask_conflict_epi64()
74 __m128i test_mm_mask_conflict_epi32(__m128i __W, __mmask8 __U, __m128i __A) { in test_mm_mask_conflict_epi32() argument
77 return _mm_mask_conflict_epi32(__W, __U, __A); in test_mm_mask_conflict_epi32()
92 __m256i test_mm256_mask_conflict_epi32(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi32() argument
95 return _mm256_mask_conflict_epi32(__W, __U, __A); in test_mm256_mask_conflict_epi32()
110 __m128i test_mm_mask_lzcnt_epi32(__m128i __W, __mmask8 __U, __m128i __A) { in test_mm_mask_lzcnt_epi32() argument
114 return _mm_mask_lzcnt_epi32(__W, __U, __A); in test_mm_mask_lzcnt_epi32()
[all …]
Davx512cdintrin.c13 __m512i test_mm512_mask_conflict_epi64(__m512i __W, __mmask8 __U, __m512i __A) { in test_mm512_mask_conflict_epi64() argument
16 return _mm512_mask_conflict_epi64(__W,__U,__A); in test_mm512_mask_conflict_epi64()
28 __m512i test_mm512_mask_conflict_epi32(__m512i __W, __mmask16 __U, __m512i __A) { in test_mm512_mask_conflict_epi32() argument
31 return _mm512_mask_conflict_epi32(__W,__U,__A); in test_mm512_mask_conflict_epi32()
43 __m512i test_mm512_mask_lzcnt_epi32(__m512i __W, __mmask16 __U, __m512i __A) { in test_mm512_mask_lzcnt_epi32() argument
47 return _mm512_mask_lzcnt_epi32(__W,__U,__A); in test_mm512_mask_lzcnt_epi32()
60 __m512i test_mm512_mask_lzcnt_epi64(__m512i __W, __mmask8 __U, __m512i __A) { in test_mm512_mask_lzcnt_epi64() argument
64 return _mm512_mask_lzcnt_epi64(__W,__U,__A); in test_mm512_mask_lzcnt_epi64()
Davx512ifmavl-builtins.c13 __m128i test_mm_mask_madd52hi_epu64(__m128i __W, __mmask8 __M, __m128i __X, __m128i __Y) { in test_mm_mask_madd52hi_epu64() argument
16 return _mm_mask_madd52hi_epu64(__W, __M, __X, __Y); in test_mm_mask_madd52hi_epu64()
31 __m256i test_mm256_mask_madd52hi_epu64(__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) { in test_mm256_mask_madd52hi_epu64() argument
34 return _mm256_mask_madd52hi_epu64(__W, __M, __X, __Y); in test_mm256_mask_madd52hi_epu64()
49 __m128i test_mm_mask_madd52lo_epu64(__m128i __W, __mmask8 __M, __m128i __X, __m128i __Y) { in test_mm_mask_madd52lo_epu64() argument
52 return _mm_mask_madd52lo_epu64(__W, __M, __X, __Y); in test_mm_mask_madd52lo_epu64()
67 __m256i test_mm256_mask_madd52lo_epu64(__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) { in test_mm256_mask_madd52lo_epu64() argument
70 return _mm256_mask_madd52lo_epu64(__W, __M, __X, __Y); in test_mm256_mask_madd52lo_epu64()
Davx512vbmivl-builtin.c20 __m128i test_mm_mask_permutexvar_epi8(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B) { in test_mm_mask_permutexvar_epi8() argument
23 return _mm_mask_permutexvar_epi8(__W, __M, __A, __B); in test_mm_mask_permutexvar_epi8()
38 __m256i test_mm256_mask_permutexvar_epi8(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B) { in test_mm256_mask_permutexvar_epi8() argument
41 return _mm256_mask_permutexvar_epi8(__W, __M, __A, __B); in test_mm256_mask_permutexvar_epi8()
92 __m128i test_mm_mask_multishift_epi64_epi8(__m128i __W, __mmask16 __M, __m128i __X, __m128i __Y) { in test_mm_mask_multishift_epi64_epi8() argument
95 return _mm_mask_multishift_epi64_epi8(__W, __M, __X, __Y); in test_mm_mask_multishift_epi64_epi8()
110 __m256i test_mm256_mask_multishift_epi64_epi8(__m256i __W, __mmask32 __M, __m256i __X, __m256i __Y)… in test_mm256_mask_multishift_epi64_epi8() argument
113 return _mm256_mask_multishift_epi64_epi8(__W, __M, __X, __Y); in test_mm256_mask_multishift_epi64_epi8()
Davx512ifma-builtins.c14 __m512i test_mm512_mask_madd52hi_epu64(__m512i __W, __mmask8 __M, __m512i __X, __m512i __Y) { in test_mm512_mask_madd52hi_epu64() argument
17 return _mm512_mask_madd52hi_epu64(__W, __M, __X, __Y); in test_mm512_mask_madd52hi_epu64()
32 __m512i test_mm512_mask_madd52lo_epu64(__m512i __W, __mmask8 __M, __m512i __X, __m512i __Y) { in test_mm512_mask_madd52lo_epu64() argument
35 return _mm512_mask_madd52lo_epu64(__W, __M, __X, __Y); in test_mm512_mask_madd52lo_epu64()
Davx512vbmi-builtins.c44 __m512i test_mm512_mask_permutexvar_epi8(__m512i __W, __mmask64 __M, __m512i __A, __m512i __B) { in test_mm512_mask_permutexvar_epi8() argument
47 return _mm512_mask_permutexvar_epi8(__W, __M, __A, __B); in test_mm512_mask_permutexvar_epi8()
50 __m512i test_mm512_mask_multishift_epi64_epi8(__m512i __W, __mmask64 __M, __m512i __X, __m512i __Y)… in test_mm512_mask_multishift_epi64_epi8() argument
53 return _mm512_mask_multishift_epi64_epi8(__W, __M, __X, __Y); in test_mm512_mask_multishift_epi64_epi8()
/external/clang/lib/Headers/
Davx512vldqintrin.h40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() argument
43 (__v4di) __W, in _mm256_mask_mullo_epi64()
62 _mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() argument
65 (__v2di) __W, in _mm_mask_mullo_epi64()
79 _mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() argument
82 (__v4df) __W, in _mm256_mask_andnot_pd()
96 _mm_mask_andnot_pd (__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_andnot_pd() argument
99 (__v2df) __W, in _mm_mask_andnot_pd()
113 _mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() argument
116 (__v8sf) __W, in _mm256_mask_andnot_ps()
[all …]
Davx512vlbwintrin.h618 _mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in _mm256_mask_add_epi8() argument
621 (__v32qi) __W, in _mm256_mask_add_epi8()
635 _mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in _mm256_mask_add_epi16() argument
638 (__v16hi) __W, in _mm256_mask_add_epi16()
652 _mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in _mm256_mask_sub_epi8() argument
655 (__v32qi) __W, in _mm256_mask_sub_epi8()
669 _mm256_mask_sub_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in _mm256_mask_sub_epi16() argument
672 (__v16hi) __W, in _mm256_mask_sub_epi16()
685 _mm_mask_add_epi8 (__m128i __W, __mmask16 __U, __m128i __A, __m128i __B) { in _mm_mask_add_epi8() argument
688 (__v16qi) __W, in _mm_mask_add_epi8()
[all …]
Davx512vlintrin.h619 _mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi32() argument
624 (__v8si) __W, in _mm256_mask_add_epi32()
639 _mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi64() argument
644 (__v4di) __W, in _mm256_mask_add_epi64()
659 _mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi32() argument
664 (__v8si) __W, in _mm256_mask_sub_epi32()
679 _mm256_mask_sub_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi64() argument
684 (__v4di) __W, in _mm256_mask_sub_epi64()
699 _mm_mask_add_epi32 (__m128i __W, __mmask8 __U, __m128i __A, in _mm_mask_add_epi32() argument
704 (__v4si) __W, in _mm_mask_add_epi32()
[all …]
Davx512vlcdintrin.h68 _mm_mask_conflict_epi64 (__m128i __W, __mmask8 __U, __m128i __A) in _mm_mask_conflict_epi64() argument
71 (__v2di) __W, in _mm_mask_conflict_epi64()
93 _mm256_mask_conflict_epi64 (__m256i __W, __mmask8 __U, __m256i __A) in _mm256_mask_conflict_epi64() argument
96 (__v4di) __W, in _mm256_mask_conflict_epi64()
117 _mm_mask_conflict_epi32 (__m128i __W, __mmask8 __U, __m128i __A) in _mm_mask_conflict_epi32() argument
120 (__v4si) __W, in _mm_mask_conflict_epi32()
141 _mm256_mask_conflict_epi32 (__m256i __W, __mmask8 __U, __m256i __A) in _mm256_mask_conflict_epi32() argument
144 (__v8si) __W, in _mm256_mask_conflict_epi32()
167 _mm_mask_lzcnt_epi32 (__m128i __W, __mmask8 __U, __m128i __A) in _mm_mask_lzcnt_epi32() argument
170 (__v4si) __W, in _mm_mask_lzcnt_epi32()
[all …]
Davx512bwintrin.h353 _mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in _mm512_mask_add_epi8() argument
356 (__v64qi) __W, in _mm512_mask_add_epi8()
374 _mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in _mm512_mask_sub_epi8() argument
377 (__v64qi) __W, in _mm512_mask_sub_epi8()
395 _mm512_mask_add_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in _mm512_mask_add_epi16() argument
398 (__v32hi) __W, in _mm512_mask_add_epi16()
416 _mm512_mask_sub_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in _mm512_mask_sub_epi16() argument
419 (__v32hi) __W, in _mm512_mask_sub_epi16()
437 _mm512_mask_mullo_epi16 (__m512i __W, __mmask32 __U, __m512i __A, __m512i __B) { in _mm512_mask_mullo_epi16() argument
440 (__v32hi) __W, in _mm512_mask_mullo_epi16()
[all …]
Davx512cdintrin.h43 _mm512_mask_conflict_epi64 (__m512i __W, __mmask8 __U, __m512i __A) in _mm512_mask_conflict_epi64() argument
46 (__v8di) __W, in _mm512_mask_conflict_epi64()
67 _mm512_mask_conflict_epi32 (__m512i __W, __mmask16 __U, __m512i __A) in _mm512_mask_conflict_epi32() argument
70 (__v16si) __W, in _mm512_mask_conflict_epi32()
91 _mm512_mask_lzcnt_epi32 (__m512i __W, __mmask16 __U, __m512i __A) in _mm512_mask_lzcnt_epi32() argument
94 (__v16si) __W, in _mm512_mask_lzcnt_epi32()
115 _mm512_mask_lzcnt_epi64 (__m512i __W, __mmask8 __U, __m512i __A) in _mm512_mask_lzcnt_epi64() argument
118 (__v8di) __W, in _mm512_mask_lzcnt_epi64()
Davx512ifmavlintrin.h46 _mm_mask_madd52hi_epu64 (__m128i __W, __mmask8 __M, __m128i __X, __m128i __Y) in _mm_mask_madd52hi_epu64() argument
48 return (__m128i) __builtin_ia32_vpmadd52huq128_mask ((__v2di) __W, in _mm_mask_madd52hi_epu64()
73 _mm256_mask_madd52hi_epu64 (__m256i __W, __mmask8 __M, __m256i __X, in _mm256_mask_madd52hi_epu64() argument
76 return (__m256i) __builtin_ia32_vpmadd52huq256_mask ((__v4di) __W, in _mm256_mask_madd52hi_epu64()
101 _mm_mask_madd52lo_epu64 (__m128i __W, __mmask8 __M, __m128i __X, __m128i __Y) in _mm_mask_madd52lo_epu64() argument
103 return (__m128i) __builtin_ia32_vpmadd52luq128_mask ((__v2di) __W, in _mm_mask_madd52lo_epu64()
128 _mm256_mask_madd52lo_epu64 (__m256i __W, __mmask8 __M, __m256i __X, in _mm256_mask_madd52lo_epu64() argument
131 return (__m256i) __builtin_ia32_vpmadd52luq256_mask ((__v4di) __W, in _mm256_mask_madd52lo_epu64()
Davx512fintrin.h562 _mm512_mask_andnot_epi32(__m512i __W, __mmask16 __U, __m512i __A, __m512i __B) in _mm512_mask_andnot_epi32() argument
566 (__v16si)__W); in _mm512_mask_andnot_epi32()
583 _mm512_mask_andnot_epi64(__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) in _mm512_mask_andnot_epi64() argument
587 (__v8di)__W); in _mm512_mask_andnot_epi64()
740 _mm512_mask_add_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) in _mm512_mask_add_epi64() argument
744 (__v8di) __W, in _mm512_mask_add_epi64()
765 _mm512_mask_sub_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) in _mm512_mask_sub_epi64() argument
769 (__v8di) __W, in _mm512_mask_sub_epi64()
790 _mm512_mask_add_epi32 (__m512i __W, __mmask16 __U, __m512i __A, __m512i __B) in _mm512_mask_add_epi32() argument
794 (__v16si) __W, in _mm512_mask_add_epi32()
[all …]
Davx512dqintrin.h40 _mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in _mm512_mask_mullo_epi64() argument
43 (__v8di) __W, in _mm512_mask_mullo_epi64()
62 _mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in _mm512_mask_xor_pd() argument
65 (__v8df) __W, in _mm512_mask_xor_pd()
84 _mm512_mask_xor_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in _mm512_mask_xor_ps() argument
87 (__v16sf) __W, in _mm512_mask_xor_ps()
106 _mm512_mask_or_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in _mm512_mask_or_pd() argument
109 (__v8df) __W, in _mm512_mask_or_pd()
128 _mm512_mask_or_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in _mm512_mask_or_ps() argument
131 (__v16sf) __W, in _mm512_mask_or_ps()
[all …]
Davx512vbmivlintrin.h148 _mm_mask_permutexvar_epi8 (__m128i __W, __mmask16 __M, __m128i __A, in _mm_mask_permutexvar_epi8() argument
153 (__v16qi) __W, in _mm_mask_permutexvar_epi8()
177 _mm256_mask_permutexvar_epi8 (__m256i __W, __mmask32 __M, __m256i __A, in _mm256_mask_permutexvar_epi8() argument
182 (__v32qi) __W, in _mm256_mask_permutexvar_epi8()
187 _mm_mask_multishift_epi64_epi8 (__m128i __W, __mmask16 __M, __m128i __X, __m128i __Y) in _mm_mask_multishift_epi64_epi8() argument
191 (__v16qi) __W, in _mm_mask_multishift_epi64_epi8()
216 _mm256_mask_multishift_epi64_epi8 (__m256i __W, __mmask32 __M, __m256i __X, __m256i __Y) in _mm256_mask_multishift_epi64_epi8() argument
220 (__v32qi) __W, in _mm256_mask_multishift_epi64_epi8()
Davx512ifmaintrin.h44 _mm512_mask_madd52hi_epu64 (__m512i __W, __mmask8 __M, __m512i __X, in _mm512_mask_madd52hi_epu64() argument
47 return (__m512i) __builtin_ia32_vpmadd52huq512_mask ((__v8di) __W, in _mm512_mask_madd52hi_epu64()
72 _mm512_mask_madd52lo_epu64 (__m512i __W, __mmask8 __M, __m512i __X, in _mm512_mask_madd52lo_epu64() argument
75 return (__m512i) __builtin_ia32_vpmadd52luq512_mask ((__v8di) __W, in _mm512_mask_madd52lo_epu64()
Davx512vbmiintrin.h98 _mm512_mask_permutexvar_epi8 (__m512i __W, __mmask64 __M, __m512i __A, in _mm512_mask_permutexvar_epi8() argument
103 (__v64qi) __W, in _mm512_mask_permutexvar_epi8()
108 _mm512_mask_multishift_epi64_epi8 (__m512i __W, __mmask64 __M, __m512i __X, __m512i __Y) in _mm512_mask_multishift_epi64_epi8() argument
112 (__v64qi) __W, in _mm512_mask_multishift_epi64_epi8()
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/
Davx512-load-store.ll7 define <4 x float> @test_mm_mask_move_ss(<4 x float> %__W, i8 zeroext %__U, <4 x float> %__A, <4 x …
24 %__W.elt.i = extractelement <4 x float> %__W, i32 0
25 %vecext1.i = select i1 %tobool.i, float %__B.elt.i, float %__W.elt.i
52 define <2 x double> @test_mm_mask_move_sd(<2 x double> %__W, i8 zeroext %__U, <2 x double> %__A, <2…
69 %__W.elt.i = extractelement <2 x double> %__W, i32 0
70 %vecext1.i = select i1 %tobool.i, double %__B.elt.i, double %__W.elt.i
97 define void @test_mm_mask_store_ss(float* %__W, i8 zeroext %__U, <4 x float> %__A) local_unnamed_ad…
112 %0 = bitcast float* %__W to <16 x float>*
121 define void @test_mm_mask_store_sd(double* %__W, i8 zeroext %__U, <2 x double> %__A) local_unnamed_…
136 %0 = bitcast double* %__W to <8 x double>*
[all …]

12