Lines Matching refs:__U
27 _mm256_mask_mullo_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() argument
28 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, in _mm256_mask_mullo_epi64()
34 _mm256_maskz_mullo_epi64(__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() argument
35 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, in _mm256_maskz_mullo_epi64()
46 _mm_mask_mullo_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() argument
47 return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U, in _mm_mask_mullo_epi64()
53 _mm_maskz_mullo_epi64(__mmask8 __U, __m128i __A, __m128i __B) { in _mm_maskz_mullo_epi64() argument
54 return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U, in _mm_maskz_mullo_epi64()
60 _mm256_mask_andnot_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() argument
61 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_mask_andnot_pd()
67 _mm256_maskz_andnot_pd(__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_andnot_pd() argument
68 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_maskz_andnot_pd()
74 _mm_mask_andnot_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_andnot_pd() argument
75 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_mask_andnot_pd()
81 _mm_maskz_andnot_pd(__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_andnot_pd() argument
82 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_maskz_andnot_pd()
88 _mm256_mask_andnot_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() argument
89 return (__m256)__builtin_ia32_selectps_256((__mmask8)__U, in _mm256_mask_andnot_ps()
95 _mm256_maskz_andnot_ps(__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_andnot_ps() argument
96 return (__m256)__builtin_ia32_selectps_256((__mmask8)__U, in _mm256_maskz_andnot_ps()
102 _mm_mask_andnot_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B) { in _mm_mask_andnot_ps() argument
103 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm_mask_andnot_ps()
109 _mm_maskz_andnot_ps(__mmask8 __U, __m128 __A, __m128 __B) { in _mm_maskz_andnot_ps() argument
110 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm_maskz_andnot_ps()
116 _mm256_mask_and_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_and_pd() argument
117 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_mask_and_pd()
123 _mm256_maskz_and_pd(__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_and_pd() argument
124 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_maskz_and_pd()
130 _mm_mask_and_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_and_pd() argument
131 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_mask_and_pd()
137 _mm_maskz_and_pd(__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_and_pd() argument
138 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_maskz_and_pd()
144 _mm256_mask_and_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_and_ps() argument
145 return (__m256)__builtin_ia32_selectps_256((__mmask8)__U, in _mm256_mask_and_ps()
151 _mm256_maskz_and_ps(__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_and_ps() argument
152 return (__m256)__builtin_ia32_selectps_256((__mmask8)__U, in _mm256_maskz_and_ps()
158 _mm_mask_and_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B) { in _mm_mask_and_ps() argument
159 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm_mask_and_ps()
165 _mm_maskz_and_ps(__mmask8 __U, __m128 __A, __m128 __B) { in _mm_maskz_and_ps() argument
166 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm_maskz_and_ps()
172 _mm256_mask_xor_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_xor_pd() argument
173 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_mask_xor_pd()
179 _mm256_maskz_xor_pd(__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_xor_pd() argument
180 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_maskz_xor_pd()
186 _mm_mask_xor_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_xor_pd() argument
187 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_mask_xor_pd()
193 _mm_maskz_xor_pd (__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_xor_pd() argument
194 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_maskz_xor_pd()
200 _mm256_mask_xor_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_xor_ps() argument
201 return (__m256)__builtin_ia32_selectps_256((__mmask8)__U, in _mm256_mask_xor_ps()
207 _mm256_maskz_xor_ps(__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_xor_ps() argument
208 return (__m256)__builtin_ia32_selectps_256((__mmask8)__U, in _mm256_maskz_xor_ps()
214 _mm_mask_xor_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B) { in _mm_mask_xor_ps() argument
215 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm_mask_xor_ps()
221 _mm_maskz_xor_ps(__mmask8 __U, __m128 __A, __m128 __B) { in _mm_maskz_xor_ps() argument
222 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm_maskz_xor_ps()
228 _mm256_mask_or_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_or_pd() argument
229 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_mask_or_pd()
235 _mm256_maskz_or_pd(__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_or_pd() argument
236 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_maskz_or_pd()
242 _mm_mask_or_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_or_pd() argument
243 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_mask_or_pd()
249 _mm_maskz_or_pd(__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_or_pd() argument
250 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_maskz_or_pd()
256 _mm256_mask_or_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_or_ps() argument
257 return (__m256)__builtin_ia32_selectps_256((__mmask8)__U, in _mm256_mask_or_ps()
263 _mm256_maskz_or_ps(__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_or_ps() argument
264 return (__m256)__builtin_ia32_selectps_256((__mmask8)__U, in _mm256_maskz_or_ps()
270 _mm_mask_or_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B) { in _mm_mask_or_ps() argument
271 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm_mask_or_ps()
277 _mm_maskz_or_ps(__mmask8 __U, __m128 __A, __m128 __B) { in _mm_maskz_or_ps() argument
278 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm_maskz_or_ps()
291 _mm_mask_cvtpd_epi64 (__m128i __W, __mmask8 __U, __m128d __A) { in _mm_mask_cvtpd_epi64() argument
294 (__mmask8) __U); in _mm_mask_cvtpd_epi64()
298 _mm_maskz_cvtpd_epi64 (__mmask8 __U, __m128d __A) { in _mm_maskz_cvtpd_epi64() argument
301 (__mmask8) __U); in _mm_maskz_cvtpd_epi64()
312 _mm256_mask_cvtpd_epi64 (__m256i __W, __mmask8 __U, __m256d __A) { in _mm256_mask_cvtpd_epi64() argument
315 (__mmask8) __U); in _mm256_mask_cvtpd_epi64()
319 _mm256_maskz_cvtpd_epi64 (__mmask8 __U, __m256d __A) { in _mm256_maskz_cvtpd_epi64() argument
322 (__mmask8) __U); in _mm256_maskz_cvtpd_epi64()
333 _mm_mask_cvtpd_epu64 (__m128i __W, __mmask8 __U, __m128d __A) { in _mm_mask_cvtpd_epu64() argument
336 (__mmask8) __U); in _mm_mask_cvtpd_epu64()
340 _mm_maskz_cvtpd_epu64 (__mmask8 __U, __m128d __A) { in _mm_maskz_cvtpd_epu64() argument
343 (__mmask8) __U); in _mm_maskz_cvtpd_epu64()
354 _mm256_mask_cvtpd_epu64 (__m256i __W, __mmask8 __U, __m256d __A) { in _mm256_mask_cvtpd_epu64() argument
357 (__mmask8) __U); in _mm256_mask_cvtpd_epu64()
361 _mm256_maskz_cvtpd_epu64 (__mmask8 __U, __m256d __A) { in _mm256_maskz_cvtpd_epu64() argument
364 (__mmask8) __U); in _mm256_maskz_cvtpd_epu64()
375 _mm_mask_cvtps_epi64 (__m128i __W, __mmask8 __U, __m128 __A) { in _mm_mask_cvtps_epi64() argument
378 (__mmask8) __U); in _mm_mask_cvtps_epi64()
382 _mm_maskz_cvtps_epi64 (__mmask8 __U, __m128 __A) { in _mm_maskz_cvtps_epi64() argument
385 (__mmask8) __U); in _mm_maskz_cvtps_epi64()
396 _mm256_mask_cvtps_epi64 (__m256i __W, __mmask8 __U, __m128 __A) { in _mm256_mask_cvtps_epi64() argument
399 (__mmask8) __U); in _mm256_mask_cvtps_epi64()
403 _mm256_maskz_cvtps_epi64 (__mmask8 __U, __m128 __A) { in _mm256_maskz_cvtps_epi64() argument
406 (__mmask8) __U); in _mm256_maskz_cvtps_epi64()
417 _mm_mask_cvtps_epu64 (__m128i __W, __mmask8 __U, __m128 __A) { in _mm_mask_cvtps_epu64() argument
420 (__mmask8) __U); in _mm_mask_cvtps_epu64()
424 _mm_maskz_cvtps_epu64 (__mmask8 __U, __m128 __A) { in _mm_maskz_cvtps_epu64() argument
427 (__mmask8) __U); in _mm_maskz_cvtps_epu64()
438 _mm256_mask_cvtps_epu64 (__m256i __W, __mmask8 __U, __m128 __A) { in _mm256_mask_cvtps_epu64() argument
441 (__mmask8) __U); in _mm256_mask_cvtps_epu64()
445 _mm256_maskz_cvtps_epu64 (__mmask8 __U, __m128 __A) { in _mm256_maskz_cvtps_epu64() argument
448 (__mmask8) __U); in _mm256_maskz_cvtps_epu64()
457 _mm_mask_cvtepi64_pd (__m128d __W, __mmask8 __U, __m128i __A) { in _mm_mask_cvtepi64_pd() argument
458 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_mask_cvtepi64_pd()
464 _mm_maskz_cvtepi64_pd (__mmask8 __U, __m128i __A) { in _mm_maskz_cvtepi64_pd() argument
465 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_maskz_cvtepi64_pd()
476 _mm256_mask_cvtepi64_pd (__m256d __W, __mmask8 __U, __m256i __A) { in _mm256_mask_cvtepi64_pd() argument
477 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_mask_cvtepi64_pd()
483 _mm256_maskz_cvtepi64_pd (__mmask8 __U, __m256i __A) { in _mm256_maskz_cvtepi64_pd() argument
484 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_maskz_cvtepi64_pd()
497 _mm_mask_cvtepi64_ps (__m128 __W, __mmask8 __U, __m128i __A) { in _mm_mask_cvtepi64_ps() argument
500 (__mmask8) __U); in _mm_mask_cvtepi64_ps()
504 _mm_maskz_cvtepi64_ps (__mmask8 __U, __m128i __A) { in _mm_maskz_cvtepi64_ps() argument
507 (__mmask8) __U); in _mm_maskz_cvtepi64_ps()
516 _mm256_mask_cvtepi64_ps (__m128 __W, __mmask8 __U, __m256i __A) { in _mm256_mask_cvtepi64_ps() argument
517 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm256_mask_cvtepi64_ps()
523 _mm256_maskz_cvtepi64_ps (__mmask8 __U, __m256i __A) { in _mm256_maskz_cvtepi64_ps() argument
524 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm256_maskz_cvtepi64_ps()
537 _mm_mask_cvttpd_epi64 (__m128i __W, __mmask8 __U, __m128d __A) { in _mm_mask_cvttpd_epi64() argument
540 (__mmask8) __U); in _mm_mask_cvttpd_epi64()
544 _mm_maskz_cvttpd_epi64 (__mmask8 __U, __m128d __A) { in _mm_maskz_cvttpd_epi64() argument
547 (__mmask8) __U); in _mm_maskz_cvttpd_epi64()
558 _mm256_mask_cvttpd_epi64 (__m256i __W, __mmask8 __U, __m256d __A) { in _mm256_mask_cvttpd_epi64() argument
561 (__mmask8) __U); in _mm256_mask_cvttpd_epi64()
565 _mm256_maskz_cvttpd_epi64 (__mmask8 __U, __m256d __A) { in _mm256_maskz_cvttpd_epi64() argument
568 (__mmask8) __U); in _mm256_maskz_cvttpd_epi64()
579 _mm_mask_cvttpd_epu64 (__m128i __W, __mmask8 __U, __m128d __A) { in _mm_mask_cvttpd_epu64() argument
582 (__mmask8) __U); in _mm_mask_cvttpd_epu64()
586 _mm_maskz_cvttpd_epu64 (__mmask8 __U, __m128d __A) { in _mm_maskz_cvttpd_epu64() argument
589 (__mmask8) __U); in _mm_maskz_cvttpd_epu64()
600 _mm256_mask_cvttpd_epu64 (__m256i __W, __mmask8 __U, __m256d __A) { in _mm256_mask_cvttpd_epu64() argument
603 (__mmask8) __U); in _mm256_mask_cvttpd_epu64()
607 _mm256_maskz_cvttpd_epu64 (__mmask8 __U, __m256d __A) { in _mm256_maskz_cvttpd_epu64() argument
610 (__mmask8) __U); in _mm256_maskz_cvttpd_epu64()
621 _mm_mask_cvttps_epi64 (__m128i __W, __mmask8 __U, __m128 __A) { in _mm_mask_cvttps_epi64() argument
624 (__mmask8) __U); in _mm_mask_cvttps_epi64()
628 _mm_maskz_cvttps_epi64 (__mmask8 __U, __m128 __A) { in _mm_maskz_cvttps_epi64() argument
631 (__mmask8) __U); in _mm_maskz_cvttps_epi64()
642 _mm256_mask_cvttps_epi64 (__m256i __W, __mmask8 __U, __m128 __A) { in _mm256_mask_cvttps_epi64() argument
645 (__mmask8) __U); in _mm256_mask_cvttps_epi64()
649 _mm256_maskz_cvttps_epi64 (__mmask8 __U, __m128 __A) { in _mm256_maskz_cvttps_epi64() argument
652 (__mmask8) __U); in _mm256_maskz_cvttps_epi64()
663 _mm_mask_cvttps_epu64 (__m128i __W, __mmask8 __U, __m128 __A) { in _mm_mask_cvttps_epu64() argument
666 (__mmask8) __U); in _mm_mask_cvttps_epu64()
670 _mm_maskz_cvttps_epu64 (__mmask8 __U, __m128 __A) { in _mm_maskz_cvttps_epu64() argument
673 (__mmask8) __U); in _mm_maskz_cvttps_epu64()
684 _mm256_mask_cvttps_epu64 (__m256i __W, __mmask8 __U, __m128 __A) { in _mm256_mask_cvttps_epu64() argument
687 (__mmask8) __U); in _mm256_mask_cvttps_epu64()
691 _mm256_maskz_cvttps_epu64 (__mmask8 __U, __m128 __A) { in _mm256_maskz_cvttps_epu64() argument
694 (__mmask8) __U); in _mm256_maskz_cvttps_epu64()
703 _mm_mask_cvtepu64_pd (__m128d __W, __mmask8 __U, __m128i __A) { in _mm_mask_cvtepu64_pd() argument
704 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_mask_cvtepu64_pd()
710 _mm_maskz_cvtepu64_pd (__mmask8 __U, __m128i __A) { in _mm_maskz_cvtepu64_pd() argument
711 return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U, in _mm_maskz_cvtepu64_pd()
722 _mm256_mask_cvtepu64_pd (__m256d __W, __mmask8 __U, __m256i __A) { in _mm256_mask_cvtepu64_pd() argument
723 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_mask_cvtepu64_pd()
729 _mm256_maskz_cvtepu64_pd (__mmask8 __U, __m256i __A) { in _mm256_maskz_cvtepu64_pd() argument
730 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U, in _mm256_maskz_cvtepu64_pd()
743 _mm_mask_cvtepu64_ps (__m128 __W, __mmask8 __U, __m128i __A) { in _mm_mask_cvtepu64_ps() argument
746 (__mmask8) __U); in _mm_mask_cvtepu64_ps()
750 _mm_maskz_cvtepu64_ps (__mmask8 __U, __m128i __A) { in _mm_maskz_cvtepu64_ps() argument
753 (__mmask8) __U); in _mm_maskz_cvtepu64_ps()
762 _mm256_mask_cvtepu64_ps (__m128 __W, __mmask8 __U, __m256i __A) { in _mm256_mask_cvtepu64_ps() argument
763 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm256_mask_cvtepu64_ps()
769 _mm256_maskz_cvtepu64_ps (__mmask8 __U, __m256i __A) { in _mm256_maskz_cvtepu64_ps() argument
770 return (__m128)__builtin_ia32_selectps_128((__mmask8)__U, in _mm256_maskz_cvtepu64_ps()