Lines Matching refs:__v8sf
1201 (__mmask8)__builtin_ia32_cmpps256_mask((__v8sf)(__m256)(a), \
1202 (__v8sf)(__m256)(b), (int)(p), \
1206 (__mmask8)__builtin_ia32_cmpps256_mask((__v8sf)(__m256)(a), \
1207 (__v8sf)(__m256)(b), (int)(p), \
1459 return (__m256) __builtin_ia32_vfmaddps256_mask ((__v8sf) __A, in _mm256_mask_fmadd_ps()
1460 (__v8sf) __B, in _mm256_mask_fmadd_ps()
1461 (__v8sf) __C, in _mm256_mask_fmadd_ps()
1468 return (__m256) __builtin_ia32_vfmaddps256_mask3 ((__v8sf) __A, in _mm256_mask3_fmadd_ps()
1469 (__v8sf) __B, in _mm256_mask3_fmadd_ps()
1470 (__v8sf) __C, in _mm256_mask3_fmadd_ps()
1477 return (__m256) __builtin_ia32_vfmaddps256_maskz ((__v8sf) __A, in _mm256_maskz_fmadd_ps()
1478 (__v8sf) __B, in _mm256_maskz_fmadd_ps()
1479 (__v8sf) __C, in _mm256_maskz_fmadd_ps()
1486 return (__m256) __builtin_ia32_vfmaddps256_mask ((__v8sf) __A, in _mm256_mask_fmsub_ps()
1487 (__v8sf) __B, in _mm256_mask_fmsub_ps()
1488 -(__v8sf) __C, in _mm256_mask_fmsub_ps()
1495 return (__m256) __builtin_ia32_vfmaddps256_maskz ((__v8sf) __A, in _mm256_maskz_fmsub_ps()
1496 (__v8sf) __B, in _mm256_maskz_fmsub_ps()
1497 -(__v8sf) __C, in _mm256_maskz_fmsub_ps()
1504 return (__m256) __builtin_ia32_vfmaddps256_mask3 (-(__v8sf) __A, in _mm256_mask3_fnmadd_ps()
1505 (__v8sf) __B, in _mm256_mask3_fnmadd_ps()
1506 (__v8sf) __C, in _mm256_mask3_fnmadd_ps()
1513 return (__m256) __builtin_ia32_vfmaddps256_maskz (-(__v8sf) __A, in _mm256_maskz_fnmadd_ps()
1514 (__v8sf) __B, in _mm256_maskz_fnmadd_ps()
1515 (__v8sf) __C, in _mm256_maskz_fnmadd_ps()
1522 return (__m256) __builtin_ia32_vfmaddps256_maskz (-(__v8sf) __A, in _mm256_maskz_fnmsub_ps()
1523 (__v8sf) __B, in _mm256_maskz_fnmsub_ps()
1524 -(__v8sf) __C, in _mm256_maskz_fnmsub_ps()
1673 return (__m256) __builtin_ia32_vfmaddsubps256_mask ((__v8sf) __A, in _mm256_mask_fmaddsub_ps()
1674 (__v8sf) __B, in _mm256_mask_fmaddsub_ps()
1675 (__v8sf) __C, in _mm256_mask_fmaddsub_ps()
1682 return (__m256) __builtin_ia32_vfmaddsubps256_mask3 ((__v8sf) __A, in _mm256_mask3_fmaddsub_ps()
1683 (__v8sf) __B, in _mm256_mask3_fmaddsub_ps()
1684 (__v8sf) __C, in _mm256_mask3_fmaddsub_ps()
1691 return (__m256) __builtin_ia32_vfmaddsubps256_maskz ((__v8sf) __A, in _mm256_maskz_fmaddsub_ps()
1692 (__v8sf) __B, in _mm256_maskz_fmaddsub_ps()
1693 (__v8sf) __C, in _mm256_maskz_fmaddsub_ps()
1700 return (__m256) __builtin_ia32_vfmaddsubps256_mask ((__v8sf) __A, in _mm256_mask_fmsubadd_ps()
1701 (__v8sf) __B, in _mm256_mask_fmsubadd_ps()
1702 -(__v8sf) __C, in _mm256_mask_fmsubadd_ps()
1709 return (__m256) __builtin_ia32_vfmaddsubps256_maskz ((__v8sf) __A, in _mm256_maskz_fmsubadd_ps()
1710 (__v8sf) __B, in _mm256_maskz_fmsubadd_ps()
1711 -(__v8sf) __C, in _mm256_maskz_fmsubadd_ps()
1745 return (__m256) __builtin_ia32_vfmsubps256_mask3 ((__v8sf) __A, in _mm256_mask3_fmsub_ps()
1746 (__v8sf) __B, in _mm256_mask3_fmsub_ps()
1747 (__v8sf) __C, in _mm256_mask3_fmsub_ps()
1783 return (__m256) __builtin_ia32_vfmsubaddps256_mask3 ((__v8sf) __A, in _mm256_mask3_fmsubadd_ps()
1784 (__v8sf) __B, in _mm256_mask3_fmsubadd_ps()
1785 (__v8sf) __C, in _mm256_mask3_fmsubadd_ps()
1819 return (__m256) __builtin_ia32_vfnmaddps256_mask ((__v8sf) __A, in _mm256_mask_fnmadd_ps()
1820 (__v8sf) __B, in _mm256_mask_fnmadd_ps()
1821 (__v8sf) __C, in _mm256_mask_fnmadd_ps()
1882 return (__m256) __builtin_ia32_vfnmsubps256_mask ((__v8sf) __A, in _mm256_mask_fnmsub_ps()
1883 (__v8sf) __B, in _mm256_mask_fnmsub_ps()
1884 (__v8sf) __C, in _mm256_mask_fnmsub_ps()
1891 return (__m256) __builtin_ia32_vfnmsubps256_mask3 ((__v8sf) __A, in _mm256_mask3_fnmsub_ps()
1892 (__v8sf) __B, in _mm256_mask3_fnmsub_ps()
1893 (__v8sf) __C, in _mm256_mask3_fnmsub_ps()
1950 return (__m256) __builtin_ia32_addps256_mask ((__v8sf) __A, in _mm256_mask_add_ps()
1951 (__v8sf) __B, in _mm256_mask_add_ps()
1952 (__v8sf) __W, in _mm256_mask_add_ps()
1958 return (__m256) __builtin_ia32_addps256_mask ((__v8sf) __A, in _mm256_maskz_add_ps()
1959 (__v8sf) __B, in _mm256_maskz_add_ps()
1960 (__v8sf) in _mm256_maskz_add_ps()
2003 (__v8sf) __W, in _mm256_mask_blend_ps()
2004 (__v8sf) __A); in _mm256_mask_blend_ps()
2098 return (__m256) __builtin_ia32_compresssf256_mask ((__v8sf) __A, in _mm256_mask_compress_ps()
2099 (__v8sf) __W, in _mm256_mask_compress_ps()
2105 return (__m256) __builtin_ia32_compresssf256_mask ((__v8sf) __A, in _mm256_maskz_compress_ps()
2106 (__v8sf) in _mm256_maskz_compress_ps()
2178 __builtin_ia32_compressstoresf256_mask ((__v8sf *) __P, in _mm256_mask_compressstoreu_ps()
2179 (__v8sf) __A, in _mm256_mask_compressstoreu_ps()
2245 (__v8sf) __W, in _mm256_mask_cvtepi32_ps()
2252 (__v8sf) in _mm256_maskz_cvtepi32_ps()
2380 return (__m256i) __builtin_ia32_cvtps2dq256_mask ((__v8sf) __A, in _mm256_mask_cvtps_epi32()
2387 return (__m256i) __builtin_ia32_cvtps2dq256_mask ((__v8sf) __A, in _mm256_maskz_cvtps_epi32()
2448 return (__m256i) __builtin_ia32_cvtps2udq256_mask ((__v8sf) __A, in _mm256_cvtps_epu32()
2456 return (__m256i) __builtin_ia32_cvtps2udq256_mask ((__v8sf) __A, in _mm256_mask_cvtps_epu32()
2463 return (__m256i) __builtin_ia32_cvtps2udq256_mask ((__v8sf) __A, in _mm256_maskz_cvtps_epu32()
2562 return (__m256i) __builtin_ia32_cvttps2dq256_mask ((__v8sf) __A, in _mm256_mask_cvttps_epi32()
2569 return (__m256i) __builtin_ia32_cvttps2dq256_mask ((__v8sf) __A, in _mm256_maskz_cvttps_epi32()
2600 return (__m256i) __builtin_ia32_cvttps2udq256_mask ((__v8sf) __A, in _mm256_cvttps_epu32()
2608 return (__m256i) __builtin_ia32_cvttps2udq256_mask ((__v8sf) __A, in _mm256_mask_cvttps_epu32()
2615 return (__m256i) __builtin_ia32_cvttps2udq256_mask ((__v8sf) __A, in _mm256_maskz_cvttps_epu32()
2693 (__v8sf) in _mm256_cvtepu32_ps()
2701 (__v8sf) __W, in _mm256_mask_cvtepu32_ps()
2708 (__v8sf) in _mm256_maskz_cvtepu32_ps()
2767 return (__m256) __builtin_ia32_divps256_mask ((__v8sf) __A, in _mm256_mask_div_ps()
2768 (__v8sf) __B, in _mm256_mask_div_ps()
2769 (__v8sf) __W, in _mm256_mask_div_ps()
2775 return (__m256) __builtin_ia32_divps256_mask ((__v8sf) __A, in _mm256_maskz_div_ps()
2776 (__v8sf) __B, in _mm256_maskz_div_ps()
2777 (__v8sf) in _mm256_maskz_div_ps()
2929 return (__m256) __builtin_ia32_expandloadsf256_mask ((__v8sf *) __P, in _mm256_mask_expandloadu_ps()
2930 (__v8sf) __W, in _mm256_mask_expandloadu_ps()
2936 return (__m256) __builtin_ia32_expandloadsf256_mask ((__v8sf *) __P, in _mm256_maskz_expandloadu_ps()
2937 (__v8sf) in _mm256_maskz_expandloadu_ps()
2994 return (__m256) __builtin_ia32_expandsf256_mask ((__v8sf) __A, in _mm256_mask_expand_ps()
2995 (__v8sf) __W, in _mm256_mask_expand_ps()
3001 return (__m256) __builtin_ia32_expandsf256_mask ((__v8sf) __A, in _mm256_maskz_expand_ps()
3002 (__v8sf) in _mm256_maskz_expand_ps()
3108 return (__m256) __builtin_ia32_getexpps256_mask ((__v8sf) __A, in _mm256_getexp_ps()
3109 (__v8sf) in _mm256_getexp_ps()
3116 return (__m256) __builtin_ia32_getexpps256_mask ((__v8sf) __A, in _mm256_mask_getexp_ps()
3117 (__v8sf) __W, in _mm256_mask_getexp_ps()
3123 return (__m256) __builtin_ia32_getexpps256_mask ((__v8sf) __A, in _mm256_maskz_getexp_ps()
3124 (__v8sf) in _mm256_maskz_getexp_ps()
3183 return (__m256) __builtin_ia32_maxps256_mask ((__v8sf) __A, in _mm256_mask_max_ps()
3184 (__v8sf) __B, in _mm256_mask_max_ps()
3185 (__v8sf) __W, in _mm256_mask_max_ps()
3191 return (__m256) __builtin_ia32_maxps256_mask ((__v8sf) __A, in _mm256_maskz_max_ps()
3192 (__v8sf) __B, in _mm256_maskz_max_ps()
3193 (__v8sf) in _mm256_maskz_max_ps()
3252 return (__m256) __builtin_ia32_minps256_mask ((__v8sf) __A, in _mm256_mask_min_ps()
3253 (__v8sf) __B, in _mm256_mask_min_ps()
3254 (__v8sf) __W, in _mm256_mask_min_ps()
3260 return (__m256) __builtin_ia32_minps256_mask ((__v8sf) __A, in _mm256_maskz_min_ps()
3261 (__v8sf) __B, in _mm256_maskz_min_ps()
3262 (__v8sf) in _mm256_maskz_min_ps()
3321 return (__m256) __builtin_ia32_mulps256_mask ((__v8sf) __A, in _mm256_mask_mul_ps()
3322 (__v8sf) __B, in _mm256_mask_mul_ps()
3323 (__v8sf) __W, in _mm256_mask_mul_ps()
3329 return (__m256) __builtin_ia32_mulps256_mask ((__v8sf) __A, in _mm256_maskz_mul_ps()
3330 (__v8sf) __B, in _mm256_maskz_mul_ps()
3331 (__v8sf) in _mm256_maskz_mul_ps()
3815 (__m256)__builtin_ia32_rndscaleps_256_mask((__v8sf)(__m256)(A), (int)(imm), \
3816 (__v8sf)_mm256_setzero_ps(), \
3820 (__m256)__builtin_ia32_rndscaleps_256_mask((__v8sf)(__m256)(A), (int)(imm), \
3821 (__v8sf)(__m256)(W), \
3826 (__m256)__builtin_ia32_rndscaleps_256_mask((__v8sf)(__m256)(A), (int)(imm), \
3827 (__v8sf)_mm256_setzero_ps(), \
3912 return (__m256) __builtin_ia32_scalefps256_mask ((__v8sf) __A, in _mm256_scalef_ps()
3913 (__v8sf) __B, in _mm256_scalef_ps()
3914 (__v8sf) in _mm256_scalef_ps()
3922 return (__m256) __builtin_ia32_scalefps256_mask ((__v8sf) __A, in _mm256_mask_scalef_ps()
3923 (__v8sf) __B, in _mm256_mask_scalef_ps()
3924 (__v8sf) __W, in _mm256_mask_scalef_ps()
3930 return (__m256) __builtin_ia32_scalefps256_mask ((__v8sf) __A, in _mm256_maskz_scalef_ps()
3931 (__v8sf) __B, in _mm256_maskz_scalef_ps()
3932 (__v8sf) in _mm256_maskz_scalef_ps()
4079 (__v8si)(__m256i)(index), (__v8sf)(__m256)(v1), \
4084 (__v8si)(__m256i)(index), (__v8sf)(__m256)(v1), \
4144 return (__m256) __builtin_ia32_sqrtps256_mask ((__v8sf) __A, in _mm256_mask_sqrt_ps()
4145 (__v8sf) __W, in _mm256_mask_sqrt_ps()
4151 return (__m256) __builtin_ia32_sqrtps256_mask ((__v8sf) __A, in _mm256_maskz_sqrt_ps()
4152 (__v8sf) in _mm256_maskz_sqrt_ps()
4211 return (__m256) __builtin_ia32_subps256_mask ((__v8sf) __A, in _mm256_mask_sub_ps()
4212 (__v8sf) __B, in _mm256_mask_sub_ps()
4213 (__v8sf) __W, in _mm256_mask_sub_ps()
4219 return (__m256) __builtin_ia32_subps256_mask ((__v8sf) __A, in _mm256_maskz_sub_ps()
4220 (__v8sf) __B, in _mm256_maskz_sub_ps()
4221 (__v8sf) in _mm256_maskz_sub_ps()
4281 return (__m256) __builtin_ia32_vpermi2varps256_mask ((__v8sf) __A, in _mm256_mask2_permutex2var_ps()
4284 (__v8sf) __B, in _mm256_mask2_permutex2var_ps()
4466 (__v8sf) __A, in _mm256_permutex2var_ps()
4467 (__v8sf) __B, in _mm256_permutex2var_ps()
4476 (__v8sf) __A, in _mm256_mask_permutex2var_ps()
4477 (__v8sf) __B, in _mm256_mask_permutex2var_ps()
4486 (__v8sf) __A, in _mm256_maskz_permutex2var_ps()
4487 (__v8sf) __B, in _mm256_maskz_permutex2var_ps()
6065 (__m256)__builtin_ia32_fixupimmps256_mask((__v8sf)(__m256)(A), \
6066 (__v8sf)(__m256)(B), \
6071 (__m256)__builtin_ia32_fixupimmps256_mask((__v8sf)(__m256)(A), \
6072 (__v8sf)(__m256)(B), \
6077 (__m256)__builtin_ia32_fixupimmps256_maskz((__v8sf)(__m256)(A), \
6078 (__v8sf)(__m256)(B), \
6136 return (__m256) __builtin_ia32_loadaps256_mask ((__v8sf *) __P, in _mm256_mask_load_ps()
6137 (__v8sf) __W, in _mm256_mask_load_ps()
6144 return (__m256) __builtin_ia32_loadaps256_mask ((__v8sf *) __P, in _mm256_maskz_load_ps()
6145 (__v8sf) in _mm256_maskz_load_ps()
6272 return (__m256) __builtin_ia32_loadups256_mask ((__v8sf *) __P, in _mm256_mask_loadu_ps()
6273 (__v8sf) __W, in _mm256_mask_loadu_ps()
6280 return (__m256) __builtin_ia32_loadups256_mask ((__v8sf *) __P, in _mm256_maskz_loadu_ps()
6281 (__v8sf) in _mm256_maskz_loadu_ps()
6313 __builtin_ia32_storeaps256_mask ((__v8sf *) __P, in _mm256_mask_store_ps()
6314 (__v8sf) __A, in _mm256_mask_store_ps()
6377 __builtin_ia32_storeups256_mask ((__v8sf *) __P, in _mm256_mask_storeu_ps()
6378 (__v8sf) __A, in _mm256_mask_storeu_ps()
6435 (__v8sf)_mm256_unpackhi_ps(__A, __B), in _mm256_mask_unpackhi_ps()
6436 (__v8sf)__W); in _mm256_mask_unpackhi_ps()
6443 (__v8sf)_mm256_unpackhi_ps(__A, __B), in _mm256_maskz_unpackhi_ps()
6444 (__v8sf)_mm256_setzero_ps()); in _mm256_maskz_unpackhi_ps()
6499 (__v8sf)_mm256_unpacklo_ps(__A, __B), in _mm256_mask_unpacklo_ps()
6500 (__v8sf)__W); in _mm256_mask_unpacklo_ps()
6507 (__v8sf)_mm256_unpacklo_ps(__A, __B), in _mm256_maskz_unpacklo_ps()
6508 (__v8sf)_mm256_setzero_ps()); in _mm256_maskz_unpacklo_ps()
6592 return (__m256) __builtin_ia32_rcp14ps256_mask ((__v8sf) __A, in _mm256_rcp14_ps()
6593 (__v8sf) in _mm256_rcp14_ps()
6601 return (__m256) __builtin_ia32_rcp14ps256_mask ((__v8sf) __A, in _mm256_mask_rcp14_ps()
6602 (__v8sf) __W, in _mm256_mask_rcp14_ps()
6609 return (__m256) __builtin_ia32_rcp14ps256_mask ((__v8sf) __A, in _mm256_maskz_rcp14_ps()
6610 (__v8sf) in _mm256_maskz_rcp14_ps()
6647 (__v8sf)_mm256_permute_ps((X), (C)), \
6648 (__v8sf)(__m256)(W)); })
6652 (__v8sf)_mm256_permute_ps((X), (C)), \
6653 (__v8sf)_mm256_setzero_ps()); })
6721 return (__m256) __builtin_ia32_vpermilvarps256_mask ((__v8sf) __A, in _mm256_mask_permutevar_ps()
6723 (__v8sf) __W, in _mm256_mask_permutevar_ps()
6730 return (__m256) __builtin_ia32_vpermilvarps256_mask ((__v8sf) __A, in _mm256_maskz_permutevar_ps()
6732 (__v8sf) in _mm256_maskz_permutevar_ps()
7212 (__m256)__builtin_ia32_shuf_f32x4_256_mask((__v8sf)(__m256)(A), \
7213 (__v8sf)(__m256)(B), (int)(imm), \
7214 (__v8sf)_mm256_setzero_ps(), \
7218 (__m256)__builtin_ia32_shuf_f32x4_256_mask((__v8sf)(__m256)(A), \
7219 (__v8sf)(__m256)(B), (int)(imm), \
7220 (__v8sf)(__m256)(W), \
7224 (__m256)__builtin_ia32_shuf_f32x4_256_mask((__v8sf)(__m256)(A), \
7225 (__v8sf)(__m256)(B), (int)(imm), \
7226 (__v8sf)_mm256_setzero_ps(), \
7324 (__v8sf)_mm256_shuffle_ps((A), (B), (M)), \
7325 (__v8sf)(__m256)(W)); })
7329 (__v8sf)_mm256_shuffle_ps((A), (B), (M)), \
7330 (__v8sf)_mm256_setzero_ps()); })
7413 return (__m256) __builtin_ia32_rsqrt14ps256_mask ((__v8sf) __A, in _mm256_rsqrt14_ps()
7414 (__v8sf) in _mm256_rsqrt14_ps()
7422 return (__m256) __builtin_ia32_rsqrt14ps256_mask ((__v8sf) __A, in _mm256_mask_rsqrt14_ps()
7423 (__v8sf) __W, in _mm256_mask_rsqrt14_ps()
7430 return (__m256) __builtin_ia32_rsqrt14ps256_mask ((__v8sf) __A, in _mm256_maskz_rsqrt14_ps()
7431 (__v8sf) in _mm256_maskz_rsqrt14_ps()
7440 (__v8sf)_mm256_undefined_pd (), in _mm256_broadcast_f32x4()
7448 (__v8sf) __O, in _mm256_mask_broadcast_f32x4()
7456 (__v8sf) _mm256_setzero_ps (), in _mm256_maskz_broadcast_f32x4()
7521 (__v8sf) _mm256_broadcastss_ps(__A), in _mm256_mask_broadcastss_ps()
7522 (__v8sf) __O); in _mm256_mask_broadcastss_ps()
7529 (__v8sf) _mm256_broadcastss_ps(__A), in _mm256_maskz_broadcastss_ps()
7530 (__v8sf) _mm256_setzero_ps()); in _mm256_maskz_broadcastss_ps()
8476 (__m128)__builtin_ia32_extractf32x4_256_mask((__v8sf)(__m256)(A), \
8482 (__m128)__builtin_ia32_extractf32x4_256_mask((__v8sf)(__m256)(A), \
8488 (__m128)__builtin_ia32_extractf32x4_256_mask((__v8sf)(__m256)(A), \
8512 (__m256)__builtin_ia32_insertf32x4_256_mask((__v8sf)(__m256)(A), \
8514 (__v8sf)_mm256_setzero_ps(), \
8518 (__m256)__builtin_ia32_insertf32x4_256_mask((__v8sf)(__m256)(A), \
8520 (__v8sf)(__m256)(W), \
8524 (__m256)__builtin_ia32_insertf32x4_256_mask((__v8sf)(__m256)(A), \
8526 (__v8sf)_mm256_setzero_ps(), \
8605 (__m256)__builtin_ia32_getmantps256_mask((__v8sf)(__m256)(A), \
8607 (__v8sf)_mm256_setzero_ps(), \
8611 (__m256)__builtin_ia32_getmantps256_mask((__v8sf)(__m256)(A), \
8613 (__v8sf)(__m256)(W), \
8617 (__m256)__builtin_ia32_getmantps256_mask((__v8sf)(__m256)(A), \
8619 (__v8sf)_mm256_setzero_ps(), \
8707 (__m256)__builtin_ia32_gather3siv8sf((__v8sf)(__m256)(v1_old), \
8810 return (__m256) __builtin_ia32_permvarsf256_mask ((__v8sf) __Y, in _mm256_mask_permutexvar_ps()
8812 (__v8sf) __W, in _mm256_mask_permutexvar_ps()
8819 return (__m256) __builtin_ia32_permvarsf256_mask ((__v8sf) __Y, in _mm256_maskz_permutexvar_ps()
8821 (__v8sf) _mm256_setzero_ps (), in _mm256_maskz_permutexvar_ps()
8828 return (__m256) __builtin_ia32_permvarsf256_mask ((__v8sf) __Y, in _mm256_permutexvar_ps()
8830 (__v8sf) _mm256_undefined_si256 (), in _mm256_permutexvar_ps()
8954 (__v8sf)_mm256_movehdup_ps(__A), in _mm256_mask_movehdup_ps()
8955 (__v8sf)__W); in _mm256_mask_movehdup_ps()
8962 (__v8sf)_mm256_movehdup_ps(__A), in _mm256_maskz_movehdup_ps()
8963 (__v8sf)_mm256_setzero_ps()); in _mm256_maskz_movehdup_ps()
8986 (__v8sf)_mm256_moveldup_ps(__A), in _mm256_mask_moveldup_ps()
8987 (__v8sf)__W); in _mm256_mask_moveldup_ps()
8994 (__v8sf)_mm256_moveldup_ps(__A), in _mm256_maskz_moveldup_ps()
8995 (__v8sf)_mm256_setzero_ps()); in _mm256_maskz_moveldup_ps()
9070 (__v8sf) __A, in _mm256_mask_mov_ps()
9071 (__v8sf) __W); in _mm256_mask_mov_ps()
9078 (__v8sf) __A, in _mm256_maskz_mov_ps()
9079 (__v8sf) _mm256_setzero_ps ()); in _mm256_maskz_mov_ps()
9103 (__v8sf) __W, in _mm256_mask_cvtph_ps()
9111 (__v8sf) in _mm256_maskz_cvtph_ps()
9145 return (__m128i) __builtin_ia32_vcvtps2ph256_mask ((__v8sf) __A, _MM_FROUND_CUR_DIRECTION, in _mm256_mask_cvtps_ph()
9153 return (__m128i) __builtin_ia32_vcvtps2ph256_mask ((__v8sf) __A, _MM_FROUND_CUR_DIRECTION, in _mm256_maskz_cvtps_ph()
9158 (__m128i)__builtin_ia32_vcvtps2ph256_mask((__v8sf)(__m256)(A), (int)(I), \
9163 (__m128i)__builtin_ia32_vcvtps2ph256_mask((__v8sf)(__m256)(A), (int)(I), \