• Home
  • Raw
  • Download

Lines Matching refs:__a

69 _mm256_add_pd(__m256d __a, __m256d __b)  in _mm256_add_pd()  argument
71 return (__m256d)((__v4df)__a+(__v4df)__b); in _mm256_add_pd()
87 _mm256_add_ps(__m256 __a, __m256 __b) in _mm256_add_ps() argument
89 return (__m256)((__v8sf)__a+(__v8sf)__b); in _mm256_add_ps()
105 _mm256_sub_pd(__m256d __a, __m256d __b) in _mm256_sub_pd() argument
107 return (__m256d)((__v4df)__a-(__v4df)__b); in _mm256_sub_pd()
123 _mm256_sub_ps(__m256 __a, __m256 __b) in _mm256_sub_ps() argument
125 return (__m256)((__v8sf)__a-(__v8sf)__b); in _mm256_sub_ps()
142 _mm256_addsub_pd(__m256d __a, __m256d __b) in _mm256_addsub_pd() argument
144 return (__m256d)__builtin_ia32_addsubpd256((__v4df)__a, (__v4df)__b); in _mm256_addsub_pd()
161 _mm256_addsub_ps(__m256 __a, __m256 __b) in _mm256_addsub_ps() argument
163 return (__m256)__builtin_ia32_addsubps256((__v8sf)__a, (__v8sf)__b); in _mm256_addsub_ps()
179 _mm256_div_pd(__m256d __a, __m256d __b) in _mm256_div_pd() argument
181 return (__m256d)((__v4df)__a/(__v4df)__b); in _mm256_div_pd()
197 _mm256_div_ps(__m256 __a, __m256 __b) in _mm256_div_ps() argument
199 return (__m256)((__v8sf)__a/(__v8sf)__b); in _mm256_div_ps()
216 _mm256_max_pd(__m256d __a, __m256d __b) in _mm256_max_pd() argument
218 return (__m256d)__builtin_ia32_maxpd256((__v4df)__a, (__v4df)__b); in _mm256_max_pd()
235 _mm256_max_ps(__m256 __a, __m256 __b) in _mm256_max_ps() argument
237 return (__m256)__builtin_ia32_maxps256((__v8sf)__a, (__v8sf)__b); in _mm256_max_ps()
254 _mm256_min_pd(__m256d __a, __m256d __b) in _mm256_min_pd() argument
256 return (__m256d)__builtin_ia32_minpd256((__v4df)__a, (__v4df)__b); in _mm256_min_pd()
273 _mm256_min_ps(__m256 __a, __m256 __b) in _mm256_min_ps() argument
275 return (__m256)__builtin_ia32_minps256((__v8sf)__a, (__v8sf)__b); in _mm256_min_ps()
291 _mm256_mul_pd(__m256d __a, __m256d __b) in _mm256_mul_pd() argument
293 return (__m256d)((__v4df)__a * (__v4df)__b); in _mm256_mul_pd()
309 _mm256_mul_ps(__m256 __a, __m256 __b) in _mm256_mul_ps() argument
311 return (__m256)((__v8sf)__a * (__v8sf)__b); in _mm256_mul_ps()
326 _mm256_sqrt_pd(__m256d __a) in _mm256_sqrt_pd() argument
328 return (__m256d)__builtin_ia32_sqrtpd256((__v4df)__a); in _mm256_sqrt_pd()
343 _mm256_sqrt_ps(__m256 __a) in _mm256_sqrt_ps() argument
345 return (__m256)__builtin_ia32_sqrtps256((__v8sf)__a); in _mm256_sqrt_ps()
360 _mm256_rsqrt_ps(__m256 __a) in _mm256_rsqrt_ps() argument
362 return (__m256)__builtin_ia32_rsqrtps256((__v8sf)__a); in _mm256_rsqrt_ps()
377 _mm256_rcp_ps(__m256 __a) in _mm256_rcp_ps() argument
379 return (__m256)__builtin_ia32_rcpps256((__v8sf)__a); in _mm256_rcp_ps()
529 _mm256_and_pd(__m256d __a, __m256d __b) in _mm256_and_pd() argument
531 return (__m256d)((__v4du)__a & (__v4du)__b); in _mm256_and_pd()
547 _mm256_and_ps(__m256 __a, __m256 __b) in _mm256_and_ps() argument
549 return (__m256)((__v8su)__a & (__v8su)__b); in _mm256_and_ps()
568 _mm256_andnot_pd(__m256d __a, __m256d __b) in _mm256_andnot_pd() argument
570 return (__m256d)(~(__v4du)__a & (__v4du)__b); in _mm256_andnot_pd()
589 _mm256_andnot_ps(__m256 __a, __m256 __b) in _mm256_andnot_ps() argument
591 return (__m256)(~(__v8su)__a & (__v8su)__b); in _mm256_andnot_ps()
607 _mm256_or_pd(__m256d __a, __m256d __b) in _mm256_or_pd() argument
609 return (__m256d)((__v4du)__a | (__v4du)__b); in _mm256_or_pd()
625 _mm256_or_ps(__m256 __a, __m256 __b) in _mm256_or_ps() argument
627 return (__m256)((__v8su)__a | (__v8su)__b); in _mm256_or_ps()
643 _mm256_xor_pd(__m256d __a, __m256d __b) in _mm256_xor_pd() argument
645 return (__m256d)((__v4du)__a ^ (__v4du)__b); in _mm256_xor_pd()
661 _mm256_xor_ps(__m256 __a, __m256 __b) in _mm256_xor_ps() argument
663 return (__m256)((__v8su)__a ^ (__v8su)__b); in _mm256_xor_ps()
685 _mm256_hadd_pd(__m256d __a, __m256d __b) in _mm256_hadd_pd() argument
687 return (__m256d)__builtin_ia32_haddpd256((__v4df)__a, (__v4df)__b); in _mm256_hadd_pd()
708 _mm256_hadd_ps(__m256 __a, __m256 __b) in _mm256_hadd_ps() argument
710 return (__m256)__builtin_ia32_haddps256((__v8sf)__a, (__v8sf)__b); in _mm256_hadd_ps()
731 _mm256_hsub_pd(__m256d __a, __m256d __b) in _mm256_hsub_pd() argument
733 return (__m256d)__builtin_ia32_hsubpd256((__v4df)__a, (__v4df)__b); in _mm256_hsub_pd()
754 _mm256_hsub_ps(__m256 __a, __m256 __b) in _mm256_hsub_ps() argument
756 return (__m256)__builtin_ia32_hsubps256((__v8sf)__a, (__v8sf)__b); in _mm256_hsub_ps()
784 _mm_permutevar_pd(__m128d __a, __m128i __c) in _mm_permutevar_pd() argument
786 return (__m128d)__builtin_ia32_vpermilvarpd((__v2df)__a, (__v2di)__c); in _mm_permutevar_pd()
823 _mm256_permutevar_pd(__m256d __a, __m256i __c) in _mm256_permutevar_pd() argument
825 return (__m256d)__builtin_ia32_vpermilvarpd256((__v4df)__a, (__v4di)__c); in _mm256_permutevar_pd()
878 _mm_permutevar_ps(__m128 __a, __m128i __c) in _mm_permutevar_ps() argument
880 return (__m128)__builtin_ia32_vpermilvarps((__v4sf)__a, (__v4si)__c); in _mm_permutevar_ps()
969 _mm256_permutevar_ps(__m256 __a, __m256i __c) in _mm256_permutevar_ps() argument
971 return (__m256)__builtin_ia32_vpermilvarps256((__v8sf)__a, (__v8si)__c); in _mm256_permutevar_ps()
1420 _mm256_blendv_pd(__m256d __a, __m256d __b, __m256d __c) in _mm256_blendv_pd() argument
1423 (__v4df)__a, (__v4df)__b, (__v4df)__c); in _mm256_blendv_pd()
1448 _mm256_blendv_ps(__m256 __a, __m256 __b, __m256 __c) in _mm256_blendv_ps() argument
1451 (__v8sf)__a, (__v8sf)__b, (__v8sf)__c); in _mm256_blendv_ps()
1868 _mm256_extract_epi32(__m256i __a, const int __imm) in _mm256_extract_epi32() argument
1870 __v8si __b = (__v8si)__a; in _mm256_extract_epi32()
1890 _mm256_extract_epi16(__m256i __a, const int __imm) in _mm256_extract_epi16() argument
1892 __v16hi __b = (__v16hi)__a; in _mm256_extract_epi16()
1912 _mm256_extract_epi8(__m256i __a, const int __imm) in _mm256_extract_epi8() argument
1914 __v32qi __b = (__v32qi)__a; in _mm256_extract_epi8()
1935 _mm256_extract_epi64(__m256i __a, const int __imm) in _mm256_extract_epi64() argument
1937 __v4di __b = (__v4di)__a; in _mm256_extract_epi64()
1961 _mm256_insert_epi32(__m256i __a, int __b, int const __imm) in _mm256_insert_epi32() argument
1963 __v8si __c = (__v8si)__a; in _mm256_insert_epi32()
1988 _mm256_insert_epi16(__m256i __a, int __b, int const __imm) in _mm256_insert_epi16() argument
1990 __v16hi __c = (__v16hi)__a; in _mm256_insert_epi16()
2014 _mm256_insert_epi8(__m256i __a, int __b, int const __imm) in _mm256_insert_epi8() argument
2016 __v32qi __c = (__v32qi)__a; in _mm256_insert_epi8()
2041 _mm256_insert_epi64(__m256i __a, long long __b, int const __imm) in _mm256_insert_epi64() argument
2043 __v4di __c = (__v4di)__a; in _mm256_insert_epi64()
2060 _mm256_cvtepi32_pd(__m128i __a) in _mm256_cvtepi32_pd() argument
2062 return (__m256d)__builtin_convertvector((__v4si)__a, __v4df); in _mm256_cvtepi32_pd()
2075 _mm256_cvtepi32_ps(__m256i __a) in _mm256_cvtepi32_ps() argument
2077 return (__m256)__builtin_ia32_cvtdq2ps256((__v8si) __a); in _mm256_cvtepi32_ps()
2091 _mm256_cvtpd_ps(__m256d __a) in _mm256_cvtpd_ps() argument
2093 return (__m128)__builtin_ia32_cvtpd2ps256((__v4df) __a); in _mm256_cvtpd_ps()
2106 _mm256_cvtps_epi32(__m256 __a) in _mm256_cvtps_epi32() argument
2108 return (__m256i)__builtin_ia32_cvtps2dq256((__v8sf) __a); in _mm256_cvtps_epi32()
2112 _mm256_cvtps_pd(__m128 __a) in _mm256_cvtps_pd() argument
2114 return (__m256d)__builtin_convertvector((__v4sf)__a, __v4df); in _mm256_cvtps_pd()
2118 _mm256_cvttpd_epi32(__m256d __a) in _mm256_cvttpd_epi32() argument
2120 return (__m128i)__builtin_convertvector((__v4df) __a, __v4si); in _mm256_cvttpd_epi32()
2124 _mm256_cvtpd_epi32(__m256d __a) in _mm256_cvtpd_epi32() argument
2126 return (__m128i)__builtin_ia32_cvtpd2dq256((__v4df) __a); in _mm256_cvtpd_epi32()
2130 _mm256_cvttps_epi32(__m256 __a) in _mm256_cvttps_epi32() argument
2132 return (__m256i)__builtin_convertvector((__v8sf) __a, __v8si); in _mm256_cvttps_epi32()
2136 _mm256_cvtsd_f64(__m256d __a) in _mm256_cvtsd_f64() argument
2138 return __a[0]; in _mm256_cvtsd_f64()
2142 _mm256_cvtsi256_si32(__m256i __a) in _mm256_cvtsi256_si32() argument
2144 __v8si __b = (__v8si)__a; in _mm256_cvtsi256_si32()
2149 _mm256_cvtss_f32(__m256 __a) in _mm256_cvtss_f32() argument
2151 return __a[0]; in _mm256_cvtss_f32()
2156 _mm256_movehdup_ps(__m256 __a) in _mm256_movehdup_ps() argument
2158 return __builtin_shufflevector((__v8sf)__a, (__v8sf)__a, 1, 1, 3, 3, 5, 5, 7, 7); in _mm256_movehdup_ps()
2162 _mm256_moveldup_ps(__m256 __a) in _mm256_moveldup_ps() argument
2164 return __builtin_shufflevector((__v8sf)__a, (__v8sf)__a, 0, 0, 2, 2, 4, 4, 6, 6); in _mm256_moveldup_ps()
2168 _mm256_movedup_pd(__m256d __a) in _mm256_movedup_pd() argument
2170 return __builtin_shufflevector((__v4df)__a, (__v4df)__a, 0, 0, 2, 2); in _mm256_movedup_pd()
2175 _mm256_unpackhi_pd(__m256d __a, __m256d __b) in _mm256_unpackhi_pd() argument
2177 return __builtin_shufflevector((__v4df)__a, (__v4df)__b, 1, 5, 1+2, 5+2); in _mm256_unpackhi_pd()
2181 _mm256_unpacklo_pd(__m256d __a, __m256d __b) in _mm256_unpacklo_pd() argument
2183 return __builtin_shufflevector((__v4df)__a, (__v4df)__b, 0, 4, 0+2, 4+2); in _mm256_unpacklo_pd()
2187 _mm256_unpackhi_ps(__m256 __a, __m256 __b) in _mm256_unpackhi_ps() argument
2189 return __builtin_shufflevector((__v8sf)__a, (__v8sf)__b, 2, 10, 2+1, 10+1, 6, 14, 6+1, 14+1); in _mm256_unpackhi_ps()
2193 _mm256_unpacklo_ps(__m256 __a, __m256 __b) in _mm256_unpacklo_ps() argument
2195 return __builtin_shufflevector((__v8sf)__a, (__v8sf)__b, 0, 8, 0+1, 8+1, 4, 12, 4+1, 12+1); in _mm256_unpacklo_ps()
2200 _mm_testz_pd(__m128d __a, __m128d __b) in _mm_testz_pd() argument
2202 return __builtin_ia32_vtestzpd((__v2df)__a, (__v2df)__b); in _mm_testz_pd()
2206 _mm_testc_pd(__m128d __a, __m128d __b) in _mm_testc_pd() argument
2208 return __builtin_ia32_vtestcpd((__v2df)__a, (__v2df)__b); in _mm_testc_pd()
2212 _mm_testnzc_pd(__m128d __a, __m128d __b) in _mm_testnzc_pd() argument
2214 return __builtin_ia32_vtestnzcpd((__v2df)__a, (__v2df)__b); in _mm_testnzc_pd()
2218 _mm_testz_ps(__m128 __a, __m128 __b) in _mm_testz_ps() argument
2220 return __builtin_ia32_vtestzps((__v4sf)__a, (__v4sf)__b); in _mm_testz_ps()
2224 _mm_testc_ps(__m128 __a, __m128 __b) in _mm_testc_ps() argument
2226 return __builtin_ia32_vtestcps((__v4sf)__a, (__v4sf)__b); in _mm_testc_ps()
2230 _mm_testnzc_ps(__m128 __a, __m128 __b) in _mm_testnzc_ps() argument
2232 return __builtin_ia32_vtestnzcps((__v4sf)__a, (__v4sf)__b); in _mm_testnzc_ps()
2236 _mm256_testz_pd(__m256d __a, __m256d __b) in _mm256_testz_pd() argument
2238 return __builtin_ia32_vtestzpd256((__v4df)__a, (__v4df)__b); in _mm256_testz_pd()
2242 _mm256_testc_pd(__m256d __a, __m256d __b) in _mm256_testc_pd() argument
2244 return __builtin_ia32_vtestcpd256((__v4df)__a, (__v4df)__b); in _mm256_testc_pd()
2248 _mm256_testnzc_pd(__m256d __a, __m256d __b) in _mm256_testnzc_pd() argument
2250 return __builtin_ia32_vtestnzcpd256((__v4df)__a, (__v4df)__b); in _mm256_testnzc_pd()
2254 _mm256_testz_ps(__m256 __a, __m256 __b) in _mm256_testz_ps() argument
2256 return __builtin_ia32_vtestzps256((__v8sf)__a, (__v8sf)__b); in _mm256_testz_ps()
2260 _mm256_testc_ps(__m256 __a, __m256 __b) in _mm256_testc_ps() argument
2262 return __builtin_ia32_vtestcps256((__v8sf)__a, (__v8sf)__b); in _mm256_testc_ps()
2266 _mm256_testnzc_ps(__m256 __a, __m256 __b) in _mm256_testnzc_ps() argument
2268 return __builtin_ia32_vtestnzcps256((__v8sf)__a, (__v8sf)__b); in _mm256_testnzc_ps()
2272 _mm256_testz_si256(__m256i __a, __m256i __b) in _mm256_testz_si256() argument
2274 return __builtin_ia32_ptestz256((__v4di)__a, (__v4di)__b); in _mm256_testz_si256()
2278 _mm256_testc_si256(__m256i __a, __m256i __b) in _mm256_testc_si256() argument
2280 return __builtin_ia32_ptestc256((__v4di)__a, (__v4di)__b); in _mm256_testc_si256()
2284 _mm256_testnzc_si256(__m256i __a, __m256i __b) in _mm256_testnzc_si256() argument
2286 return __builtin_ia32_ptestnzc256((__v4di)__a, (__v4di)__b); in _mm256_testnzc_si256()
2291 _mm256_movemask_pd(__m256d __a) in _mm256_movemask_pd() argument
2293 return __builtin_ia32_movmskpd256((__v4df)__a); in _mm256_movemask_pd()
2297 _mm256_movemask_ps(__m256 __a) in _mm256_movemask_ps() argument
2299 return __builtin_ia32_movmskps256((__v8sf)__a); in _mm256_movemask_ps()
2317 _mm_broadcast_ss(float const *__a) in _mm_broadcast_ss() argument
2319 float __f = *__a; in _mm_broadcast_ss()
2324 _mm256_broadcast_sd(double const *__a) in _mm256_broadcast_sd() argument
2326 double __d = *__a; in _mm256_broadcast_sd()
2331 _mm256_broadcast_ss(float const *__a) in _mm256_broadcast_ss() argument
2333 float __f = *__a; in _mm256_broadcast_ss()
2338 _mm256_broadcast_pd(__m128d const *__a) in _mm256_broadcast_pd() argument
2340 return (__m256d)__builtin_ia32_vbroadcastf128_pd256((__v2df const *)__a); in _mm256_broadcast_pd()
2344 _mm256_broadcast_ps(__m128 const *__a) in _mm256_broadcast_ps() argument
2346 return (__m256)__builtin_ia32_vbroadcastf128_ps256((__v4sf const *)__a); in _mm256_broadcast_ps()
2403 _mm256_store_pd(double *__p, __m256d __a) in _mm256_store_pd() argument
2405 *(__m256d *)__p = __a; in _mm256_store_pd()
2409 _mm256_store_ps(float *__p, __m256 __a) in _mm256_store_ps() argument
2411 *(__m256 *)__p = __a; in _mm256_store_ps()
2415 _mm256_storeu_pd(double *__p, __m256d __a) in _mm256_storeu_pd() argument
2420 ((struct __storeu_pd*)__p)->__v = __a; in _mm256_storeu_pd()
2424 _mm256_storeu_ps(float *__p, __m256 __a) in _mm256_storeu_ps() argument
2429 ((struct __storeu_ps*)__p)->__v = __a; in _mm256_storeu_ps()
2433 _mm256_store_si256(__m256i *__p, __m256i __a) in _mm256_store_si256() argument
2435 *__p = __a; in _mm256_store_si256()
2439 _mm256_storeu_si256(__m256i *__p, __m256i __a) in _mm256_storeu_si256() argument
2444 ((struct __storeu_si256*)__p)->__v = __a; in _mm256_storeu_si256()
2475 _mm256_maskstore_ps(float *__p, __m256i __m, __m256 __a) in _mm256_maskstore_ps() argument
2477 __builtin_ia32_maskstoreps256((__v8sf *)__p, (__v8si)__m, (__v8sf)__a); in _mm256_maskstore_ps()
2481 _mm_maskstore_pd(double *__p, __m128i __m, __m128d __a) in _mm_maskstore_pd() argument
2483 __builtin_ia32_maskstorepd((__v2df *)__p, (__v2di)__m, (__v2df)__a); in _mm_maskstore_pd()
2487 _mm256_maskstore_pd(double *__p, __m256i __m, __m256d __a) in _mm256_maskstore_pd() argument
2489 __builtin_ia32_maskstorepd256((__v4df *)__p, (__v4di)__m, (__v4df)__a); in _mm256_maskstore_pd()
2493 _mm_maskstore_ps(float *__p, __m128i __m, __m128 __a) in _mm_maskstore_ps() argument
2495 __builtin_ia32_maskstoreps((__v4sf *)__p, (__v4si)__m, (__v4sf)__a); in _mm_maskstore_ps()
2500 _mm256_stream_si256(__m256i *__a, __m256i __b) in _mm256_stream_si256() argument
2502 __builtin_nontemporal_store((__v4di)__b, (__v4di*)__a); in _mm256_stream_si256()
2506 _mm256_stream_pd(double *__a, __m256d __b) in _mm256_stream_pd() argument
2508 __builtin_nontemporal_store((__v4df)__b, (__v4df*)__a); in _mm256_stream_pd()
2512 _mm256_stream_ps(float *__p, __m256 __a) in _mm256_stream_ps() argument
2514 __builtin_nontemporal_store((__v8sf)__a, (__v8sf*)__p); in _mm256_stream_ps()
2537 _mm256_set_pd(double __a, double __b, double __c, double __d) in _mm256_set_pd() argument
2539 return (__m256d){ __d, __c, __b, __a }; in _mm256_set_pd()
2543 _mm256_set_ps(float __a, float __b, float __c, float __d, in _mm256_set_ps() argument
2546 return (__m256){ __h, __g, __f, __e, __d, __c, __b, __a }; in _mm256_set_ps()
2585 _mm256_set_epi64x(long long __a, long long __b, long long __c, long long __d) in _mm256_set_epi64x() argument
2587 return (__m256i)(__v4di){ __d, __c, __b, __a }; in _mm256_set_epi64x()
2592 _mm256_setr_pd(double __a, double __b, double __c, double __d) in _mm256_setr_pd() argument
2594 return (__m256d){ __a, __b, __c, __d }; in _mm256_setr_pd()
2598 _mm256_setr_ps(float __a, float __b, float __c, float __d, in _mm256_setr_ps() argument
2601 return (__m256){ __a, __b, __c, __d, __e, __f, __g, __h }; in _mm256_setr_ps()
2639 _mm256_setr_epi64x(long long __a, long long __b, long long __c, long long __d) in _mm256_setr_epi64x() argument
2641 return (__m256i)(__v4di){ __a, __b, __c, __d }; in _mm256_setr_epi64x()
2705 _mm256_castpd_ps(__m256d __a) in _mm256_castpd_ps() argument
2707 return (__m256)__a; in _mm256_castpd_ps()
2711 _mm256_castpd_si256(__m256d __a) in _mm256_castpd_si256() argument
2713 return (__m256i)__a; in _mm256_castpd_si256()
2717 _mm256_castps_pd(__m256 __a) in _mm256_castps_pd() argument
2719 return (__m256d)__a; in _mm256_castps_pd()
2723 _mm256_castps_si256(__m256 __a) in _mm256_castps_si256() argument
2725 return (__m256i)__a; in _mm256_castps_si256()
2729 _mm256_castsi256_ps(__m256i __a) in _mm256_castsi256_ps() argument
2731 return (__m256)__a; in _mm256_castsi256_ps()
2735 _mm256_castsi256_pd(__m256i __a) in _mm256_castsi256_pd() argument
2737 return (__m256d)__a; in _mm256_castsi256_pd()
2741 _mm256_castpd256_pd128(__m256d __a) in _mm256_castpd256_pd128() argument
2743 return __builtin_shufflevector((__v4df)__a, (__v4df)__a, 0, 1); in _mm256_castpd256_pd128()
2747 _mm256_castps256_ps128(__m256 __a) in _mm256_castps256_ps128() argument
2749 return __builtin_shufflevector((__v8sf)__a, (__v8sf)__a, 0, 1, 2, 3); in _mm256_castps256_ps128()
2753 _mm256_castsi256_si128(__m256i __a) in _mm256_castsi256_si128() argument
2755 return __builtin_shufflevector((__v4di)__a, (__v4di)__a, 0, 1); in _mm256_castsi256_si128()
2759 _mm256_castpd128_pd256(__m128d __a) in _mm256_castpd128_pd256() argument
2761 return __builtin_shufflevector((__v2df)__a, (__v2df)__a, 0, 1, -1, -1); in _mm256_castpd128_pd256()
2765 _mm256_castps128_ps256(__m128 __a) in _mm256_castps128_ps256() argument
2767 return __builtin_shufflevector((__v4sf)__a, (__v4sf)__a, 0, 1, 2, 3, -1, -1, -1, -1); in _mm256_castps128_ps256()
2771 _mm256_castsi128_si256(__m128i __a) in _mm256_castsi128_si256() argument
2773 return __builtin_shufflevector((__v2di)__a, (__v2di)__a, 0, 1, -1, -1); in _mm256_castsi128_si256()
2864 _mm256_storeu2_m128(float *__addr_hi, float *__addr_lo, __m256 __a) in _mm256_storeu2_m128() argument
2868 __v128 = _mm256_castps256_ps128(__a); in _mm256_storeu2_m128()
2870 __v128 = _mm256_extractf128_ps(__a, 1); in _mm256_storeu2_m128()
2875 _mm256_storeu2_m128d(double *__addr_hi, double *__addr_lo, __m256d __a) in _mm256_storeu2_m128d() argument
2879 __v128 = _mm256_castpd256_pd128(__a); in _mm256_storeu2_m128d()
2881 __v128 = _mm256_extractf128_pd(__a, 1); in _mm256_storeu2_m128d()
2886 _mm256_storeu2_m128i(__m128i *__addr_hi, __m128i *__addr_lo, __m256i __a) in _mm256_storeu2_m128i() argument
2890 __v128 = _mm256_castsi256_si128(__a); in _mm256_storeu2_m128i()
2892 __v128 = _mm256_extractf128_si256(__a, 1); in _mm256_storeu2_m128i()