Home
last modified time | relevance | path

Searched refs:__m256i (Results 1 – 25 of 57) sorted by relevance

123

/external/clang/test/CodeGen/
Davx2-builtins.c11 __m256i test_mm256_abs_epi8(__m256i a) { in test_mm256_abs_epi8()
17 __m256i test_mm256_abs_epi16(__m256i a) { in test_mm256_abs_epi16()
23 __m256i test_mm256_abs_epi32(__m256i a) { in test_mm256_abs_epi32()
29 __m256i test_mm256_add_epi8(__m256i a, __m256i b) { in test_mm256_add_epi8()
35 __m256i test_mm256_add_epi16(__m256i a, __m256i b) { in test_mm256_add_epi16()
41 __m256i test_mm256_add_epi32(__m256i a, __m256i b) { in test_mm256_add_epi32()
47 __m256i test_mm256_add_epi64(__m256i a, __m256i b) { in test_mm256_add_epi64()
53 __m256i test_mm256_adds_epi8(__m256i a, __m256i b) { in test_mm256_adds_epi8()
59 __m256i test_mm256_adds_epi16(__m256i a, __m256i b) { in test_mm256_adds_epi16()
65 __m256i test_mm256_adds_epu8(__m256i a, __m256i b) { in test_mm256_adds_epu8()
[all …]
Davx512vlbw-builtins.c9 __mmask32 test_mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi8_mask()
15 __mmask32 test_mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi8_mask()
35 __mmask16 test_mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi16_mask()
41 __mmask16 test_mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi16_mask()
61 __mmask32 test_mm256_cmpgt_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi8_mask()
67 __mmask32 test_mm256_mask_cmpgt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi8_mask()
87 __mmask16 test_mm256_cmpgt_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi16_mask()
93 __mmask16 test_mm256_mask_cmpgt_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi16_mask()
139 __mmask32 test_mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epu8_mask()
145 __mmask32 test_mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epu8_mask()
[all …]
Davx512vbmivl-builtin.c26 __m256i test_mm256_permutexvar_epi8(__m256i __A, __m256i __B) { in test_mm256_permutexvar_epi8()
32 __m256i test_mm256_maskz_permutexvar_epi8(__mmask32 __M, __m256i __A, __m256i __B) { in test_mm256_maskz_permutexvar_epi8()
38 __m256i test_mm256_mask_permutexvar_epi8(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B) { in test_mm256_mask_permutexvar_epi8()
50 __m256i test_mm256_mask2_permutex2var_epi8(__m256i __A, __m256i __I, __mmask32 __U, __m256i __B) { in test_mm256_mask2_permutex2var_epi8()
74 __m256i test_mm256_permutex2var_epi8(__m256i __A, __m256i __I, __m256i __B) { in test_mm256_permutex2var_epi8()
80 __m256i test_mm256_mask_permutex2var_epi8(__m256i __A, __mmask32 __U, __m256i __I, __m256i __B) { in test_mm256_mask_permutex2var_epi8()
86 __m256i test_mm256_maskz_permutex2var_epi8(__mmask32 __U, __m256i __A, __m256i __I, __m256i __B) { in test_mm256_maskz_permutex2var_epi8()
110 __m256i test_mm256_mask_multishift_epi64_epi8(__m256i __W, __mmask32 __M, __m256i __X, __m256i __Y)… in test_mm256_mask_multishift_epi64_epi8()
116 __m256i test_mm256_maskz_multishift_epi64_epi8(__mmask32 __M, __m256i __X, __m256i __Y) { in test_mm256_maskz_multishift_epi64_epi8()
122 __m256i test_mm256_multishift_epi64_epi8(__m256i __X, __m256i __Y) { in test_mm256_multishift_epi64_epi8()
Davx512vlcd-builtins.c14 __m256i test_mm256_broadcastmb_epi64(__mmask8 __A) { in test_mm256_broadcastmb_epi64()
26 __m256i test_mm256_broadcastmw_epi32(__mmask16 __A) { in test_mm256_broadcastmw_epi32()
50 __m256i test_mm256_conflict_epi64(__m256i __A) { in test_mm256_conflict_epi64()
56 __m256i test_mm256_mask_conflict_epi64(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi64()
62 __m256i test_mm256_maskz_conflict_epi64(__mmask8 __U, __m256i __A) { in test_mm256_maskz_conflict_epi64()
86 __m256i test_mm256_conflict_epi32(__m256i __A) { in test_mm256_conflict_epi32()
92 __m256i test_mm256_mask_conflict_epi32(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi32()
98 __m256i test_mm256_maskz_conflict_epi32(__mmask8 __U, __m256i __A) { in test_mm256_maskz_conflict_epi32()
124 __m256i test_mm256_lzcnt_epi32(__m256i __A) { in test_mm256_lzcnt_epi32()
130 __m256i test_mm256_mask_lzcnt_epi32(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_lzcnt_epi32()
[all …]
Davx512vl-builtins.c62 __mmask8 test_mm256_cmpge_epi32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epi32_mask()
68 __mmask8 test_mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epi32_mask()
75 __mmask8 test_mm256_cmpge_epi64_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epi64_mask()
81 __mmask8 test_mm256_mask_cmpge_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epi64_mask()
114 __mmask8 test_mm256_cmpge_epu32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epu32_mask()
120 __mmask8 test_mm256_mask_cmpge_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epu32_mask()
127 __mmask8 test_mm256_cmpge_epu64_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epu64_mask()
133 __mmask8 test_mm256_mask_cmpge_epu64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epu64_mask()
166 __mmask8 test_mm256_cmpgt_epu32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epu32_mask()
172 __mmask8 test_mm256_mask_cmpgt_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epu32_mask()
[all …]
Davx512ifmavl-builtins.c25 __m256i test_mm256_madd52hi_epu64(__m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_madd52hi_epu64()
31 __m256i test_mm256_mask_madd52hi_epu64(__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) { in test_mm256_mask_madd52hi_epu64()
37 __m256i test_mm256_maskz_madd52hi_epu64(__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_maskz_madd52hi_epu64()
61 __m256i test_mm256_madd52lo_epu64(__m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_madd52lo_epu64()
67 __m256i test_mm256_mask_madd52lo_epu64(__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) { in test_mm256_mask_madd52lo_epu64()
73 __m256i test_mm256_maskz_madd52lo_epu64(__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_maskz_madd52lo_epu64()
Davx512vldq-builtins.c8 __m256i test_mm256_mullo_epi64 (__m256i __A, __m256i __B) { in test_mm256_mullo_epi64()
14 __m256i test_mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_mullo_epi64()
17 return (__m256i) _mm256_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm256_mask_mullo_epi64()
20 __m256i test_mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_mullo_epi64()
23 return (__m256i) _mm256_maskz_mullo_epi64 (__U, __A, __B); in test_mm256_maskz_mullo_epi64()
254 __m256i test_mm256_cvtpd_epi64(__m256d __A) { in test_mm256_cvtpd_epi64()
260 __m256i test_mm256_mask_cvtpd_epi64(__m256i __W, __mmask8 __U, __m256d __A) { in test_mm256_mask_cvtpd_epi64()
266 __m256i test_mm256_maskz_cvtpd_epi64(__mmask8 __U, __m256d __A) { in test_mm256_maskz_cvtpd_epi64()
290 __m256i test_mm256_cvtpd_epu64(__m256d __A) { in test_mm256_cvtpd_epu64()
296 __m256i test_mm256_mask_cvtpd_epu64(__m256i __W, __mmask8 __U, __m256d __A) { in test_mm256_mask_cvtpd_epu64()
[all …]
Davx-builtins.c137 __m256i test_mm256_castpd_si256(__m256d A) { in test_mm256_castpd_si256()
161 __m256i test_mm256_castps_si256(__m256 A) { in test_mm256_castps_si256()
179 __m256i test_mm256_castsi128_si256(__m128i A) { in test_mm256_castsi128_si256()
185 __m256d test_mm256_castsi256_pd(__m256i A) { in test_mm256_castsi256_pd()
191 __m256 test_mm256_castsi256_ps(__m256i A) { in test_mm256_castsi256_ps()
197 __m128i test_mm256_castsi256_si128(__m256i A) { in test_mm256_castsi256_si128()
257 __m256 test_mm256_cvtepi32_ps(__m256i A) { in test_mm256_cvtepi32_ps()
275 __m256i test_mm256_cvtps_epi32(__m256 A) { in test_mm256_cvtps_epi32()
293 __m256i test_mm256_cvttps_epi32(__m256 A) { in test_mm256_cvttps_epi32()
317 int test_mm256_extract_epi8(__m256i A) { in test_mm256_extract_epi8()
[all …]
Davx-shuffle-builtins.c62 __m256i test_mm256_permute2f128_si256(__m256i a, __m256i b) { in test_mm256_permute2f128_si256()
116 __m256i test_mm256_insertf128_si256_0(__m256i a, __m128i b) { in test_mm256_insertf128_si256_0()
134 __m256i test_mm256_insertf128_si256_1(__m256i a, __m128i b) { in test_mm256_insertf128_si256_1()
154 __m128i test_mm256_extractf128_si256_0(__m256i a) { in test_mm256_extractf128_si256_0()
172 __m128i test_mm256_extractf128_si256_1(__m256i a) { in test_mm256_extractf128_si256_1()
190 __m256i test_mm256_set_m128i(__m128i hi, __m128i lo) { in test_mm256_set_m128i()
208 __m256i test_mm256_setr_m128i(__m128i hi, __m128i lo) { in test_mm256_setr_m128i()
/external/clang/lib/Headers/
Davx2intrin.h36 (__m256i)__builtin_ia32_mpsadbw256((__v32qi)(__m256i)(X), \
37 (__v32qi)(__m256i)(Y), (int)(M))
39 static __inline__ __m256i __DEFAULT_FN_ATTRS
40 _mm256_abs_epi8(__m256i __a) in _mm256_abs_epi8()
42 return (__m256i)__builtin_ia32_pabsb256((__v32qi)__a); in _mm256_abs_epi8()
45 static __inline__ __m256i __DEFAULT_FN_ATTRS
46 _mm256_abs_epi16(__m256i __a) in _mm256_abs_epi16()
48 return (__m256i)__builtin_ia32_pabsw256((__v16hi)__a); in _mm256_abs_epi16()
51 static __inline__ __m256i __DEFAULT_FN_ATTRS
52 _mm256_abs_epi32(__m256i __a) in _mm256_abs_epi32()
[all …]
Davx512vlbwintrin.h66 _mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi8_mask()
72 _mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi8_mask()
78 _mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu8_mask()
84 _mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu8_mask()
114 _mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi16_mask()
120 _mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi16_mask()
126 _mm256_cmpeq_epu16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu16_mask()
132 _mm256_mask_cmpeq_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu16_mask()
162 _mm256_cmpge_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi8_mask()
168 _mm256_mask_cmpge_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi8_mask()
[all …]
Davx512vbmivlintrin.h47 static __inline__ __m256i __DEFAULT_FN_ATTRS
48 _mm256_mask2_permutex2var_epi8 (__m256i __A, __m256i __I, in _mm256_mask2_permutex2var_epi8()
49 __mmask32 __U, __m256i __B) in _mm256_mask2_permutex2var_epi8()
51 return (__m256i) __builtin_ia32_vpermi2varqi256_mask ((__v32qi) __A, in _mm256_mask2_permutex2var_epi8()
94 static __inline__ __m256i __DEFAULT_FN_ATTRS
95 _mm256_permutex2var_epi8 (__m256i __A, __m256i __I, __m256i __B) in _mm256_permutex2var_epi8()
97 return (__m256i) __builtin_ia32_vpermt2varqi256_mask ((__v32qi) __I in _mm256_permutex2var_epi8()
105 static __inline__ __m256i __DEFAULT_FN_ATTRS
106 _mm256_mask_permutex2var_epi8 (__m256i __A, __mmask32 __U, in _mm256_mask_permutex2var_epi8()
107 __m256i __I, __m256i __B) in _mm256_mask_permutex2var_epi8()
[all …]
Davx512vlcdintrin.h40 static __inline__ __m256i __DEFAULT_FN_ATTRS
43 return (__m256i) __builtin_ia32_broadcastmb256 (__A); in _mm256_broadcastmb_epi64()
52 static __inline__ __m256i __DEFAULT_FN_ATTRS
55 return (__m256i) __builtin_ia32_broadcastmw256 (__A); in _mm256_broadcastmw_epi32()
84 static __inline__ __m256i __DEFAULT_FN_ATTRS
85 _mm256_conflict_epi64 (__m256i __A) in _mm256_conflict_epi64()
87 return (__m256i) __builtin_ia32_vpconflictdi_256_mask ((__v4di) __A, in _mm256_conflict_epi64()
92 static __inline__ __m256i __DEFAULT_FN_ATTRS
93 _mm256_mask_conflict_epi64 (__m256i __W, __mmask8 __U, __m256i __A) in _mm256_mask_conflict_epi64()
95 return (__m256i) __builtin_ia32_vpconflictdi_256_mask ((__v4di) __A, in _mm256_mask_conflict_epi64()
[all …]
Davx512ifmavlintrin.h63 static __inline__ __m256i __DEFAULT_FN_ATTRS
64 _mm256_madd52hi_epu64 (__m256i __X, __m256i __Y, __m256i __Z) in _mm256_madd52hi_epu64()
66 return (__m256i) __builtin_ia32_vpmadd52huq256_mask ((__v4di) __X, in _mm256_madd52hi_epu64()
72 static __inline__ __m256i __DEFAULT_FN_ATTRS
73 _mm256_mask_madd52hi_epu64 (__m256i __W, __mmask8 __M, __m256i __X, in _mm256_mask_madd52hi_epu64()
74 __m256i __Y) in _mm256_mask_madd52hi_epu64()
76 return (__m256i) __builtin_ia32_vpmadd52huq256_mask ((__v4di) __W, in _mm256_mask_madd52hi_epu64()
82 static __inline__ __m256i __DEFAULT_FN_ATTRS
83 _mm256_maskz_madd52hi_epu64 (__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z) in _mm256_maskz_madd52hi_epu64()
85 return (__m256i) __builtin_ia32_vpmadd52huq256_maskz ((__v4di) __X, in _mm256_maskz_madd52hi_epu64()
[all …]
Davx512vlintrin.h66 _mm256_cmpeq_epi32_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi32_mask()
72 _mm256_mask_cmpeq_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi32_mask()
78 _mm256_cmpeq_epu32_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu32_mask()
84 _mm256_mask_cmpeq_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu32_mask()
114 _mm256_cmpeq_epi64_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi64_mask()
120 _mm256_mask_cmpeq_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi64_mask()
126 _mm256_cmpeq_epu64_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu64_mask()
132 _mm256_mask_cmpeq_epu64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu64_mask()
163 _mm256_cmpge_epi32_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi32_mask()
169 _mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi32_mask()
[all …]
Davx512vldqintrin.h34 static __inline__ __m256i __DEFAULT_FN_ATTRS
35 _mm256_mullo_epi64 (__m256i __A, __m256i __B) { in _mm256_mullo_epi64()
36 return (__m256i) ((__v4du) __A * (__v4du) __B); in _mm256_mullo_epi64()
39 static __inline__ __m256i __DEFAULT_FN_ATTRS
40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64()
41 return (__m256i) __builtin_ia32_pmullq256_mask ((__v4di) __A, in _mm256_mask_mullo_epi64()
47 static __inline__ __m256i __DEFAULT_FN_ATTRS
48 _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64()
49 return (__m256i) __builtin_ia32_pmullq256_mask ((__v4di) __A, in _mm256_maskz_mullo_epi64()
372 static __inline__ __m256i __DEFAULT_FN_ATTRS
[all …]
Davxintrin.h50 typedef long long __m256i __attribute__((__vector_size__(32))); typedef
823 _mm256_permutevar_pd(__m256d __a, __m256i __c) in _mm256_permutevar_pd()
969 _mm256_permutevar_ps(__m256 __a, __m256i __c) in _mm256_permutevar_ps()
1326 (__m256i)__builtin_ia32_vperm2f128_si256((__v8si)(__m256i)(V1), \
1327 (__v8si)(__m256i)(V2), (M)); })
1868 _mm256_extract_epi32(__m256i __a, const int __imm) in _mm256_extract_epi32()
1890 _mm256_extract_epi16(__m256i __a, const int __imm) in _mm256_extract_epi16()
1912 _mm256_extract_epi8(__m256i __a, const int __imm) in _mm256_extract_epi8()
1935 _mm256_extract_epi64(__m256i __a, const int __imm) in _mm256_extract_epi64()
1960 static __inline __m256i __DEFAULT_FN_ATTRS
[all …]
/external/libvpx/libvpx/vpx_dsp/x86/
Dhighbd_convolve_avx2.c33 const __m256i p0 = _mm256_loadu_si256((const __m256i *)src); in vpx_highbd_convolve_copy_avx2()
34 const __m256i p1 = _mm256_loadu_si256((const __m256i *)(src + 16)); in vpx_highbd_convolve_copy_avx2()
35 const __m256i p2 = _mm256_loadu_si256((const __m256i *)(src + 32)); in vpx_highbd_convolve_copy_avx2()
36 const __m256i p3 = _mm256_loadu_si256((const __m256i *)(src + 48)); in vpx_highbd_convolve_copy_avx2()
38 _mm256_storeu_si256((__m256i *)dst, p0); in vpx_highbd_convolve_copy_avx2()
39 _mm256_storeu_si256((__m256i *)(dst + 16), p1); in vpx_highbd_convolve_copy_avx2()
40 _mm256_storeu_si256((__m256i *)(dst + 32), p2); in vpx_highbd_convolve_copy_avx2()
41 _mm256_storeu_si256((__m256i *)(dst + 48), p3); in vpx_highbd_convolve_copy_avx2()
47 const __m256i p0 = _mm256_loadu_si256((const __m256i *)src); in vpx_highbd_convolve_copy_avx2()
48 const __m256i p1 = _mm256_loadu_si256((const __m256i *)(src + 16)); in vpx_highbd_convolve_copy_avx2()
[all …]
Dfwd_dct32x32_impl_avx2.h27 static INLINE __m256i k_madd_epi32_avx2(__m256i a, __m256i b) { in k_madd_epi32_avx2()
28 __m256i buf0, buf1; in k_madd_epi32_avx2()
36 static INLINE __m256i k_packs_epi64_avx2(__m256i a, __m256i b) { in k_packs_epi64_avx2()
37 __m256i buf0 = _mm256_shuffle_epi32(a, _MM_SHUFFLE(0, 0, 2, 0)); in k_packs_epi64_avx2()
38 __m256i buf1 = _mm256_shuffle_epi32(b, _MM_SHUFFLE(0, 0, 2, 0)); in k_packs_epi64_avx2()
54 const __m256i k__cospi_p16_p16 = _mm256_set1_epi16((int16_t)cospi_16_64); in FDCT32x32_2D_AVX2()
55 const __m256i k__cospi_p16_m16 = in FDCT32x32_2D_AVX2()
57 const __m256i k__cospi_m08_p24 = pair256_set_epi16(-cospi_8_64, cospi_24_64); in FDCT32x32_2D_AVX2()
58 const __m256i k__cospi_m24_m08 = pair256_set_epi16(-cospi_24_64, -cospi_8_64); in FDCT32x32_2D_AVX2()
59 const __m256i k__cospi_p24_p08 = pair256_set_epi16(+cospi_24_64, cospi_8_64); in FDCT32x32_2D_AVX2()
[all …]
Dsad_avx2.c18 __m256i sad1_reg, sad2_reg, ref1_reg, ref2_reg; \
19 __m256i sum_sad = _mm256_setzero_si256(); \
20 __m256i sum_sad_h; \
23 ref1_reg = _mm256_loadu_si256((__m256i const *)ref_ptr); \
24 ref2_reg = _mm256_loadu_si256((__m256i const *)(ref_ptr + 32)); \
26 ref1_reg, _mm256_loadu_si256((__m256i const *)src_ptr)); \
28 ref2_reg, _mm256_loadu_si256((__m256i const *)(src_ptr + 32))); \
46 __m256i sad1_reg, sad2_reg, ref1_reg, ref2_reg; \
47 __m256i sum_sad = _mm256_setzero_si256(); \
48 __m256i sum_sad_h; \
[all …]
Dvariance_impl_avx2.c40 __m256i src, src_expand_low, src_expand_high, ref, ref_expand_low; in vpx_get16x16var_avx2()
41 __m256i ref_expand_high, madd_low, madd_high; in vpx_get16x16var_avx2()
43 __m256i zero_reg = _mm256_set1_epi16(0); in vpx_get16x16var_avx2()
44 __m256i sum_ref_src = _mm256_set1_epi16(0); in vpx_get16x16var_avx2()
45 __m256i madd_ref_src = _mm256_set1_epi16(0); in vpx_get16x16var_avx2()
146 __m256i src, src_expand_low, src_expand_high, ref, ref_expand_low; in vpx_get32x32var_avx2()
147 __m256i ref_expand_high, madd_low, madd_high; in vpx_get32x32var_avx2()
149 __m256i zero_reg = _mm256_set1_epi16(0); in vpx_get32x32var_avx2()
150 __m256i sum_ref_src = _mm256_set1_epi16(0); in vpx_get32x32var_avx2()
151 __m256i madd_ref_src = _mm256_set1_epi16(0); in vpx_get32x32var_avx2()
[all …]
Dsad4d_avx2.c17 __m256i src_reg, ref0_reg, ref1_reg, ref2_reg, ref3_reg; in vpx_sad32x32x4d_avx2()
18 __m256i sum_ref0, sum_ref1, sum_ref2, sum_ref3; in vpx_sad32x32x4d_avx2()
19 __m256i sum_mlow, sum_mhigh; in vpx_sad32x32x4d_avx2()
33 src_reg = _mm256_loadu_si256((const __m256i *)src); in vpx_sad32x32x4d_avx2()
34 ref0_reg = _mm256_loadu_si256((const __m256i *)ref0); in vpx_sad32x32x4d_avx2()
35 ref1_reg = _mm256_loadu_si256((const __m256i *)ref1); in vpx_sad32x32x4d_avx2()
36 ref2_reg = _mm256_loadu_si256((const __m256i *)ref2); in vpx_sad32x32x4d_avx2()
37 ref3_reg = _mm256_loadu_si256((const __m256i *)ref3); in vpx_sad32x32x4d_avx2()
85 __m256i src_reg, srcnext_reg, ref0_reg, ref0next_reg; in vpx_sad64x64x4d_avx2()
86 __m256i ref1_reg, ref1next_reg, ref2_reg, ref2next_reg; in vpx_sad64x64x4d_avx2()
[all …]
Dbitdepth_conversion_avx2.h21 static INLINE __m256i load_tran_low(const tran_low_t *a) { in load_tran_low()
23 const __m256i a_low = _mm256_loadu_si256((const __m256i *)a); in load_tran_low()
24 return _mm256_packs_epi32(a_low, *(const __m256i *)(a + 8)); in load_tran_low()
26 return _mm256_loadu_si256((const __m256i *)a); in load_tran_low()
/external/eigen/Eigen/src/Core/arch/CUDA/
DPacketMathHalf.h339 __m256i x;
389 result.x = _mm256_load_si256(reinterpret_cast<const __m256i*>(from));
395 result.x = _mm256_loadu_si256(reinterpret_cast<const __m256i*>(from));
400 _mm256_store_si256((__m256i*)to, from.x);
404 _mm256_storeu_si256((__m256i*)to, from.x);
533 __m256i a = kernel.packet[0].x;
534 __m256i b = kernel.packet[1].x;
535 __m256i c = kernel.packet[2].x;
536 __m256i d = kernel.packet[3].x;
537 __m256i e = kernel.packet[4].x;
[all …]
/external/mesa3d/src/gallium/drivers/swr/rasterizer/common/
Dsimdintrin.h37 typedef __m256i simdscalari;
102 __m256i func(__m256i a, __m256i b)\
112 __m256i result = _mm256_castsi128_si256(subLo);\
120 __m256 _simdemu_permute_ps(__m256 a, __m256i b) in _simdemu_permute_ps()
144 __m256i _simdemu_permute_epi32(__m256i a, __m256i b) in _simdemu_permute_epi32()
150 __m256i _simdemu_srlv_epi32(__m256i vA, __m256i vCount) in _simdemu_srlv_epi32()
198 __m256i ret = _mm256_set1_epi32(0); in _simdemu_srlv_epi32()
206 __m256i _simdemu_sllv_epi32(__m256i vA, __m256i vCount) in _simdemu_sllv_epi32()
254 __m256i ret = _mm256_set1_epi32(0); in _simdemu_sllv_epi32()
367 __m256 _simd_i32gather_ps(const float* pBase, __m256i vOffsets, const int scale) in _simd_i32gather_ps()
[all …]

123