Home
last modified time | relevance | path

Searched refs:__m256i (Results 1 – 25 of 69) sorted by relevance

123

/external/clang/test/CodeGen/
Davx2-builtins.c11 __m256i test_mm256_abs_epi8(__m256i a) { in test_mm256_abs_epi8()
17 __m256i test_mm256_abs_epi16(__m256i a) { in test_mm256_abs_epi16()
23 __m256i test_mm256_abs_epi32(__m256i a) { in test_mm256_abs_epi32()
29 __m256i test_mm256_add_epi8(__m256i a, __m256i b) { in test_mm256_add_epi8()
35 __m256i test_mm256_add_epi16(__m256i a, __m256i b) { in test_mm256_add_epi16()
41 __m256i test_mm256_add_epi32(__m256i a, __m256i b) { in test_mm256_add_epi32()
47 __m256i test_mm256_add_epi64(__m256i a, __m256i b) { in test_mm256_add_epi64()
53 __m256i test_mm256_adds_epi8(__m256i a, __m256i b) { in test_mm256_adds_epi8()
59 __m256i test_mm256_adds_epi16(__m256i a, __m256i b) { in test_mm256_adds_epi16()
65 __m256i test_mm256_adds_epu8(__m256i a, __m256i b) { in test_mm256_adds_epu8()
[all …]
Davx512vlbw-builtins.c9 __mmask32 test_mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi8_mask()
15 __mmask32 test_mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi8_mask()
35 __mmask16 test_mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi16_mask()
41 __mmask16 test_mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi16_mask()
61 __mmask32 test_mm256_cmpgt_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi8_mask()
67 __mmask32 test_mm256_mask_cmpgt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi8_mask()
87 __mmask16 test_mm256_cmpgt_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi16_mask()
93 __mmask16 test_mm256_mask_cmpgt_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi16_mask()
139 __mmask32 test_mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epu8_mask()
145 __mmask32 test_mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epu8_mask()
[all …]
Davx512vbmivl-builtin.c26 __m256i test_mm256_permutexvar_epi8(__m256i __A, __m256i __B) { in test_mm256_permutexvar_epi8()
32 __m256i test_mm256_maskz_permutexvar_epi8(__mmask32 __M, __m256i __A, __m256i __B) { in test_mm256_maskz_permutexvar_epi8()
38 __m256i test_mm256_mask_permutexvar_epi8(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B) { in test_mm256_mask_permutexvar_epi8()
50 __m256i test_mm256_mask2_permutex2var_epi8(__m256i __A, __m256i __I, __mmask32 __U, __m256i __B) { in test_mm256_mask2_permutex2var_epi8()
74 __m256i test_mm256_permutex2var_epi8(__m256i __A, __m256i __I, __m256i __B) { in test_mm256_permutex2var_epi8()
80 __m256i test_mm256_mask_permutex2var_epi8(__m256i __A, __mmask32 __U, __m256i __I, __m256i __B) { in test_mm256_mask_permutex2var_epi8()
86 __m256i test_mm256_maskz_permutex2var_epi8(__mmask32 __U, __m256i __A, __m256i __I, __m256i __B) { in test_mm256_maskz_permutex2var_epi8()
110 __m256i test_mm256_mask_multishift_epi64_epi8(__m256i __W, __mmask32 __M, __m256i __X, __m256i __Y)… in test_mm256_mask_multishift_epi64_epi8()
116 __m256i test_mm256_maskz_multishift_epi64_epi8(__mmask32 __M, __m256i __X, __m256i __Y) { in test_mm256_maskz_multishift_epi64_epi8()
122 __m256i test_mm256_multishift_epi64_epi8(__m256i __X, __m256i __Y) { in test_mm256_multishift_epi64_epi8()
Davx512vl-builtins.c62 __mmask8 test_mm256_cmpge_epi32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epi32_mask()
68 __mmask8 test_mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epi32_mask()
75 __mmask8 test_mm256_cmpge_epi64_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epi64_mask()
81 __mmask8 test_mm256_mask_cmpge_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epi64_mask()
114 __mmask8 test_mm256_cmpge_epu32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epu32_mask()
120 __mmask8 test_mm256_mask_cmpge_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epu32_mask()
127 __mmask8 test_mm256_cmpge_epu64_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epu64_mask()
133 __mmask8 test_mm256_mask_cmpge_epu64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epu64_mask()
166 __mmask8 test_mm256_cmpgt_epu32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epu32_mask()
172 __mmask8 test_mm256_mask_cmpgt_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epu32_mask()
[all …]
Davx512vlcd-builtins.c14 __m256i test_mm256_broadcastmb_epi64(__mmask8 __A) { in test_mm256_broadcastmb_epi64()
26 __m256i test_mm256_broadcastmw_epi32(__mmask16 __A) { in test_mm256_broadcastmw_epi32()
50 __m256i test_mm256_conflict_epi64(__m256i __A) { in test_mm256_conflict_epi64()
56 __m256i test_mm256_mask_conflict_epi64(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi64()
62 __m256i test_mm256_maskz_conflict_epi64(__mmask8 __U, __m256i __A) { in test_mm256_maskz_conflict_epi64()
86 __m256i test_mm256_conflict_epi32(__m256i __A) { in test_mm256_conflict_epi32()
92 __m256i test_mm256_mask_conflict_epi32(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi32()
98 __m256i test_mm256_maskz_conflict_epi32(__mmask8 __U, __m256i __A) { in test_mm256_maskz_conflict_epi32()
124 __m256i test_mm256_lzcnt_epi32(__m256i __A) { in test_mm256_lzcnt_epi32()
130 __m256i test_mm256_mask_lzcnt_epi32(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_lzcnt_epi32()
[all …]
Davx512ifmavl-builtins.c25 __m256i test_mm256_madd52hi_epu64(__m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_madd52hi_epu64()
31 __m256i test_mm256_mask_madd52hi_epu64(__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) { in test_mm256_mask_madd52hi_epu64()
37 __m256i test_mm256_maskz_madd52hi_epu64(__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_maskz_madd52hi_epu64()
61 __m256i test_mm256_madd52lo_epu64(__m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_madd52lo_epu64()
67 __m256i test_mm256_mask_madd52lo_epu64(__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) { in test_mm256_mask_madd52lo_epu64()
73 __m256i test_mm256_maskz_madd52lo_epu64(__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_maskz_madd52lo_epu64()
Davx512vldq-builtins.c8 __m256i test_mm256_mullo_epi64 (__m256i __A, __m256i __B) { in test_mm256_mullo_epi64()
14 __m256i test_mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_mullo_epi64()
17 return (__m256i) _mm256_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm256_mask_mullo_epi64()
20 __m256i test_mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_mullo_epi64()
23 return (__m256i) _mm256_maskz_mullo_epi64 (__U, __A, __B); in test_mm256_maskz_mullo_epi64()
254 __m256i test_mm256_cvtpd_epi64(__m256d __A) { in test_mm256_cvtpd_epi64()
260 __m256i test_mm256_mask_cvtpd_epi64(__m256i __W, __mmask8 __U, __m256d __A) { in test_mm256_mask_cvtpd_epi64()
266 __m256i test_mm256_maskz_cvtpd_epi64(__mmask8 __U, __m256d __A) { in test_mm256_maskz_cvtpd_epi64()
290 __m256i test_mm256_cvtpd_epu64(__m256d __A) { in test_mm256_cvtpd_epu64()
296 __m256i test_mm256_mask_cvtpd_epu64(__m256i __W, __mmask8 __U, __m256d __A) { in test_mm256_mask_cvtpd_epu64()
[all …]
Davx-builtins.c137 __m256i test_mm256_castpd_si256(__m256d A) { in test_mm256_castpd_si256()
161 __m256i test_mm256_castps_si256(__m256 A) { in test_mm256_castps_si256()
179 __m256i test_mm256_castsi128_si256(__m128i A) { in test_mm256_castsi128_si256()
185 __m256d test_mm256_castsi256_pd(__m256i A) { in test_mm256_castsi256_pd()
191 __m256 test_mm256_castsi256_ps(__m256i A) { in test_mm256_castsi256_ps()
197 __m128i test_mm256_castsi256_si128(__m256i A) { in test_mm256_castsi256_si128()
257 __m256 test_mm256_cvtepi32_ps(__m256i A) { in test_mm256_cvtepi32_ps()
275 __m256i test_mm256_cvtps_epi32(__m256 A) { in test_mm256_cvtps_epi32()
293 __m256i test_mm256_cvttps_epi32(__m256 A) { in test_mm256_cvttps_epi32()
317 int test_mm256_extract_epi8(__m256i A) { in test_mm256_extract_epi8()
[all …]
/external/clang/lib/Headers/
Davx2intrin.h36 (__m256i)__builtin_ia32_mpsadbw256((__v32qi)(__m256i)(X), \
37 (__v32qi)(__m256i)(Y), (int)(M))
39 static __inline__ __m256i __DEFAULT_FN_ATTRS
40 _mm256_abs_epi8(__m256i __a) in _mm256_abs_epi8()
42 return (__m256i)__builtin_ia32_pabsb256((__v32qi)__a); in _mm256_abs_epi8()
45 static __inline__ __m256i __DEFAULT_FN_ATTRS
46 _mm256_abs_epi16(__m256i __a) in _mm256_abs_epi16()
48 return (__m256i)__builtin_ia32_pabsw256((__v16hi)__a); in _mm256_abs_epi16()
51 static __inline__ __m256i __DEFAULT_FN_ATTRS
52 _mm256_abs_epi32(__m256i __a) in _mm256_abs_epi32()
[all …]
Davx512vlbwintrin.h66 _mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi8_mask()
72 _mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi8_mask()
78 _mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu8_mask()
84 _mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu8_mask()
114 _mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi16_mask()
120 _mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi16_mask()
126 _mm256_cmpeq_epu16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu16_mask()
132 _mm256_mask_cmpeq_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu16_mask()
162 _mm256_cmpge_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi8_mask()
168 _mm256_mask_cmpge_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi8_mask()
[all …]
Davx512vbmivlintrin.h47 static __inline__ __m256i __DEFAULT_FN_ATTRS
48 _mm256_mask2_permutex2var_epi8 (__m256i __A, __m256i __I, in _mm256_mask2_permutex2var_epi8()
49 __mmask32 __U, __m256i __B) in _mm256_mask2_permutex2var_epi8()
51 return (__m256i) __builtin_ia32_vpermi2varqi256_mask ((__v32qi) __A, in _mm256_mask2_permutex2var_epi8()
94 static __inline__ __m256i __DEFAULT_FN_ATTRS
95 _mm256_permutex2var_epi8 (__m256i __A, __m256i __I, __m256i __B) in _mm256_permutex2var_epi8()
97 return (__m256i) __builtin_ia32_vpermt2varqi256_mask ((__v32qi) __I in _mm256_permutex2var_epi8()
105 static __inline__ __m256i __DEFAULT_FN_ATTRS
106 _mm256_mask_permutex2var_epi8 (__m256i __A, __mmask32 __U, in _mm256_mask_permutex2var_epi8()
107 __m256i __I, __m256i __B) in _mm256_mask_permutex2var_epi8()
[all …]
Davx512vlcdintrin.h40 static __inline__ __m256i __DEFAULT_FN_ATTRS
43 return (__m256i) __builtin_ia32_broadcastmb256 (__A); in _mm256_broadcastmb_epi64()
52 static __inline__ __m256i __DEFAULT_FN_ATTRS
55 return (__m256i) __builtin_ia32_broadcastmw256 (__A); in _mm256_broadcastmw_epi32()
84 static __inline__ __m256i __DEFAULT_FN_ATTRS
85 _mm256_conflict_epi64 (__m256i __A) in _mm256_conflict_epi64()
87 return (__m256i) __builtin_ia32_vpconflictdi_256_mask ((__v4di) __A, in _mm256_conflict_epi64()
92 static __inline__ __m256i __DEFAULT_FN_ATTRS
93 _mm256_mask_conflict_epi64 (__m256i __W, __mmask8 __U, __m256i __A) in _mm256_mask_conflict_epi64()
95 return (__m256i) __builtin_ia32_vpconflictdi_256_mask ((__v4di) __A, in _mm256_mask_conflict_epi64()
[all …]
Davx512ifmavlintrin.h63 static __inline__ __m256i __DEFAULT_FN_ATTRS
64 _mm256_madd52hi_epu64 (__m256i __X, __m256i __Y, __m256i __Z) in _mm256_madd52hi_epu64()
66 return (__m256i) __builtin_ia32_vpmadd52huq256_mask ((__v4di) __X, in _mm256_madd52hi_epu64()
72 static __inline__ __m256i __DEFAULT_FN_ATTRS
73 _mm256_mask_madd52hi_epu64 (__m256i __W, __mmask8 __M, __m256i __X, in _mm256_mask_madd52hi_epu64()
74 __m256i __Y) in _mm256_mask_madd52hi_epu64()
76 return (__m256i) __builtin_ia32_vpmadd52huq256_mask ((__v4di) __W, in _mm256_mask_madd52hi_epu64()
82 static __inline__ __m256i __DEFAULT_FN_ATTRS
83 _mm256_maskz_madd52hi_epu64 (__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z) in _mm256_maskz_madd52hi_epu64()
85 return (__m256i) __builtin_ia32_vpmadd52huq256_maskz ((__v4di) __X, in _mm256_maskz_madd52hi_epu64()
[all …]
Davx512vlintrin.h66 _mm256_cmpeq_epi32_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi32_mask()
72 _mm256_mask_cmpeq_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi32_mask()
78 _mm256_cmpeq_epu32_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu32_mask()
84 _mm256_mask_cmpeq_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu32_mask()
114 _mm256_cmpeq_epi64_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi64_mask()
120 _mm256_mask_cmpeq_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi64_mask()
126 _mm256_cmpeq_epu64_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu64_mask()
132 _mm256_mask_cmpeq_epu64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu64_mask()
163 _mm256_cmpge_epi32_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi32_mask()
169 _mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi32_mask()
[all …]
Davx512vldqintrin.h34 static __inline__ __m256i __DEFAULT_FN_ATTRS
35 _mm256_mullo_epi64 (__m256i __A, __m256i __B) { in _mm256_mullo_epi64()
36 return (__m256i) ((__v4du) __A * (__v4du) __B); in _mm256_mullo_epi64()
39 static __inline__ __m256i __DEFAULT_FN_ATTRS
40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64()
41 return (__m256i) __builtin_ia32_pmullq256_mask ((__v4di) __A, in _mm256_mask_mullo_epi64()
47 static __inline__ __m256i __DEFAULT_FN_ATTRS
48 _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64()
49 return (__m256i) __builtin_ia32_pmullq256_mask ((__v4di) __A, in _mm256_maskz_mullo_epi64()
372 static __inline__ __m256i __DEFAULT_FN_ATTRS
[all …]
Davxintrin.h50 typedef long long __m256i __attribute__((__vector_size__(32))); typedef
823 _mm256_permutevar_pd(__m256d __a, __m256i __c) in _mm256_permutevar_pd()
969 _mm256_permutevar_ps(__m256 __a, __m256i __c) in _mm256_permutevar_ps()
1326 (__m256i)__builtin_ia32_vperm2f128_si256((__v8si)(__m256i)(V1), \
1327 (__v8si)(__m256i)(V2), (M)); })
1868 _mm256_extract_epi32(__m256i __a, const int __imm) in _mm256_extract_epi32()
1890 _mm256_extract_epi16(__m256i __a, const int __imm) in _mm256_extract_epi16()
1912 _mm256_extract_epi8(__m256i __a, const int __imm) in _mm256_extract_epi8()
1935 _mm256_extract_epi64(__m256i __a, const int __imm) in _mm256_extract_epi64()
1960 static __inline __m256i __DEFAULT_FN_ATTRS
[all …]
/external/libvpx/libvpx/vpx_dsp/x86/
Dhighbd_convolve_avx2.c34 const __m256i p0 = _mm256_loadu_si256((const __m256i *)src); in vpx_highbd_convolve_copy_avx2()
35 const __m256i p1 = _mm256_loadu_si256((const __m256i *)(src + 16)); in vpx_highbd_convolve_copy_avx2()
36 const __m256i p2 = _mm256_loadu_si256((const __m256i *)(src + 32)); in vpx_highbd_convolve_copy_avx2()
37 const __m256i p3 = _mm256_loadu_si256((const __m256i *)(src + 48)); in vpx_highbd_convolve_copy_avx2()
39 _mm256_storeu_si256((__m256i *)dst, p0); in vpx_highbd_convolve_copy_avx2()
40 _mm256_storeu_si256((__m256i *)(dst + 16), p1); in vpx_highbd_convolve_copy_avx2()
41 _mm256_storeu_si256((__m256i *)(dst + 32), p2); in vpx_highbd_convolve_copy_avx2()
42 _mm256_storeu_si256((__m256i *)(dst + 48), p3); in vpx_highbd_convolve_copy_avx2()
48 const __m256i p0 = _mm256_loadu_si256((const __m256i *)src); in vpx_highbd_convolve_copy_avx2()
49 const __m256i p1 = _mm256_loadu_si256((const __m256i *)(src + 16)); in vpx_highbd_convolve_copy_avx2()
[all …]
Dvariance_avx2.c45 __m256i sum_reg = _mm256_setzero_si256(); in vpx_get16x16var_avx2()
46 __m256i sse_reg = _mm256_setzero_si256(); in vpx_get16x16var_avx2()
52 const __m256i src0 = in vpx_get16x16var_avx2()
54 const __m256i src1 = _mm256_cvtepu8_epi16( in vpx_get16x16var_avx2()
56 const __m256i ref0 = in vpx_get16x16var_avx2()
58 const __m256i ref1 = _mm256_cvtepu8_epi16( in vpx_get16x16var_avx2()
60 const __m256i diff0 = _mm256_sub_epi16(src0, ref0); in vpx_get16x16var_avx2()
61 const __m256i diff1 = _mm256_sub_epi16(src1, ref1); in vpx_get16x16var_avx2()
62 const __m256i madd0 = _mm256_madd_epi16(diff0, diff0); in vpx_get16x16var_avx2()
63 const __m256i madd1 = _mm256_madd_epi16(diff1, diff1); in vpx_get16x16var_avx2()
[all …]
Dfwd_dct32x32_impl_avx2.h27 static INLINE __m256i k_madd_epi32_avx2(__m256i a, __m256i b) { in k_madd_epi32_avx2()
28 __m256i buf0, buf1; in k_madd_epi32_avx2()
36 static INLINE __m256i k_packs_epi64_avx2(__m256i a, __m256i b) { in k_packs_epi64_avx2()
37 __m256i buf0 = _mm256_shuffle_epi32(a, _MM_SHUFFLE(0, 0, 2, 0)); in k_packs_epi64_avx2()
38 __m256i buf1 = _mm256_shuffle_epi32(b, _MM_SHUFFLE(0, 0, 2, 0)); in k_packs_epi64_avx2()
54 const __m256i k__cospi_p16_p16 = _mm256_set1_epi16(cospi_16_64); in FDCT32x32_2D_AVX2()
55 const __m256i k__cospi_p16_m16 = in FDCT32x32_2D_AVX2()
57 const __m256i k__cospi_m08_p24 = pair256_set_epi16(-cospi_8_64, cospi_24_64); in FDCT32x32_2D_AVX2()
58 const __m256i k__cospi_m24_m08 = pair256_set_epi16(-cospi_24_64, -cospi_8_64); in FDCT32x32_2D_AVX2()
59 const __m256i k__cospi_p24_p08 = pair256_set_epi16(+cospi_24_64, cospi_8_64); in FDCT32x32_2D_AVX2()
[all …]
Davg_intrin_avx2.c18 static void hadamard_col8x2_avx2(__m256i *in, int iter) { in hadamard_col8x2_avx2()
19 __m256i a0 = in[0]; in hadamard_col8x2_avx2()
20 __m256i a1 = in[1]; in hadamard_col8x2_avx2()
21 __m256i a2 = in[2]; in hadamard_col8x2_avx2()
22 __m256i a3 = in[3]; in hadamard_col8x2_avx2()
23 __m256i a4 = in[4]; in hadamard_col8x2_avx2()
24 __m256i a5 = in[5]; in hadamard_col8x2_avx2()
25 __m256i a6 = in[6]; in hadamard_col8x2_avx2()
26 __m256i a7 = in[7]; in hadamard_col8x2_avx2()
28 __m256i b0 = _mm256_add_epi16(a0, a1); in hadamard_col8x2_avx2()
[all …]
Dsad_avx2.c18 __m256i sad1_reg, sad2_reg, ref1_reg, ref2_reg; \
19 __m256i sum_sad = _mm256_setzero_si256(); \
20 __m256i sum_sad_h; \
23 ref1_reg = _mm256_loadu_si256((__m256i const *)ref_ptr); \
24 ref2_reg = _mm256_loadu_si256((__m256i const *)(ref_ptr + 32)); \
26 ref1_reg, _mm256_loadu_si256((__m256i const *)src_ptr)); \
28 ref2_reg, _mm256_loadu_si256((__m256i const *)(src_ptr + 32))); \
46 __m256i sad1_reg, sad2_reg, ref1_reg, ref2_reg; \
47 __m256i sum_sad = _mm256_setzero_si256(); \
48 __m256i sum_sad_h; \
[all …]
Dbitdepth_conversion_avx2.h21 static INLINE __m256i load_tran_low(const tran_low_t *a) { in load_tran_low()
23 const __m256i a_low = _mm256_loadu_si256((const __m256i *)a); in load_tran_low()
24 const __m256i a_high = _mm256_loadu_si256((const __m256i *)(a + 8)); in load_tran_low()
27 return _mm256_loadu_si256((const __m256i *)a); in load_tran_low()
31 static INLINE void store_tran_low(__m256i a, tran_low_t *b) { in store_tran_low()
33 const __m256i one = _mm256_set1_epi16(1); in store_tran_low()
34 const __m256i a_hi = _mm256_mulhi_epi16(a, one); in store_tran_low()
35 const __m256i a_lo = _mm256_mullo_epi16(a, one); in store_tran_low()
36 const __m256i a_1 = _mm256_unpacklo_epi16(a_lo, a_hi); in store_tran_low()
37 const __m256i a_2 = _mm256_unpackhi_epi16(a_lo, a_hi); in store_tran_low()
[all …]
Dsad4d_avx2.c17 __m256i src_reg, ref0_reg, ref1_reg, ref2_reg, ref3_reg; in vpx_sad32x32x4d_avx2()
18 __m256i sum_ref0, sum_ref1, sum_ref2, sum_ref3; in vpx_sad32x32x4d_avx2()
19 __m256i sum_mlow, sum_mhigh; in vpx_sad32x32x4d_avx2()
33 src_reg = _mm256_loadu_si256((const __m256i *)src); in vpx_sad32x32x4d_avx2()
34 ref0_reg = _mm256_loadu_si256((const __m256i *)ref0); in vpx_sad32x32x4d_avx2()
35 ref1_reg = _mm256_loadu_si256((const __m256i *)ref1); in vpx_sad32x32x4d_avx2()
36 ref2_reg = _mm256_loadu_si256((const __m256i *)ref2); in vpx_sad32x32x4d_avx2()
37 ref3_reg = _mm256_loadu_si256((const __m256i *)ref3); in vpx_sad32x32x4d_avx2()
85 __m256i src_reg, srcnext_reg, ref0_reg, ref0next_reg; in vpx_sad64x64x4d_avx2()
86 __m256i ref1_reg, ref1next_reg, ref2_reg, ref2next_reg; in vpx_sad64x64x4d_avx2()
[all …]
/external/flac/libFLAC/
Dlpc_intrin_avx2.c64 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; in FLAC__lpc_compute_residual_from_qlp_coefficients_16_intrin_avx2()
79 __m256i summ, mull; in FLAC__lpc_compute_residual_from_qlp_coefficients_16_intrin_avx2()
80 summ = _mm256_madd_epi16(q11, _mm256_loadu_si256((const __m256i*)(data+i-12))); in FLAC__lpc_compute_residual_from_qlp_coefficients_16_intrin_avx2()
81 …mull = _mm256_madd_epi16(q10, _mm256_loadu_si256((const __m256i*)(data+i-11))); summ = _mm256_add_… in FLAC__lpc_compute_residual_from_qlp_coefficients_16_intrin_avx2()
82 …mull = _mm256_madd_epi16(q9, _mm256_loadu_si256((const __m256i*)(data+i-10))); summ = _mm256_add_… in FLAC__lpc_compute_residual_from_qlp_coefficients_16_intrin_avx2()
83 …mull = _mm256_madd_epi16(q8, _mm256_loadu_si256((const __m256i*)(data+i-9 ))); summ = _mm256_add_… in FLAC__lpc_compute_residual_from_qlp_coefficients_16_intrin_avx2()
84 …mull = _mm256_madd_epi16(q7, _mm256_loadu_si256((const __m256i*)(data+i-8 ))); summ = _mm256_add_… in FLAC__lpc_compute_residual_from_qlp_coefficients_16_intrin_avx2()
85 …mull = _mm256_madd_epi16(q6, _mm256_loadu_si256((const __m256i*)(data+i-7 ))); summ = _mm256_add_… in FLAC__lpc_compute_residual_from_qlp_coefficients_16_intrin_avx2()
86 …mull = _mm256_madd_epi16(q5, _mm256_loadu_si256((const __m256i*)(data+i-6 ))); summ = _mm256_add_… in FLAC__lpc_compute_residual_from_qlp_coefficients_16_intrin_avx2()
87 …mull = _mm256_madd_epi16(q4, _mm256_loadu_si256((const __m256i*)(data+i-5 ))); summ = _mm256_add_… in FLAC__lpc_compute_residual_from_qlp_coefficients_16_intrin_avx2()
[all …]
/external/libvpx/libvpx/vp9/encoder/x86/
Dvp9_error_avx2.c21 __m256i sse_256, ssz_256; in vp9_block_error_avx2()
22 __m256i exp_dqcoeff_lo, exp_dqcoeff_hi, exp_coeff_lo, exp_coeff_hi; in vp9_block_error_avx2()
23 __m256i sse_hi, ssz_hi; in vp9_block_error_avx2()
26 const __m256i zero = _mm256_setzero_si256(); in vp9_block_error_avx2()
30 __m256i coeff_256, dqcoeff_256, coeff_hi, dqcoeff_hi; in vp9_block_error_avx2()
56 __m256i coeff_0, coeff_1, dqcoeff_0, dqcoeff_1; in vp9_block_error_avx2()
112 const __m256i zero = _mm256_setzero_si256(); in vp9_block_error_fp_avx2()
113 __m256i sse_256 = zero; in vp9_block_error_fp_avx2()
114 __m256i sse_hi; in vp9_block_error_fp_avx2()
120 const __m256i _coeff = load_tran_low(coeff); in vp9_block_error_fp_avx2()
[all …]

123