/external/clang/test/CodeGen/ |
D | avx2-builtins.c | 11 __m256i test_mm256_abs_epi8(__m256i a) { in test_mm256_abs_epi8() 17 __m256i test_mm256_abs_epi16(__m256i a) { in test_mm256_abs_epi16() 23 __m256i test_mm256_abs_epi32(__m256i a) { in test_mm256_abs_epi32() 29 __m256i test_mm256_add_epi8(__m256i a, __m256i b) { in test_mm256_add_epi8() 35 __m256i test_mm256_add_epi16(__m256i a, __m256i b) { in test_mm256_add_epi16() 41 __m256i test_mm256_add_epi32(__m256i a, __m256i b) { in test_mm256_add_epi32() 47 __m256i test_mm256_add_epi64(__m256i a, __m256i b) { in test_mm256_add_epi64() 53 __m256i test_mm256_adds_epi8(__m256i a, __m256i b) { in test_mm256_adds_epi8() 59 __m256i test_mm256_adds_epi16(__m256i a, __m256i b) { in test_mm256_adds_epi16() 65 __m256i test_mm256_adds_epu8(__m256i a, __m256i b) { in test_mm256_adds_epu8() [all …]
|
D | avx512vlbw-builtins.c | 9 __mmask32 test_mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi8_mask() 15 __mmask32 test_mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi8_mask() 35 __mmask16 test_mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi16_mask() 41 __mmask16 test_mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi16_mask() 61 __mmask32 test_mm256_cmpgt_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi8_mask() 67 __mmask32 test_mm256_mask_cmpgt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi8_mask() 87 __mmask16 test_mm256_cmpgt_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi16_mask() 93 __mmask16 test_mm256_mask_cmpgt_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi16_mask() 139 __mmask32 test_mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epu8_mask() 145 __mmask32 test_mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epu8_mask() [all …]
|
D | avx512vbmivl-builtin.c | 26 __m256i test_mm256_permutexvar_epi8(__m256i __A, __m256i __B) { in test_mm256_permutexvar_epi8() 32 __m256i test_mm256_maskz_permutexvar_epi8(__mmask32 __M, __m256i __A, __m256i __B) { in test_mm256_maskz_permutexvar_epi8() 38 __m256i test_mm256_mask_permutexvar_epi8(__m256i __W, __mmask32 __M, __m256i __A, __m256i __B) { in test_mm256_mask_permutexvar_epi8() 50 __m256i test_mm256_mask2_permutex2var_epi8(__m256i __A, __m256i __I, __mmask32 __U, __m256i __B) { in test_mm256_mask2_permutex2var_epi8() 74 __m256i test_mm256_permutex2var_epi8(__m256i __A, __m256i __I, __m256i __B) { in test_mm256_permutex2var_epi8() 80 __m256i test_mm256_mask_permutex2var_epi8(__m256i __A, __mmask32 __U, __m256i __I, __m256i __B) { in test_mm256_mask_permutex2var_epi8() 86 __m256i test_mm256_maskz_permutex2var_epi8(__mmask32 __U, __m256i __A, __m256i __I, __m256i __B) { in test_mm256_maskz_permutex2var_epi8() 110 __m256i test_mm256_mask_multishift_epi64_epi8(__m256i __W, __mmask32 __M, __m256i __X, __m256i __Y)… in test_mm256_mask_multishift_epi64_epi8() 116 __m256i test_mm256_maskz_multishift_epi64_epi8(__mmask32 __M, __m256i __X, __m256i __Y) { in test_mm256_maskz_multishift_epi64_epi8() 122 __m256i test_mm256_multishift_epi64_epi8(__m256i __X, __m256i __Y) { in test_mm256_multishift_epi64_epi8()
|
D | avx512vlcd-builtins.c | 14 __m256i test_mm256_broadcastmb_epi64(__mmask8 __A) { in test_mm256_broadcastmb_epi64() 26 __m256i test_mm256_broadcastmw_epi32(__mmask16 __A) { in test_mm256_broadcastmw_epi32() 50 __m256i test_mm256_conflict_epi64(__m256i __A) { in test_mm256_conflict_epi64() 56 __m256i test_mm256_mask_conflict_epi64(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi64() 62 __m256i test_mm256_maskz_conflict_epi64(__mmask8 __U, __m256i __A) { in test_mm256_maskz_conflict_epi64() 86 __m256i test_mm256_conflict_epi32(__m256i __A) { in test_mm256_conflict_epi32() 92 __m256i test_mm256_mask_conflict_epi32(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_conflict_epi32() 98 __m256i test_mm256_maskz_conflict_epi32(__mmask8 __U, __m256i __A) { in test_mm256_maskz_conflict_epi32() 124 __m256i test_mm256_lzcnt_epi32(__m256i __A) { in test_mm256_lzcnt_epi32() 130 __m256i test_mm256_mask_lzcnt_epi32(__m256i __W, __mmask8 __U, __m256i __A) { in test_mm256_mask_lzcnt_epi32() [all …]
|
D | avx512vl-builtins.c | 62 __mmask8 test_mm256_cmpge_epi32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epi32_mask() 68 __mmask8 test_mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epi32_mask() 75 __mmask8 test_mm256_cmpge_epi64_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epi64_mask() 81 __mmask8 test_mm256_mask_cmpge_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epi64_mask() 114 __mmask8 test_mm256_cmpge_epu32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epu32_mask() 120 __mmask8 test_mm256_mask_cmpge_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epu32_mask() 127 __mmask8 test_mm256_cmpge_epu64_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epu64_mask() 133 __mmask8 test_mm256_mask_cmpge_epu64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epu64_mask() 166 __mmask8 test_mm256_cmpgt_epu32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epu32_mask() 172 __mmask8 test_mm256_mask_cmpgt_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epu32_mask() [all …]
|
D | avx512ifmavl-builtins.c | 25 __m256i test_mm256_madd52hi_epu64(__m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_madd52hi_epu64() 31 __m256i test_mm256_mask_madd52hi_epu64(__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) { in test_mm256_mask_madd52hi_epu64() 37 __m256i test_mm256_maskz_madd52hi_epu64(__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_maskz_madd52hi_epu64() 61 __m256i test_mm256_madd52lo_epu64(__m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_madd52lo_epu64() 67 __m256i test_mm256_mask_madd52lo_epu64(__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) { in test_mm256_mask_madd52lo_epu64() 73 __m256i test_mm256_maskz_madd52lo_epu64(__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z) { in test_mm256_maskz_madd52lo_epu64()
|
D | avx512vldq-builtins.c | 8 __m256i test_mm256_mullo_epi64 (__m256i __A, __m256i __B) { in test_mm256_mullo_epi64() 14 __m256i test_mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_mullo_epi64() 17 return (__m256i) _mm256_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm256_mask_mullo_epi64() 20 __m256i test_mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_mullo_epi64() 23 return (__m256i) _mm256_maskz_mullo_epi64 (__U, __A, __B); in test_mm256_maskz_mullo_epi64() 254 __m256i test_mm256_cvtpd_epi64(__m256d __A) { in test_mm256_cvtpd_epi64() 260 __m256i test_mm256_mask_cvtpd_epi64(__m256i __W, __mmask8 __U, __m256d __A) { in test_mm256_mask_cvtpd_epi64() 266 __m256i test_mm256_maskz_cvtpd_epi64(__mmask8 __U, __m256d __A) { in test_mm256_maskz_cvtpd_epi64() 290 __m256i test_mm256_cvtpd_epu64(__m256d __A) { in test_mm256_cvtpd_epu64() 296 __m256i test_mm256_mask_cvtpd_epu64(__m256i __W, __mmask8 __U, __m256d __A) { in test_mm256_mask_cvtpd_epu64() [all …]
|
D | avx-builtins.c | 137 __m256i test_mm256_castpd_si256(__m256d A) { in test_mm256_castpd_si256() 161 __m256i test_mm256_castps_si256(__m256 A) { in test_mm256_castps_si256() 179 __m256i test_mm256_castsi128_si256(__m128i A) { in test_mm256_castsi128_si256() 185 __m256d test_mm256_castsi256_pd(__m256i A) { in test_mm256_castsi256_pd() 191 __m256 test_mm256_castsi256_ps(__m256i A) { in test_mm256_castsi256_ps() 197 __m128i test_mm256_castsi256_si128(__m256i A) { in test_mm256_castsi256_si128() 257 __m256 test_mm256_cvtepi32_ps(__m256i A) { in test_mm256_cvtepi32_ps() 275 __m256i test_mm256_cvtps_epi32(__m256 A) { in test_mm256_cvtps_epi32() 293 __m256i test_mm256_cvttps_epi32(__m256 A) { in test_mm256_cvttps_epi32() 317 int test_mm256_extract_epi8(__m256i A) { in test_mm256_extract_epi8() [all …]
|
D | avx-shuffle-builtins.c | 62 __m256i test_mm256_permute2f128_si256(__m256i a, __m256i b) { in test_mm256_permute2f128_si256() 116 __m256i test_mm256_insertf128_si256_0(__m256i a, __m128i b) { in test_mm256_insertf128_si256_0() 134 __m256i test_mm256_insertf128_si256_1(__m256i a, __m128i b) { in test_mm256_insertf128_si256_1() 154 __m128i test_mm256_extractf128_si256_0(__m256i a) { in test_mm256_extractf128_si256_0() 172 __m128i test_mm256_extractf128_si256_1(__m256i a) { in test_mm256_extractf128_si256_1() 190 __m256i test_mm256_set_m128i(__m128i hi, __m128i lo) { in test_mm256_set_m128i() 208 __m256i test_mm256_setr_m128i(__m128i hi, __m128i lo) { in test_mm256_setr_m128i()
|
/external/clang/lib/Headers/ |
D | avx2intrin.h | 36 (__m256i)__builtin_ia32_mpsadbw256((__v32qi)(__m256i)(X), \ 37 (__v32qi)(__m256i)(Y), (int)(M)) 39 static __inline__ __m256i __DEFAULT_FN_ATTRS 40 _mm256_abs_epi8(__m256i __a) in _mm256_abs_epi8() 42 return (__m256i)__builtin_ia32_pabsb256((__v32qi)__a); in _mm256_abs_epi8() 45 static __inline__ __m256i __DEFAULT_FN_ATTRS 46 _mm256_abs_epi16(__m256i __a) in _mm256_abs_epi16() 48 return (__m256i)__builtin_ia32_pabsw256((__v16hi)__a); in _mm256_abs_epi16() 51 static __inline__ __m256i __DEFAULT_FN_ATTRS 52 _mm256_abs_epi32(__m256i __a) in _mm256_abs_epi32() [all …]
|
D | avx512vlbwintrin.h | 66 _mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi8_mask() 72 _mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi8_mask() 78 _mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu8_mask() 84 _mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu8_mask() 114 _mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi16_mask() 120 _mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi16_mask() 126 _mm256_cmpeq_epu16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu16_mask() 132 _mm256_mask_cmpeq_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu16_mask() 162 _mm256_cmpge_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi8_mask() 168 _mm256_mask_cmpge_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi8_mask() [all …]
|
D | avx512vbmivlintrin.h | 47 static __inline__ __m256i __DEFAULT_FN_ATTRS 48 _mm256_mask2_permutex2var_epi8 (__m256i __A, __m256i __I, in _mm256_mask2_permutex2var_epi8() 49 __mmask32 __U, __m256i __B) in _mm256_mask2_permutex2var_epi8() 51 return (__m256i) __builtin_ia32_vpermi2varqi256_mask ((__v32qi) __A, in _mm256_mask2_permutex2var_epi8() 94 static __inline__ __m256i __DEFAULT_FN_ATTRS 95 _mm256_permutex2var_epi8 (__m256i __A, __m256i __I, __m256i __B) in _mm256_permutex2var_epi8() 97 return (__m256i) __builtin_ia32_vpermt2varqi256_mask ((__v32qi) __I in _mm256_permutex2var_epi8() 105 static __inline__ __m256i __DEFAULT_FN_ATTRS 106 _mm256_mask_permutex2var_epi8 (__m256i __A, __mmask32 __U, in _mm256_mask_permutex2var_epi8() 107 __m256i __I, __m256i __B) in _mm256_mask_permutex2var_epi8() [all …]
|
D | avx512vlcdintrin.h | 40 static __inline__ __m256i __DEFAULT_FN_ATTRS 43 return (__m256i) __builtin_ia32_broadcastmb256 (__A); in _mm256_broadcastmb_epi64() 52 static __inline__ __m256i __DEFAULT_FN_ATTRS 55 return (__m256i) __builtin_ia32_broadcastmw256 (__A); in _mm256_broadcastmw_epi32() 84 static __inline__ __m256i __DEFAULT_FN_ATTRS 85 _mm256_conflict_epi64 (__m256i __A) in _mm256_conflict_epi64() 87 return (__m256i) __builtin_ia32_vpconflictdi_256_mask ((__v4di) __A, in _mm256_conflict_epi64() 92 static __inline__ __m256i __DEFAULT_FN_ATTRS 93 _mm256_mask_conflict_epi64 (__m256i __W, __mmask8 __U, __m256i __A) in _mm256_mask_conflict_epi64() 95 return (__m256i) __builtin_ia32_vpconflictdi_256_mask ((__v4di) __A, in _mm256_mask_conflict_epi64() [all …]
|
D | avx512ifmavlintrin.h | 63 static __inline__ __m256i __DEFAULT_FN_ATTRS 64 _mm256_madd52hi_epu64 (__m256i __X, __m256i __Y, __m256i __Z) in _mm256_madd52hi_epu64() 66 return (__m256i) __builtin_ia32_vpmadd52huq256_mask ((__v4di) __X, in _mm256_madd52hi_epu64() 72 static __inline__ __m256i __DEFAULT_FN_ATTRS 73 _mm256_mask_madd52hi_epu64 (__m256i __W, __mmask8 __M, __m256i __X, in _mm256_mask_madd52hi_epu64() 74 __m256i __Y) in _mm256_mask_madd52hi_epu64() 76 return (__m256i) __builtin_ia32_vpmadd52huq256_mask ((__v4di) __W, in _mm256_mask_madd52hi_epu64() 82 static __inline__ __m256i __DEFAULT_FN_ATTRS 83 _mm256_maskz_madd52hi_epu64 (__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z) in _mm256_maskz_madd52hi_epu64() 85 return (__m256i) __builtin_ia32_vpmadd52huq256_maskz ((__v4di) __X, in _mm256_maskz_madd52hi_epu64() [all …]
|
D | avx512vlintrin.h | 66 _mm256_cmpeq_epi32_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi32_mask() 72 _mm256_mask_cmpeq_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi32_mask() 78 _mm256_cmpeq_epu32_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu32_mask() 84 _mm256_mask_cmpeq_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu32_mask() 114 _mm256_cmpeq_epi64_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi64_mask() 120 _mm256_mask_cmpeq_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi64_mask() 126 _mm256_cmpeq_epu64_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu64_mask() 132 _mm256_mask_cmpeq_epu64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu64_mask() 163 _mm256_cmpge_epi32_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi32_mask() 169 _mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi32_mask() [all …]
|
D | avx512vldqintrin.h | 34 static __inline__ __m256i __DEFAULT_FN_ATTRS 35 _mm256_mullo_epi64 (__m256i __A, __m256i __B) { in _mm256_mullo_epi64() 36 return (__m256i) ((__v4du) __A * (__v4du) __B); in _mm256_mullo_epi64() 39 static __inline__ __m256i __DEFAULT_FN_ATTRS 40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() 41 return (__m256i) __builtin_ia32_pmullq256_mask ((__v4di) __A, in _mm256_mask_mullo_epi64() 47 static __inline__ __m256i __DEFAULT_FN_ATTRS 48 _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() 49 return (__m256i) __builtin_ia32_pmullq256_mask ((__v4di) __A, in _mm256_maskz_mullo_epi64() 372 static __inline__ __m256i __DEFAULT_FN_ATTRS [all …]
|
D | avxintrin.h | 50 typedef long long __m256i __attribute__((__vector_size__(32))); typedef 823 _mm256_permutevar_pd(__m256d __a, __m256i __c) in _mm256_permutevar_pd() 969 _mm256_permutevar_ps(__m256 __a, __m256i __c) in _mm256_permutevar_ps() 1326 (__m256i)__builtin_ia32_vperm2f128_si256((__v8si)(__m256i)(V1), \ 1327 (__v8si)(__m256i)(V2), (M)); }) 1868 _mm256_extract_epi32(__m256i __a, const int __imm) in _mm256_extract_epi32() 1890 _mm256_extract_epi16(__m256i __a, const int __imm) in _mm256_extract_epi16() 1912 _mm256_extract_epi8(__m256i __a, const int __imm) in _mm256_extract_epi8() 1935 _mm256_extract_epi64(__m256i __a, const int __imm) in _mm256_extract_epi64() 1960 static __inline __m256i __DEFAULT_FN_ATTRS [all …]
|
/external/libvpx/libvpx/vpx_dsp/x86/ |
D | highbd_convolve_avx2.c | 33 const __m256i p0 = _mm256_loadu_si256((const __m256i *)src); in vpx_highbd_convolve_copy_avx2() 34 const __m256i p1 = _mm256_loadu_si256((const __m256i *)(src + 16)); in vpx_highbd_convolve_copy_avx2() 35 const __m256i p2 = _mm256_loadu_si256((const __m256i *)(src + 32)); in vpx_highbd_convolve_copy_avx2() 36 const __m256i p3 = _mm256_loadu_si256((const __m256i *)(src + 48)); in vpx_highbd_convolve_copy_avx2() 38 _mm256_storeu_si256((__m256i *)dst, p0); in vpx_highbd_convolve_copy_avx2() 39 _mm256_storeu_si256((__m256i *)(dst + 16), p1); in vpx_highbd_convolve_copy_avx2() 40 _mm256_storeu_si256((__m256i *)(dst + 32), p2); in vpx_highbd_convolve_copy_avx2() 41 _mm256_storeu_si256((__m256i *)(dst + 48), p3); in vpx_highbd_convolve_copy_avx2() 47 const __m256i p0 = _mm256_loadu_si256((const __m256i *)src); in vpx_highbd_convolve_copy_avx2() 48 const __m256i p1 = _mm256_loadu_si256((const __m256i *)(src + 16)); in vpx_highbd_convolve_copy_avx2() [all …]
|
D | fwd_dct32x32_impl_avx2.h | 27 static INLINE __m256i k_madd_epi32_avx2(__m256i a, __m256i b) { in k_madd_epi32_avx2() 28 __m256i buf0, buf1; in k_madd_epi32_avx2() 36 static INLINE __m256i k_packs_epi64_avx2(__m256i a, __m256i b) { in k_packs_epi64_avx2() 37 __m256i buf0 = _mm256_shuffle_epi32(a, _MM_SHUFFLE(0, 0, 2, 0)); in k_packs_epi64_avx2() 38 __m256i buf1 = _mm256_shuffle_epi32(b, _MM_SHUFFLE(0, 0, 2, 0)); in k_packs_epi64_avx2() 54 const __m256i k__cospi_p16_p16 = _mm256_set1_epi16((int16_t)cospi_16_64); in FDCT32x32_2D_AVX2() 55 const __m256i k__cospi_p16_m16 = in FDCT32x32_2D_AVX2() 57 const __m256i k__cospi_m08_p24 = pair256_set_epi16(-cospi_8_64, cospi_24_64); in FDCT32x32_2D_AVX2() 58 const __m256i k__cospi_m24_m08 = pair256_set_epi16(-cospi_24_64, -cospi_8_64); in FDCT32x32_2D_AVX2() 59 const __m256i k__cospi_p24_p08 = pair256_set_epi16(+cospi_24_64, cospi_8_64); in FDCT32x32_2D_AVX2() [all …]
|
D | sad_avx2.c | 18 __m256i sad1_reg, sad2_reg, ref1_reg, ref2_reg; \ 19 __m256i sum_sad = _mm256_setzero_si256(); \ 20 __m256i sum_sad_h; \ 23 ref1_reg = _mm256_loadu_si256((__m256i const *)ref_ptr); \ 24 ref2_reg = _mm256_loadu_si256((__m256i const *)(ref_ptr + 32)); \ 26 ref1_reg, _mm256_loadu_si256((__m256i const *)src_ptr)); \ 28 ref2_reg, _mm256_loadu_si256((__m256i const *)(src_ptr + 32))); \ 46 __m256i sad1_reg, sad2_reg, ref1_reg, ref2_reg; \ 47 __m256i sum_sad = _mm256_setzero_si256(); \ 48 __m256i sum_sad_h; \ [all …]
|
D | variance_impl_avx2.c | 40 __m256i src, src_expand_low, src_expand_high, ref, ref_expand_low; in vpx_get16x16var_avx2() 41 __m256i ref_expand_high, madd_low, madd_high; in vpx_get16x16var_avx2() 43 __m256i zero_reg = _mm256_set1_epi16(0); in vpx_get16x16var_avx2() 44 __m256i sum_ref_src = _mm256_set1_epi16(0); in vpx_get16x16var_avx2() 45 __m256i madd_ref_src = _mm256_set1_epi16(0); in vpx_get16x16var_avx2() 146 __m256i src, src_expand_low, src_expand_high, ref, ref_expand_low; in vpx_get32x32var_avx2() 147 __m256i ref_expand_high, madd_low, madd_high; in vpx_get32x32var_avx2() 149 __m256i zero_reg = _mm256_set1_epi16(0); in vpx_get32x32var_avx2() 150 __m256i sum_ref_src = _mm256_set1_epi16(0); in vpx_get32x32var_avx2() 151 __m256i madd_ref_src = _mm256_set1_epi16(0); in vpx_get32x32var_avx2() [all …]
|
D | sad4d_avx2.c | 17 __m256i src_reg, ref0_reg, ref1_reg, ref2_reg, ref3_reg; in vpx_sad32x32x4d_avx2() 18 __m256i sum_ref0, sum_ref1, sum_ref2, sum_ref3; in vpx_sad32x32x4d_avx2() 19 __m256i sum_mlow, sum_mhigh; in vpx_sad32x32x4d_avx2() 33 src_reg = _mm256_loadu_si256((const __m256i *)src); in vpx_sad32x32x4d_avx2() 34 ref0_reg = _mm256_loadu_si256((const __m256i *)ref0); in vpx_sad32x32x4d_avx2() 35 ref1_reg = _mm256_loadu_si256((const __m256i *)ref1); in vpx_sad32x32x4d_avx2() 36 ref2_reg = _mm256_loadu_si256((const __m256i *)ref2); in vpx_sad32x32x4d_avx2() 37 ref3_reg = _mm256_loadu_si256((const __m256i *)ref3); in vpx_sad32x32x4d_avx2() 85 __m256i src_reg, srcnext_reg, ref0_reg, ref0next_reg; in vpx_sad64x64x4d_avx2() 86 __m256i ref1_reg, ref1next_reg, ref2_reg, ref2next_reg; in vpx_sad64x64x4d_avx2() [all …]
|
D | bitdepth_conversion_avx2.h | 21 static INLINE __m256i load_tran_low(const tran_low_t *a) { in load_tran_low() 23 const __m256i a_low = _mm256_loadu_si256((const __m256i *)a); in load_tran_low() 24 return _mm256_packs_epi32(a_low, *(const __m256i *)(a + 8)); in load_tran_low() 26 return _mm256_loadu_si256((const __m256i *)a); in load_tran_low()
|
/external/eigen/Eigen/src/Core/arch/CUDA/ |
D | PacketMathHalf.h | 339 __m256i x; 389 result.x = _mm256_load_si256(reinterpret_cast<const __m256i*>(from)); 395 result.x = _mm256_loadu_si256(reinterpret_cast<const __m256i*>(from)); 400 _mm256_store_si256((__m256i*)to, from.x); 404 _mm256_storeu_si256((__m256i*)to, from.x); 533 __m256i a = kernel.packet[0].x; 534 __m256i b = kernel.packet[1].x; 535 __m256i c = kernel.packet[2].x; 536 __m256i d = kernel.packet[3].x; 537 __m256i e = kernel.packet[4].x; [all …]
|
/external/mesa3d/src/gallium/drivers/swr/rasterizer/common/ |
D | simdintrin.h | 37 typedef __m256i simdscalari; 102 __m256i func(__m256i a, __m256i b)\ 112 __m256i result = _mm256_castsi128_si256(subLo);\ 120 __m256 _simdemu_permute_ps(__m256 a, __m256i b) in _simdemu_permute_ps() 144 __m256i _simdemu_permute_epi32(__m256i a, __m256i b) in _simdemu_permute_epi32() 150 __m256i _simdemu_srlv_epi32(__m256i vA, __m256i vCount) in _simdemu_srlv_epi32() 198 __m256i ret = _mm256_set1_epi32(0); in _simdemu_srlv_epi32() 206 __m256i _simdemu_sllv_epi32(__m256i vA, __m256i vCount) in _simdemu_sllv_epi32() 254 __m256i ret = _mm256_set1_epi32(0); in _simdemu_sllv_epi32() 367 __m256 _simd_i32gather_ps(const float* pBase, __m256i vOffsets, const int scale) in _simd_i32gather_ps() [all …]
|