/external/libvpx/libvpx/vpx_dsp/mips/ |
D | vpx_convolve_avg_msa.c | 85 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in avg_width16_msa() local 90 LD_UB8(dst, dst_stride, dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7); in avg_width16_msa() 94 AVER_UB4_UB(src4, dst4, src5, dst5, src6, dst6, src7, dst7, dst4, dst5, in avg_width16_msa() 96 ST_UB8(dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7, dst, dst_stride); in avg_width16_msa() 107 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in avg_width32_msa() local 115 LD_UB4(dst_dup + 16, dst_stride, dst1, dst3, dst5, dst7); in avg_width32_msa() 126 AVER_UB4_UB(src4, dst4, src5, dst5, src6, dst6, src7, dst7, dst4, dst5, in avg_width32_msa() 134 ST_UB4(dst1, dst3, dst5, dst7, dst + 16, dst_stride); in avg_width32_msa() 148 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in avg_width64_msa() local 163 LD_UB4(dst_dup, 16, dst4, dst5, dst6, dst7); in avg_width64_msa() [all …]
|
D | vpx_convolve8_avg_vert_msa.c | 470 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in common_vt_2t_and_aver_dst_32w_msa() local 488 LD_UB4(dst + 16, dst_stride, dst4, dst5, dst6, dst7); in common_vt_2t_and_aver_dst_32w_msa() 517 PCKEV_AVG_ST_UB(tmp3, tmp2, dst5, dst + 16 + dst_stride); in common_vt_2t_and_aver_dst_32w_msa() 542 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in common_vt_2t_and_aver_dst_64w_msa() local 560 LD_UB2(dst + 32, dst_stride, dst4, dst5); in common_vt_2t_and_aver_dst_64w_msa() 593 PCKEV_AVG_ST_UB(tmp3, tmp2, dst5, dst + 32 + dst_stride); in common_vt_2t_and_aver_dst_64w_msa()
|
D | idct16x16_msa.c | 332 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in vpx_iadst16_1d_columns_addblk_msa() local 418 dst5 = LD_UB(dst + 12 * dst_stride); in vpx_iadst16_1d_columns_addblk_msa() 419 ILVR_B2_SH(zero, dst4, zero, dst5, res4, res5); in vpx_iadst16_1d_columns_addblk_msa()
|
/external/libaom/libaom/av1/common/arm/ |
D | jnt_convolve_neon.c | 209 int32x4_t dst4, dst5, dst6, dst7; in compute_avg_8x4() local 250 dst5 = vsubq_s32(vreinterpretq_s32_u32(sum5), sub_const_vec); in compute_avg_8x4() 259 dst5 = vqrshlq_s32(dst5, round_bits_vec); in compute_avg_8x4() 268 tmp5 = vqmovn_s32(dst5); in compute_avg_8x4()
|
/external/v8/src/arm64/ |
D | macro-assembler-arm64.cc | 1091 const CPURegister& dst4, const CPURegister& dst5, in Pop() argument 1095 DCHECK(!AreAliased(dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7)); in Pop() 1096 DCHECK(AreSameSizeAndType(dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7)); in Pop() 1099 int count = 5 + dst5.IsValid() + dst6.IsValid() + dst7.IsValid(); in Pop() 1104 PopHelper(count - 4, size, dst4, dst5, dst6, dst7); in Pop()
|
D | macro-assembler-arm64.h | 753 const CPURegister& dst4, const CPURegister& dst5 = NoReg,
|