Home
last modified time | relevance | path

Searched refs:dst5 (Results 1 – 6 of 6) sorted by relevance

/external/libvpx/libvpx/vpx_dsp/mips/
Dvpx_convolve_avg_msa.c85 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in avg_width16_msa() local
90 LD_UB8(dst, dst_stride, dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7); in avg_width16_msa()
94 AVER_UB4_UB(src4, dst4, src5, dst5, src6, dst6, src7, dst7, dst4, dst5, in avg_width16_msa()
96 ST_UB8(dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7, dst, dst_stride); in avg_width16_msa()
107 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in avg_width32_msa() local
115 LD_UB4(dst_dup + 16, dst_stride, dst1, dst3, dst5, dst7); in avg_width32_msa()
126 AVER_UB4_UB(src4, dst4, src5, dst5, src6, dst6, src7, dst7, dst4, dst5, in avg_width32_msa()
134 ST_UB4(dst1, dst3, dst5, dst7, dst + 16, dst_stride); in avg_width32_msa()
148 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in avg_width64_msa() local
163 LD_UB4(dst_dup, 16, dst4, dst5, dst6, dst7); in avg_width64_msa()
[all …]
Dvpx_convolve8_avg_vert_msa.c470 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in common_vt_2t_and_aver_dst_32w_msa() local
488 LD_UB4(dst + 16, dst_stride, dst4, dst5, dst6, dst7); in common_vt_2t_and_aver_dst_32w_msa()
517 PCKEV_AVG_ST_UB(tmp3, tmp2, dst5, dst + 16 + dst_stride); in common_vt_2t_and_aver_dst_32w_msa()
542 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in common_vt_2t_and_aver_dst_64w_msa() local
560 LD_UB2(dst + 32, dst_stride, dst4, dst5); in common_vt_2t_and_aver_dst_64w_msa()
593 PCKEV_AVG_ST_UB(tmp3, tmp2, dst5, dst + 32 + dst_stride); in common_vt_2t_and_aver_dst_64w_msa()
Didct16x16_msa.c332 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in vpx_iadst16_1d_columns_addblk_msa() local
418 dst5 = LD_UB(dst + 12 * dst_stride); in vpx_iadst16_1d_columns_addblk_msa()
419 ILVR_B2_SH(zero, dst4, zero, dst5, res4, res5); in vpx_iadst16_1d_columns_addblk_msa()
/external/libaom/libaom/av1/common/arm/
Djnt_convolve_neon.c209 int32x4_t dst4, dst5, dst6, dst7; in compute_avg_8x4() local
250 dst5 = vsubq_s32(vreinterpretq_s32_u32(sum5), sub_const_vec); in compute_avg_8x4()
259 dst5 = vqrshlq_s32(dst5, round_bits_vec); in compute_avg_8x4()
268 tmp5 = vqmovn_s32(dst5); in compute_avg_8x4()
/external/v8/src/arm64/
Dmacro-assembler-arm64.cc1091 const CPURegister& dst4, const CPURegister& dst5, in Pop() argument
1095 DCHECK(!AreAliased(dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7)); in Pop()
1096 DCHECK(AreSameSizeAndType(dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7)); in Pop()
1099 int count = 5 + dst5.IsValid() + dst6.IsValid() + dst7.IsValid(); in Pop()
1104 PopHelper(count - 4, size, dst4, dst5, dst6, dst7); in Pop()
Dmacro-assembler-arm64.h753 const CPURegister& dst4, const CPURegister& dst5 = NoReg,