/external/libvpx/libvpx/vpx_dsp/mips/ |
D | vpx_convolve_avg_msa.c | 84 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in avg_width16_msa() local 89 LD_UB8(dst, dst_stride, dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7); in avg_width16_msa() 93 AVER_UB4_UB(src4, dst4, src5, dst5, src6, dst6, src7, dst7, dst4, dst5, in avg_width16_msa() 94 dst6, dst7); in avg_width16_msa() 95 ST_UB8(dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7, dst, dst_stride); in avg_width16_msa() 106 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in avg_width32_msa() local 114 LD_UB4(dst_dup + 16, dst_stride, dst1, dst3, dst5, dst7); in avg_width32_msa() 125 AVER_UB4_UB(src4, dst4, src5, dst5, src6, dst6, src7, dst7, dst4, dst5, in avg_width32_msa() 126 dst6, dst7); in avg_width32_msa() 133 ST_UB4(dst1, dst3, dst5, dst7, dst + 16, dst_stride); in avg_width32_msa() [all …]
|
D | vpx_convolve8_avg_vert_msa.c | 283 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in common_vt_2t_and_aver_dst_4x8_msa() local 297 LD_UB8(dst, dst_stride, dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7); in common_vt_2t_and_aver_dst_4x8_msa() 298 ILVR_W4_UB(dst1, dst0, dst3, dst2, dst5, dst4, dst7, dst6, dst0, dst1, dst2, in common_vt_2t_and_aver_dst_4x8_msa() 357 v16u8 dst1, dst2, dst3, dst4, dst5, dst6, dst7, dst8; in common_vt_2t_and_aver_dst_8x8mult_msa() local 372 LD_UB8(dst, dst_stride, dst1, dst2, dst3, dst4, dst5, dst6, dst7, dst8); in common_vt_2t_and_aver_dst_8x8mult_msa() 388 PCKEV_AVG_ST8x4_UB(tmp0, dst5, tmp1, dst6, tmp2, dst7, tmp3, dst8, dst, in common_vt_2t_and_aver_dst_8x8mult_msa() 463 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in common_vt_2t_and_aver_dst_32w_msa() local 481 LD_UB4(dst + 16, dst_stride, dst4, dst5, dst6, dst7); in common_vt_2t_and_aver_dst_32w_msa() 520 PCKEV_AVG_ST_UB(tmp3, tmp2, dst7, dst + 16 + 3 * dst_stride); in common_vt_2t_and_aver_dst_32w_msa() 535 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in common_vt_2t_and_aver_dst_64w_msa() local [all …]
|
D | vpx_convolve8_avg_horiz_msa.c | 55 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in common_hz_8t_and_aver_dst_4x8_msa() local 72 LD_UB8(dst, dst_stride, dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7); in common_hz_8t_and_aver_dst_4x8_msa() 85 ILVR_W4_UB(dst1, dst0, dst3, dst2, dst5, dst4, dst7, dst6, dst0, dst2, dst4, in common_hz_8t_and_aver_dst_4x8_msa() 339 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in common_hz_2t_and_aver_dst_4x8_msa() local 349 LD_UB8(dst, dst_stride, dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7); in common_hz_2t_and_aver_dst_4x8_msa() 357 ILVR_W4_UB(dst1, dst0, dst3, dst2, dst5, dst4, dst7, dst6, dst0, dst2, dst4, in common_hz_2t_and_aver_dst_4x8_msa()
|
D | deblock_msa.c | 640 v16u8 dst7, dst8, dst_r_b, dst_l_b; in vpx_mbpost_proc_down_msa() local 693 dst7 = LD_UB(dst_tmp + (7 * pitch)); in vpx_mbpost_proc_down_msa() 695 ILVRL_B2_UB(dst7, dst8, dst_r_b, dst_l_b); in vpx_mbpost_proc_down_msa() 713 dst7 = (v16u8)((rv2_0 + sum0_h + dst_r_h) >> 4); in vpx_mbpost_proc_down_msa() 715 tmp[row & 15] = (v16u8)__msa_pckev_b((v16i8)dst8, (v16i8)dst7); in vpx_mbpost_proc_down_msa()
|
D | idct16x16_msa.c | 332 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in vpx_iadst16_1d_columns_addblk_msa() local 443 dst7 = LD_UB(dst + 11 * dst_stride); in vpx_iadst16_1d_columns_addblk_msa() 444 ILVR_B2_SH(zero, dst6, zero, dst7, res6, res7); in vpx_iadst16_1d_columns_addblk_msa()
|
D | vpx_convolve8_avg_msa.c | 265 v16u8 dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7; in common_hv_2ht_2vt_and_aver_dst_4x8_msa() local 292 LD_UB8(dst, dst_stride, dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7); in common_hv_2ht_2vt_and_aver_dst_4x8_msa() 293 ILVR_W4_UB(dst1, dst0, dst3, dst2, dst5, dst4, dst7, dst6, dst0, dst2, dst4, in common_hv_2ht_2vt_and_aver_dst_4x8_msa()
|
/external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
D | 2010-04-30-LocalAlloc-LandingPad.ll | 23 %cleanup.dst7 = alloca i32 ; <i32*> [#uses=6] 29 store i32 1, i32* %cleanup.dst7 65 store i32 1, i32* %cleanup.dst7 69 store i32 2, i32* %cleanup.dst7 87 store i32 2, i32* %cleanup.dst7 92 store i32 2, i32* %cleanup.dst7 99 %tmp8 = load i32* %cleanup.dst7 ; <i32> [#uses=1]
|
/external/llvm/test/CodeGen/X86/ |
D | 2010-04-30-LocalAlloc-LandingPad.ll | 23 %cleanup.dst7 = alloca i32 ; <i32*> [#uses=6] 29 store i32 1, i32* %cleanup.dst7 68 store i32 1, i32* %cleanup.dst7 72 store i32 2, i32* %cleanup.dst7 90 store i32 2, i32* %cleanup.dst7 95 store i32 2, i32* %cleanup.dst7 102 %tmp8 = load i32, i32* %cleanup.dst7 ; <i32> [#uses=1]
|
/external/v8/src/arm64/ |
D | macro-assembler-arm64.cc | 914 const CPURegister& dst6, const CPURegister& dst7) { in Pop() argument 917 DCHECK(!AreAliased(dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7)); in Pop() 918 DCHECK(AreSameSizeAndType(dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7)); in Pop() 921 int count = 5 + dst5.IsValid() + dst6.IsValid() + dst7.IsValid(); in Pop() 925 PopHelper(count - 4, size, dst4, dst5, dst6, dst7); in Pop()
|
D | macro-assembler-arm64.h | 620 const CPURegister& dst6 = NoReg, const CPURegister& dst7 = NoReg);
|
/external/valgrind/VEX/priv/ |
D | guest_s390_toIR.c | 7232 IRTemp dst7 = newTemp(Ity_D32); in s390_irgen_PFPO() local 7345 assign(dst7, binop(Iop_F128toD32, irrm, mkexpr(src7))); in s390_irgen_PFPO() 7346 put_dpr_w0(0, mkexpr(dst7)); /* put the result in FPR 0,2 */ in s390_irgen_PFPO()
|