/external/libxaac/decoder/armv7/ |
D | ixheaacd_dec_DCT2_64_asm.s | 107 VMULL.U16 Q14, D18, D8 108 VMLAL.U16 Q14, D20, D10 111 VSHR.U32 Q14, Q14, #16 118 VMLAL.S16 Q14, D19, D8 120 VMLAL.S16 Q14, D21, D10 124 VSHL.S32 Q14, Q14, #1 129 VADD.I32 Q12, Q11, Q14 133 VSUB.I32 Q7, Q14, Q11 164 VMULL.U16 Q14, D18, D8 166 VMLAL.U16 Q14, D20, D10 [all …]
|
D | ixheaacd_dct3_32.s | 76 VMULL.U16 Q14, D4, D13 88 VMLSL.U16 Q14, D10, D12 102 VSHR.S32 Q14, Q14, #16 103 VMLAL.S16 Q14, D5, D13 105 VMLSL.S16 Q14, D11, D12 110 VSWP Q15, Q14 113 VST2.32 {Q14, Q15}, [R8]! 131 VMULL.U16 Q14, D4, D13 133 VMLSL.U16 Q14, D10, D12 138 VSHR.S32 Q14, Q14, #16 [all …]
|
D | ixheaacd_esbr_qmfsyn64_winadd.s | 50 VMOV Q14, Q15 53 VMLAL.S32 Q14, D1, D3 59 VMLAL.S32 Q14, D7, D5 65 VMLAL.S32 Q14, D11, D9 71 VMLAL.S32 Q14, D13, D15 77 VMLAL.S32 Q14, D17, D19 90 VMLAL.S32 Q14, D1, D3 97 VMLAL.S32 Q14, D7, D5 103 VMLAL.S32 Q14, D11, D9 109 VMLAL.S32 Q14, D13, D15 [all …]
|
D | ixheaacd_pre_twiddle_compute.s | 125 VMULL.U16 Q14, D4, D9 130 VSHR.U32 Q14, Q14, #16 135 VMLAL.S16 Q14, D5, D9 139 VADD.I32 Q14, Q13, Q14 140 VNEG.S32 Q14, Q14 183 VSHL.S32 Q8, Q14, Q7 192 VMULL.U16 Q14, D4, D9 199 VSHR.U32 Q14, Q14, #16 204 VMLAL.S16 Q14, D5, D9 208 VADD.I32 Q14, Q13, Q14 [all …]
|
D | ixheaacd_post_twiddle.s | 113 VMULL.U16 Q14, D0, D13 118 VSHR.U32 Q14, Q14, #16 123 VMLAL.S16 Q14, D1, D13 131 VADD.I32 Q14, Q14, Q13 133 VNEG.S32 Q14, Q14 141 VMOV Q12, Q14 189 VADD.I32 Q13, Q14, Q0 218 VMULL.U16 Q14, D0, D13 225 VSHR.U32 Q14, Q14, #16 230 VMLAL.S16 Q14, D1, D13 [all …]
|
D | ixheaacd_post_twiddle_overlap.s | 201 VMULL.U16 Q14, D2, D8 213 VSHR.U32 Q14, Q14, #16 219 VMLAL.S16 Q14, D3, D8 232 VADD.I32 Q15, Q15, Q14 237 VSUB.I32 Q14, Q12, Q13 241 VMOV Q12, Q14 263 VADD.I32 Q14, Q14, Q0 285 VQADD.S32 Q14, Q14, Q7 288 VQSHL.S32 Q14, Q14, Q0 331 VMOV Q13, Q14 [all …]
|
D | ixheaacd_sbr_qmfsyn64_winadd.s | 47 VNEG.S32 Q14, Q11 48 VSHL.S32 Q10, Q15, Q14 134 VSHR.S32 Q14, Q13, #16 224 VSHR.S32 Q14, Q13, #16 293 VSHR.S32 Q14, Q13, #16 368 VSHR.S32 Q14, Q13, #16
|
D | ixheaacd_overlap_add1.s | 84 VQSUB.S32 Q13, Q15, Q14 154 VQSUB.S32 Q13, Q15, Q14 196 VQSUB.S32 Q13, Q15, Q14 249 VQSUB.S32 Q13, Q15, Q14
|
D | ixheaacd_tns_ar_filter_fixed.s | 275 VEXT.32 Q14, Q12, Q14, #3 324 VEXT.32 Q4, Q14, Q4, #3 @ @for order20 325 VEXT.32 Q14, Q12, Q14, #3 @ @for order16
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 52 VMOV.I64 Q14, #0 229 VQMOVN.S64 D0, Q14
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class0.s | 179 …VEXT.8 Q14,Q14,Q13,#15 @II Iteration pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, … 184 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 190 VCLT.U8 Q0,Q13,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 199 …VEXT.8 Q14,Q13,Q14,#1 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tm… 213 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 215 VCLT.U8 Q0,Q13,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 223 VADD.I8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 224 VADD.I8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 233 VAND Q14,Q14,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 250 …VMOVL.U8 Q14,D27 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u… [all …]
|
D | ihevc_sao_edge_offset_class1_chroma.s | 146 VCGT.U8 Q6,Q5,Q14 @vcgtq_u8(pu1_cur_row, pu1_top_row) 149 VCLT.U8 Q7,Q5,Q14 @vcltq_u8(pu1_cur_row, pu1_top_row) 173 …VMOVL.U8 Q14,D19 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u… 182 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 188 VNEG.S8 Q8,Q14 @II sign_up = vnegq_s8(sign_down) 190 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down) 204 …VMOVL.U8 Q14,D11 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v… 208 …VADDW.S8 Q14,Q14,D13 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],… 210 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 215 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 185 …VEXT.8 Q14,Q14,Q15,#14 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_ro… 188 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 191 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 209 …VEXT.8 Q14,Q15,Q14,#2 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tm… 217 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 219 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 256 …VMOVL.U8 Q14,D30 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u… 260 …VADDW.S8 Q14,Q14,D26 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[… 264 …VMAX.S16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 267 …VMIN.U16 Q14,Q14,Q3 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… [all …]
|
D | ihevc_sao_edge_offset_class1.s | 169 …VMOVL.U8 Q14,D19 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u… 212 …VADDW.S8 Q14,Q14,D25 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[… 218 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 219 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u… 224 VMOVN.I16 D31,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[1]) 253 …VMOVL.U8 Q14,D11 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v… 254 …VADDW.S8 Q14,Q14,D25 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],… 255 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 256 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… 259 VMOVN.I16 D31,Q14 @vmovn_s16(pi2_tmp_cur_row.val[1])
|
D | ihevc_sao_edge_offset_class3_chroma.s | 470 …VEXT.8 Q14,Q14,Q8,#14 @II pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next… 487 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 497 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 546 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u… 550 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[… 560 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 562 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 571 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0]) 588 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row) 824 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 470 …VEXT.8 Q14,Q8,Q14,#2 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row… 486 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 494 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 546 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u… 550 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[… 553 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 555 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 577 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0]) 592 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row) 809 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… [all …]
|
D | ihevc_sao_edge_offset_class3.s | 425 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u… 436 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[… 438 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 442 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 461 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0]) 471 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row) 672 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… 673 …VADDW.S8 Q14,Q14,D24 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],… 674 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 675 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… [all …]
|
D | ihevc_sao_edge_offset_class2.s | 358 …VEXT.8 Q11,Q8,Q14,#1 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row… 424 …VMOVL.U8 Q14,D13 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u… 427 …VADDW.S8 Q14,Q14,D25 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[… 429 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 431 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u… 437 VMOVN.I16 D27,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[1]) 631 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… 632 …VADDW.S8 Q14,Q14,D24 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],… 633 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 634 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… [all …]
|
D | ihevc_resi_trans_32x32_a9q.s | 142 VMOV.S32 Q14,#0 197 VADDW.S16 Q14,Q14,D30 198 VADDW.S16 Q14,Q14,D31 838 VTRN.S32 Q14,Q15 @ Q14: [0 0] [16 1] [8 0] [24 1] 840 VST1.S32 {Q14-Q15},[SP] 842 @ VMOV.U32 Q14,#RADD ;get the round factor to q14 876 VSUB.S32 Q14, Q2, Q5 @o[k] = resi_tmp_1 - resi_tmp_2 k -> 9-12 R1 1032 VMLA.S32 Q4,Q2,Q14 @g_ai4_ihevc_trans_32[1][8-11]*o[0][8-11] R1 1045 VMLA.S32 Q7,Q2,Q14 @g_ai4_ihevc_trans_32[3][8-11]*o[0][8-11] R1 1057 VMLA.S32 Q4,Q2,Q14 @g_ai4_ihevc_trans_32[5][8-11]*o[0][8-11] R1 -- dual issue [all …]
|
D | ihevc_resi_trans.s | 1041 VMOV.S32 Q14,#0 1102 VADDW.S16 Q14,Q14,D30 1103 VADDW.S16 Q14,Q14,D31 1430 VTRN.S32 Q14,Q15 1431 VST1.S32 {Q14-Q15},[SP] 1433 VMOV.U32 Q14,#RADD @get the round factor to q14 1516 VADD.S32 Q4,Q4,Q14 @ROUND R1 1520 VADD.S32 Q6,Q6,Q14 @ROUND R2 1561 VADD.S32 Q9,Q9,Q14 @Round by RADD R1 1580 …VADD.S32 Q12,Q12,Q14 @Round by RADD R2, dual issued with prev. instruction in 2nd c… [all …]
|
/external/libavc/common/arm/ |
D | ih264_deblk_luma_a9.s | 118 vabd.u8 q14, q5, q3 @Q14 = Ap = ABS(p2 - p0) 132 vsubl.u8 q14, d8, d2 @Q14 = (p1 - q1)L 148 vaddl.u8 q5, d16, d10 @Q14,Q5 = p2 + (p0+q0+1)>>1 155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1) 160 vqshrn.s16 d28, q5, #1 @Q14 = i_macro_p1 164 vmin.s8 q14, q14, q7 @Q14 = min(C0,i_macro_p1) 168 vmax.s8 q14, q14, q13 @Q14 = max( - C0 , min(C0, i_macro_p1) )
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 161 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES 220 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES
|
/external/libxaac/decoder/ |
D | ixheaacd_constants.h | 38 #define Q14 16384 macro
|
/external/llvm/lib/Target/AArch64/ |
D | AArch64PBQPRegAlloc.cpp | 136 case AArch64::Q14: in isOdd()
|
/external/swiftshader/third_party/llvm-10.0/llvm/lib/Target/AArch64/ |
D | AArch64PBQPRegAlloc.cpp | 135 case AArch64::Q14: in isOdd()
|