/external/libxaac/decoder/armv7/ |
D | ixheaacd_dec_DCT2_64_asm.s | 106 VMULL.U16 Q14, D18, D8 107 VMLAL.U16 Q14, D20, D10 110 VSHR.U32 Q14, Q14, #16 117 VMLAL.S16 Q14, D19, D8 119 VMLAL.S16 Q14, D21, D10 123 VSHL.S32 Q14, Q14, #1 128 VADD.I32 Q12, Q11, Q14 132 VSUB.I32 Q7, Q14, Q11 163 VMULL.U16 Q14, D18, D8 165 VMLAL.U16 Q14, D20, D10 [all …]
|
D | ixheaacd_dct3_32.s | 75 VMULL.U16 Q14, D4, D13 87 VMLSL.U16 Q14, D10, D12 101 VSHR.S32 Q14, Q14, #16 102 VMLAL.S16 Q14, D5, D13 104 VMLSL.S16 Q14, D11, D12 109 VSWP Q15, Q14 112 VST2.32 {Q14, Q15}, [R8]! 130 VMULL.U16 Q14, D4, D13 132 VMLSL.U16 Q14, D10, D12 137 VSHR.S32 Q14, Q14, #16 [all …]
|
D | ixheaacd_esbr_qmfsyn64_winadd.s | 49 VMOV Q14, Q15 52 VMLAL.S32 Q14, D1, D3 58 VMLAL.S32 Q14, D7, D5 64 VMLAL.S32 Q14, D11, D9 70 VMLAL.S32 Q14, D13, D15 76 VMLAL.S32 Q14, D17, D19 89 VMLAL.S32 Q14, D1, D3 96 VMLAL.S32 Q14, D7, D5 102 VMLAL.S32 Q14, D11, D9 108 VMLAL.S32 Q14, D13, D15 [all …]
|
D | ixheaacd_pre_twiddle_compute.s | 125 VMULL.U16 Q14, D4, D9 130 VSHR.U32 Q14, Q14, #16 135 VMLAL.S16 Q14, D5, D9 139 VADD.I32 Q14, Q13, Q14 140 VNEG.S32 Q14, Q14 183 VSHL.S32 Q8, Q14, Q7 192 VMULL.U16 Q14, D4, D9 199 VSHR.U32 Q14, Q14, #16 204 VMLAL.S16 Q14, D5, D9 208 VADD.I32 Q14, Q13, Q14 [all …]
|
D | ixheaacd_post_twiddle.s | 113 VMULL.U16 Q14, D0, D13 118 VSHR.U32 Q14, Q14, #16 123 VMLAL.S16 Q14, D1, D13 131 VADD.I32 Q14, Q14, Q13 133 VNEG.S32 Q14, Q14 141 VMOV Q12, Q14 189 VADD.I32 Q13, Q14, Q0 218 VMULL.U16 Q14, D0, D13 225 VSHR.U32 Q14, Q14, #16 230 VMLAL.S16 Q14, D1, D13 [all …]
|
D | ixheaacd_post_twiddle_overlap.s | 203 VMULL.U16 Q14, D2, D8 215 VSHR.U32 Q14, Q14, #16 221 VMLAL.S16 Q14, D3, D8 234 VADD.I32 Q15, Q15, Q14 239 VSUB.I32 Q14, Q12, Q13 243 VMOV Q12, Q14 265 VADD.I32 Q14, Q14, Q0 287 VQADD.S32 Q14, Q14, Q7 290 VQSHL.S32 Q14, Q14, Q0 333 VMOV Q13, Q14 [all …]
|
D | ixheaacd_overlap_add1.s | 85 VQADD.S32 Q14, Q14, Q10 86 VQSUB.S32 Q13, Q15, Q14 163 VQADD.S32 Q14, Q14, Q10 167 VQSUB.S32 Q13, Q15, Q14 211 VQADD.S32 Q14, Q14, Q10 215 VQSUB.S32 Q13, Q15, Q14 271 VQADD.S32 Q14, Q14, Q10 273 VQSUB.S32 Q13, Q15, Q14
|
D | ixheaacd_no_lap1.s | 46 VQADD.S32 Q14, Q15, Q2 47 VSHR.S32 Q13, Q14, #16 75 VQADD.S32 Q14, Q15, Q2 77 VSHR.S32 Q13, Q14, #16
|
D | ixheaacd_sbr_qmfsyn64_winadd.s | 46 VNEG.S32 Q14, Q11 47 VSHL.S32 Q10, Q15, Q14 133 VSHR.S32 Q14, Q13, #16 223 VSHR.S32 Q14, Q13, #16 292 VSHR.S32 Q14, Q13, #16 367 VSHR.S32 Q14, Q13, #16
|
D | ixheaacd_tns_ar_filter_fixed.s | 275 VEXT.32 Q14, Q12, Q14, #3 324 VEXT.32 Q4, Q14, Q4, #3 @ @for order20 325 VEXT.32 Q14, Q12, Q14, #3 @ @for order16
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 52 VMOV.I64 Q14, #0 229 VQMOVN.S64 D0, Q14
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class0.s | 179 …VEXT.8 Q14,Q14,Q13,#15 @II Iteration pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, … 184 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 190 VCLT.U8 Q0,Q13,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 199 …VEXT.8 Q14,Q13,Q14,#1 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tm… 213 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 215 VCLT.U8 Q0,Q13,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 223 VADD.I8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 224 VADD.I8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 233 VAND Q14,Q14,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 250 …VMOVL.U8 Q14,D27 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u… [all …]
|
D | ihevc_sao_edge_offset_class1_chroma.s | 146 VCGT.U8 Q6,Q5,Q14 @vcgtq_u8(pu1_cur_row, pu1_top_row) 149 VCLT.U8 Q7,Q5,Q14 @vcltq_u8(pu1_cur_row, pu1_top_row) 173 …VMOVL.U8 Q14,D19 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u… 182 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 188 VNEG.S8 Q8,Q14 @II sign_up = vnegq_s8(sign_down) 190 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down) 204 …VMOVL.U8 Q14,D11 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v… 208 …VADDW.S8 Q14,Q14,D13 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],… 210 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 215 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 185 …VEXT.8 Q14,Q14,Q15,#14 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_ro… 188 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 191 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 209 …VEXT.8 Q14,Q15,Q14,#2 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tm… 217 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 219 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 256 …VMOVL.U8 Q14,D30 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u… 260 …VADDW.S8 Q14,Q14,D26 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[… 264 …VMAX.S16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 267 …VMIN.U16 Q14,Q14,Q3 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… [all …]
|
D | ihevc_sao_edge_offset_class1.s | 169 …VMOVL.U8 Q14,D19 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u… 212 …VADDW.S8 Q14,Q14,D25 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[… 218 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 219 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u… 224 VMOVN.I16 D31,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[1]) 253 …VMOVL.U8 Q14,D11 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v… 254 …VADDW.S8 Q14,Q14,D25 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],… 255 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 256 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… 259 VMOVN.I16 D31,Q14 @vmovn_s16(pi2_tmp_cur_row.val[1])
|
D | ihevc_sao_edge_offset_class3_chroma.s | 470 …VEXT.8 Q14,Q14,Q8,#14 @II pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next… 487 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 497 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 546 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u… 550 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[… 560 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 562 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 571 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0]) 588 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row) 824 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 470 …VEXT.8 Q14,Q8,Q14,#2 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row… 486 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 494 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 546 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u… 550 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[… 553 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 555 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 577 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0]) 592 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row) 809 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… [all …]
|
D | ihevc_sao_edge_offset_class3.s | 425 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u… 436 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[… 438 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 442 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 461 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0]) 471 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row) 672 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… 673 …VADDW.S8 Q14,Q14,D24 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],… 674 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 675 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… [all …]
|
D | ihevc_sao_edge_offset_class2.s | 358 …VEXT.8 Q11,Q8,Q14,#1 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row… 424 …VMOVL.U8 Q14,D13 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u… 427 …VADDW.S8 Q14,Q14,D25 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[… 429 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 431 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u… 437 VMOVN.I16 D27,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[1]) 631 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… 632 …VADDW.S8 Q14,Q14,D24 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],… 633 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 634 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… [all …]
|
D | ihevc_resi_trans_32x32_a9q.s | 140 VMOV.S32 Q14,#0 195 VADDW.S16 Q14,Q14,D30 196 VADDW.S16 Q14,Q14,D31 836 VTRN.S32 Q14,Q15 @ Q14: [0 0] [16 1] [8 0] [24 1] 838 VST1.S32 {Q14-Q15},[SP] 840 @ VMOV.U32 Q14,#RADD ;get the round factor to q14 874 VSUB.S32 Q14, Q2, Q5 @o[k] = resi_tmp_1 - resi_tmp_2 k -> 9-12 R1 1030 VMLA.S32 Q4,Q2,Q14 @g_ai4_ihevc_trans_32[1][8-11]*o[0][8-11] R1 1043 VMLA.S32 Q7,Q2,Q14 @g_ai4_ihevc_trans_32[3][8-11]*o[0][8-11] R1 1055 VMLA.S32 Q4,Q2,Q14 @g_ai4_ihevc_trans_32[5][8-11]*o[0][8-11] R1 -- dual issue [all …]
|
D | ihevc_resi_trans.s | 972 VMOV.S32 Q14,#0 1020 VADDW.S16 Q14,Q14,D30 1021 VADDW.S16 Q14,Q14,D31 1348 VTRN.S32 Q14,Q15 1349 VST1.S32 {Q14-Q15},[SP] 1351 VMOV.U32 Q14,#RADD @get the round factor to q14 1434 VADD.S32 Q4,Q4,Q14 @ROUND R1 1438 VADD.S32 Q6,Q6,Q14 @ROUND R2 1479 VADD.S32 Q9,Q9,Q14 @Round by RADD R1 1498 …VADD.S32 Q12,Q12,Q14 @Round by RADD R2, dual issued with prev. instruction in 2nd c… [all …]
|
/external/libavc/common/arm/ |
D | ih264_deblk_luma_a9.s | 118 vabd.u8 q14, q5, q3 @Q14 = Ap = ABS(p2 - p0) 132 vsubl.u8 q14, d8, d2 @Q14 = (p1 - q1)L 148 vaddl.u8 q5, d16, d10 @Q14,Q5 = p2 + (p0+q0+1)>>1 155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1) 160 vqshrn.s16 d28, q5, #1 @Q14 = i_macro_p1 164 vmin.s8 q14, q14, q7 @Q14 = min(C0,i_macro_p1) 168 vmax.s8 q14, q14, q13 @Q14 = max( - C0 , min(C0, i_macro_p1) )
|
/external/libxaac/decoder/ |
D | ixheaacd_constants.h | 38 #define Q14 16384 macro
|
/external/swiftshader/third_party/LLVM/lib/Target/ARM/MCTargetDesc/ |
D | ARMBaseInfo.h | 169 case LR: case S14: case D14: case Q14: return 14; in getARMRegisterNumbering()
|
/external/swiftshader/third_party/LLVM/lib/Target/ARM/ |
D | ARMRegisterInfo.td | 149 def Q14 : ARMReg<14, "q14", [D28, D29]>; 169 def QQ7 : ARMReg<7, "qq7", [Q14, Q15]>;
|