/external/libxaac/decoder/armv7/ |
D | ixheaacd_pre_twiddle_compute.s | 144 VMULL.U16 Q10, D6, D11 149 VSHR.U32 Q10, Q10, #16 156 VMLAL.S16 Q10, D7, D11 165 VADD.I32 Q10, Q10, Q9 167 VNEG.S32 Q10, Q10 175 VSHL.S32 Q10, Q10, Q7 195 VST2.32 {Q10, Q11}, [R7], R8 214 VMULL.U16 Q10, D6, D11 222 VSHR.U32 Q10, Q10, #16 229 VMLAL.S16 Q10, D7, D11 [all …]
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 65 VMULL.S32 Q10, D1, D9 81 VSHR.S64 Q10, Q10, #31 86 VSUB.I64 Q10, Q10, Q4 90 VADD.I64 Q10, Q10, Q11 91 VADD.I64 Q12, Q12, Q10 109 VMULL.S32 Q10, D1, D9 120 VSHR.S64 Q10, Q10, #31 130 VSUB.I64 Q10, Q10, Q4 134 VADD.I64 Q10, Q10, Q11 135 VADD.I64 Q12, Q12, Q10 [all …]
|
D | ixheaacd_post_twiddle.s | 128 VMULL.U16 Q10, D4, D9 142 VSHR.U32 Q10, Q10, #16 152 VMLAL.S16 Q10, D5, D9 166 VSUB.I32 Q10, Q9, Q10 175 VMOV Q8, Q10 202 VADD.I32 Q12, Q10, Q2 235 VMULL.U16 Q10, D4, D9 250 VSHR.U32 Q10, Q10, #16 260 VMLAL.S16 Q10, D5, D9 274 VSUB.I32 Q10, Q9, Q10 [all …]
|
D | ixheaacd_no_lap1.s | 66 VSHR.S32 Q10, Q11, #16 67 VREV64.32 Q10, Q10 96 VSHR.S32 Q10, Q11, #16 99 VREV64.32 Q10, Q10
|
D | ixheaacd_overlap_add2.s | 42 VDUP.32 Q10, R8 72 VQADD.S32 Q12, Q13, Q10 105 VQADD.S32 Q8, Q9, Q10 107 VQADD.S32 Q12, Q13, Q10 135 VQADD.S32 Q8, Q9, Q10 177 @VQADD.S32 Q12,Q12,Q10 179 VQADD.S32 Q12, Q13, Q10 196 VQADD.S32 Q12, Q13, Q10 235 VQADD.S32 Q8, Q9, Q10 237 VQADD.S32 Q12, Q13, Q10 [all …]
|
D | ixheaacd_overlap_add1.s | 52 VDUP.32 Q10, R7 85 VQADD.S32 Q14, Q14, Q10 107 VQADD.S32 Q8, Q8, Q10 163 VQADD.S32 Q14, Q14, Q10 165 VQADD.S32 Q8, Q8, Q10 211 VQADD.S32 Q14, Q14, Q10 217 VQADD.S32 Q8, Q8, Q10 271 VQADD.S32 Q14, Q14, Q10 272 VQADD.S32 Q8, Q8, Q10
|
D | ixheaacd_post_twiddle_overlap.s | 47 VMOV.S32 Q10, #0x00008000 406 VQADD.S32 Q7, Q2, Q10 409 VQADD.S32 Q3, Q3, Q10 436 VQADD.S32 Q15, Q15, Q10 437 VQADD.S32 Q11, Q11, Q10 669 VQADD.S32 Q7, Q2, Q10 672 VQADD.S32 Q3, Q3, Q10 699 VQADD.S32 Q15, Q15, Q10 700 VQADD.S32 Q11, Q11, Q10 932 VQADD.S32 Q7, Q2, Q10 [all …]
|
D | ixheaacd_calc_pre_twid.s | 53 VMULL.S32 Q10, D1, D7 63 VSHRN.S64 D20, Q10, #32
|
D | ixheaacd_sbr_qmfsyn64_winadd.s | 47 VSHL.S32 Q10, Q15, Q14 62 VMOV Q13, Q10 138 VMOV Q13, Q10 225 VMOV Q13, Q10 305 VMOV Q13, Q10
|
D | ixheaacd_calc_post_twid.s | 49 VMULL.S32 Q10, D7, D1 58 VSHRN.S64 D11, Q10, #32
|
D | ixheaacd_dec_DCT2_64_asm.s | 98 VADD.I32 Q10, Q3, Q1 145 VADD.I32 Q10, Q3, Q1 190 VADD.I32 Q10, Q3, Q1 248 VADD.I32 Q10, Q3, Q1
|
D | ixheaacd_dct3_32.s | 339 VSUB.I32 Q10, Q7, Q15 353 VST2.32 {Q10, Q11}, [R6]! 392 VSUB.I32 Q10, Q7, Q15
|
/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 196 VMULL.S16 Q10,D6,D0[0] @//(V-128)*C1 FOR R 210 VQSHRN.S32 D10,Q10,#13 @//D10 = (V-128)*C1>>13 4 16-BIT VALUES 223 VADDW.U8 Q10,Q4,D31 @//Q10 - HAS Y + B 237 VQMOVUN.S16 D20,Q10 244 VZIP.16 Q10,Q11 246 VZIP.32 Q7,Q10 264 VADDW.U8 Q10,Q4,D29 @//Q10 - HAS Y + B 288 VQMOVUN.S16 D20,Q10 295 VZIP.16 Q10,Q11 297 VZIP.32 Q7,Q10 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class1.s | 165 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 171 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 174 VNEG.S8 Q8,Q10 @sign_up = vnegq_s8(sign_down) 188 …VMOVL.U8 Q10,D10 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… 190 …VADDW.S8 Q10,Q10,D12 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],… 192 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 194 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 208 VMOVN.I16 D20,Q10 @vmovn_s16(pi2_tmp_cur_row.val[0]) 220 VST1.8 {Q10},[r10],r1 @vst1q_u8(pu1_src_cpy, pu1_cur_row) 238 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) [all …]
|
D | ihevc_sao_edge_offset_class1_chroma.s | 169 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 175 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 178 VNEG.S8 Q8,Q10 @sign_up = vnegq_s8(sign_down) 192 …VMOVL.U8 Q10,D10 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… 196 …VADDW.S8 Q10,Q10,D12 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],… 198 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 200 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 218 VMOVN.I16 D20,Q10 @vmovn_s16(pi2_tmp_cur_row.val[0]) 232 VST1.8 {Q10},[r10],r1 @vst1q_u8(pu1_src_cpy, pu1_cur_row) 250 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) [all …]
|
D | ihevc_sao_edge_offset_class3.s | 329 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8… 335 …VADDW.S8 Q10,Q10,D10 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0… 337 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[… 339 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1… 351 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0]) 375 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row) 451 …VMOVL.U8 Q10,D16 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_… 454 …VADDW.S8 Q10,Q10,D10 @III pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val… 456 …VMAX.S16 Q10,Q10,Q1 @III pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.va… 459 …VMIN.U16 Q10,Q10,Q2 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_… [all …]
|
D | ihevc_sao_edge_offset_class2.s | 318 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8… 320 …VADDW.S8 Q10,Q10,D10 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0… 322 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[… 325 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1… 329 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0]) 340 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row) 414 …VMOVL.U8 Q10,D16 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_… 418 …VADDW.S8 Q10,Q10,D10 @III pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val… 422 …VMAX.S16 Q10,Q10,Q1 @III pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.va… 425 …VMIN.U16 Q10,Q10,Q2 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_… [all …]
|
D | ihevc_sao_edge_offset_class3_chroma.s | 404 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 407 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 417 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8… 426 …VADDW.S8 Q10,Q10,D22 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0… 428 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[… 429 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1… 442 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0]) 466 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row) 535 VCLT.U8 Q10,Q8,Q9 @III vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 537 …VSUB.U8 Q11,Q10,Q11 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 412 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 415 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 426 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8… 437 …VADDW.S8 Q10,Q10,D22 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0… 439 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[… 440 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1… 451 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0]) 478 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row) 537 VCGT.U8 Q10,Q8,Q9 @III vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 541 …VSUB.U8 Q11,Q11,Q10 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… [all …]
|
D | ihevc_sao_edge_offset_class0.s | 175 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 205 VADD.I8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 211 …VSUB.I8 Q10,Q0,Q15 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 223 VADD.I8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 309 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 319 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 327 VNEG.S8 Q10,Q11 @sign_left = vnegq_s8(sign_right) 328 VEXT.8 Q10,Q10,Q11,#15 @sign_left = vextq_s8(sign_left, sign_left, 15)
|
D | ihevc_resi_trans_32x32_a9q.s | 175 VSUBL.U8 Q10,D2,D6 @ Get residue 17-24 row 1 -- dual issue 199 VREV64.S16 Q10,Q10 @ Rev 17-24 row 1 -- dual issue 204 VSWP D20,D21 @ Q10: 24 23 22 21 20 19 18 17 row 1 208 VADD.S16 Q5, Q9,Q10 @ e[k] = resi_tmp_1 + resi_tmp_2 k ->9-16 row 1 -- dual issue 214 VSUB.S16 Q7, Q9,Q10 @ o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 1 -- dual issue 220 VSUB.S16 Q10, Q12,Q3 @ o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-8 row 2 -- dual issue 863 VADD.S32 Q10, Q2, Q5 @e[k] = resi_tmp_1 + resi_tmp_2 k -> 9-12 R1-- dual issue 871 VREV64.S32 Q10, Q10 @rev e[k] k-> 9-12 R1 -- dual issue 875 VSWP D20, D21 @Q10: e[12] e[11] e[10] e[9] -- dual issue 878 VADD.S32 Q1, Q9, Q10 @ee[k] = e[k] + e[15- k] row R1, k-> 4-7 [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 181 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 211 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 215 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 226 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 344 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 373 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 378 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 389 VADD.U8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
|
D | ihevc_resi_trans.s | 1030 VADD.S16 Q10,Q6,Q7 @e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 2 1182 VMULL.S16 Q10,D22,D4 @o[1][0-3]* R2 1183 VMLAL.S16 Q10,D23,D5 @o[1][4-7]* R2 1205 VTRN.32 Q7,Q10 @ 2-cycle instruction 1218 VADD.S32 Q10,Q10,Q7 1224 VADD.S32 Q13,Q13,Q10 1257 VMULL.S16 Q10,D18,D2 @o[7][0-3]* R1 1258 VMLAL.S16 Q10,D19,D3 @o[7][4-7]* R1 1269 VTRN.32 Q7 ,Q10 @ transpose step 2 R1 , 2-cycle instruction 1282 VADD.S32 Q10,Q10,Q7 [all …]
|
/external/libjpeg-turbo/ |
D | jdcoefct.c | 424 JLONG Q00, Q01, Q02, Q10, Q11, Q20, num; in decompress_smooth_data() local 486 Q10 = quanttbl->quantval[Q10_POS]; in decompress_smooth_data() 544 pred = (int)(((Q10 << 7) + num) / (Q10 << 8)); in decompress_smooth_data() 548 pred = (int)(((Q10 << 7) - num) / (Q10 << 8)); in decompress_smooth_data()
|
/external/libxaac/decoder/ |
D | ixheaacd_constants.h | 36 #define Q10 1024 macro
|