/external/libxaac/decoder/armv7/ |
D | ixheaacd_pre_twiddle_compute.s | 143 VMULL.U16 Q11, D0, D11 148 VSHR.U32 Q11, Q11, #16 153 VMLAL.S16 Q11, D1, D11 170 VSUB.I32 Q11, Q8, Q11 179 VSHL.S32 Q11, Q11, Q7 195 VST2.32 {Q10, Q11}, [R7], R8 212 VMULL.U16 Q11, D0, D11 220 VSHR.U32 Q11, Q11, #16 228 VMLAL.S16 Q11, D1, D11 239 VSUB.I32 Q11, Q8, Q11 [all …]
|
D | ixheaacd_post_twiddle.s | 127 VMULL.U16 Q11, D6, D9 139 VSHR.U32 Q11, Q11, #16 151 VMLAL.S16 Q11, D7, D9 163 VADD.I32 Q11, Q11, Q8 169 VNEG.S32 Q11, Q11 172 VMOV Q9, Q11 210 VADD.I32 Q8, Q11, Q8 234 VMULL.U16 Q11, D6, D9 247 VSHR.U32 Q11, Q11, #16 259 VMLAL.S16 Q11, D7, D9 [all …]
|
D | ixheaacd_post_twiddle_overlap.s | 237 VMULL.U16 Q11, D4, D8 253 VSHR.U32 Q11, Q11, #16 254 VMLAL.S16 Q11, D5, D8 279 VADD.I32 Q11, Q11, Q0 280 VNEG.S32 Q11, Q11 292 VMOV Q0, Q11 371 VMULL.S32 Q11, D30, D0 372 VQMOVN.S64 D24, Q11 373 VMULL.S32 Q11, D31, D1 374 VQMOVN.S64 D25, Q11 [all …]
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 66 VMULL.S32 Q11, D3, D11 82 VSHR.S64 Q11, Q11, #31 87 VSUB.I64 Q11, Q11, Q5 90 VADD.I64 Q10, Q10, Q11 110 VMULL.S32 Q11, D3, D11 121 VSHR.S64 Q11, Q11, #31 131 VSUB.I64 Q11, Q11, Q5 134 VADD.I64 Q10, Q10, Q11 154 VMULL.S32 Q11, D3, D11 165 VSHR.S64 Q11, Q11, #31 [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 96 VSUB.I32 Q11, Q3, Q1 128 VADD.I32 Q12, Q11, Q14 132 VSUB.I32 Q7, Q14, Q11 143 VSUB.I32 Q11, Q3, Q1 182 VADD.I32 Q12, Q11, Q14 185 VSUB.I32 Q7, Q14, Q11 188 VSUB.I32 Q11, Q3, Q1 232 VADD.I32 Q12, Q11, Q14 236 VSUB.I32 Q7, Q14, Q11 246 VSUB.I32 Q11, Q3, Q1 [all …]
|
D | ixheaacd_overlap_add2.s | 41 VDUP.32 Q11, R4 73 VQSHL.S32 Q12, Q12, Q11 108 VQSHL.S32 Q8, Q8, Q11 110 VQSHL.S32 Q12, Q12, Q11 136 VQSHL.S32 Q8, Q8, Q11 176 @VQSHL.S32 Q12,Q13,Q11 180 VQSHL.S32 Q12, Q12, Q11 198 VQSHL.S32 Q12, Q12, Q11 238 VQSHL.S32 Q8, Q8, Q11 241 VQSHL.S32 Q12, Q12, Q11 [all …]
|
D | ixheaacd_tns_ar_filter_fixed.s | 186 VEXT.32 Q11, Q6, Q11, #3 230 VEXT.32 Q12, Q11, Q12, #3 234 VEXT.32 Q11, Q6, Q11, #3 277 VEXT.32 Q12, Q11, Q12, #3 281 VEXT.32 Q11, Q6, Q11, #3 327 VEXT.32 Q12, Q11, Q12, #3 @order12 331 VEXT.32 Q11, Q6, Q11, #3 @order8 475 VEXT.32 Q11, Q6, Q11, #3 522 VEXT.32 Q12, Q11, Q12, #3 526 VEXT.32 Q11, Q6, Q11, #3
|
D | ixheaacd_overlap_add1.s | 46 VDUP.16 Q11, R4 75 VQSHL.S32 Q15, Q15, Q11 95 VQSHL.S32 Q12, Q12, Q11 137 VQSHL.S32 Q15, Q15, Q11 139 VQSHL.S32 Q12, Q12, Q11 187 VQSHL.S32 Q15, Q15, Q11 189 VQSHL.S32 Q12, Q12, Q11 248 VQSHL.S32 Q15, Q15, Q11 250 VQSHL.S32 Q12, Q12, Q11
|
D | ixheaacd_no_lap1.s | 62 VQADD.S32 Q11, Q12, Q2 66 VSHR.S32 Q10, Q11, #16 94 VQADD.S32 Q11, Q12, Q2 96 VSHR.S32 Q10, Q11, #16
|
D | ixheaacd_sbr_qmfsyn64_winadd.s | 39 VDUP.32 Q11, R4 46 VNEG.S32 Q14, Q11 125 VQSHL.S32 Q13, Q13, Q11 221 VQSHL.S32 Q13, Q13, Q11 280 VQSHL.S32 Q13, Q13, Q11 365 VQSHL.S32 Q13, Q13, Q11
|
D | ixheaacd_calc_pre_twid.s | 54 VMULL.S32 Q11, D9, D3 64 VSHRN.S64 D22, Q11, #32
|
D | ixheaacd_calc_post_twid.s | 50 VMULL.S32 Q11, D5, D3 59 VSHRN.S64 D13, Q11, #32
|
D | ixheaacd_dct3_32.s | 346 VADD.I32 Q11, Q9, Q14 353 VST2.32 {Q10, Q11}, [R6]! 395 VADD.I32 Q11, Q9, Q14 456 VADD.I32 Q11, Q9, Q14
|
/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 197 VMULL.S16 Q11,D7,D0[0] @//(V-128)*C1 FOR R 211 VQSHRN.S32 D11,Q11,#13 @//D11 = (V-128)*C1>>13 4 16-BIT VALUES 224 VADDW.U8 Q11,Q5,D31 @//Q11 - HAS Y + R 239 VQMOVUN.S16 D22,Q11 244 VZIP.16 Q10,Q11 247 VZIP.32 Q8,Q11 265 VADDW.U8 Q11,Q5,D29 @//Q11 - HAS Y + R 290 VQMOVUN.S16 D22,Q11 295 VZIP.16 Q10,Q11 298 VZIP.32 Q8,Q11 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class1.s | 172 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row) 178 …VSUB.U8 Q4,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 180 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 185 VADD.I8 Q11,Q11,Q4 @II edge_idx = vaddq_s8(edge_idx, sign_down) 241 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 242 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 311 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row) 318 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 320 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 324 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class1_chroma.s | 176 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row) 182 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 184 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 190 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down) 253 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 254 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 328 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row) 335 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 339 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 348 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class3.s | 334 …VMOVL.U8 Q11,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8… 342 …VADDW.S8 Q11,Q11,D11 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1… 344 …VMAX.S16 Q11,Q11,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… 345 …VMIN.U16 Q11,Q11,Q2 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u1… 355 VMOVN.I16 D21,Q11 @I vmovn_s16(pi2_tmp_cur_row.val[1]) 458 …VMOVL.U8 Q11,D17 @III pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_… 462 …VADDW.S8 Q11,Q11,D11 @III pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val… 465 …VMAX.S16 Q11,Q11,Q1 @III pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.va… 468 …VMIN.U16 Q11,Q11,Q2 @III pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_… 480 VMOVN.I16 D21,Q11 @III vmovn_s16(pi2_tmp_cur_row.val[1]) [all …]
|
D | ihevc_sao_edge_offset_class2.s | 323 …VMOVL.U8 Q11,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8… 328 …VADDW.S8 Q11,Q11,D11 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1… 331 …VMAX.S16 Q11,Q11,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… 334 …VMIN.U16 Q11,Q11,Q2 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u1… 336 VMOVN.I16 D21,Q11 @I vmovn_s16(pi2_tmp_cur_row.val[1]) 358 …VEXT.8 Q11,Q8,Q14,#1 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row… 369 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 373 VCLT.U8 Q11,Q6,Q11 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 377 …VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 387 VADD.I8 Q11,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) [all …]
|
D | ihevc_sao_edge_offset_class0.s | 202 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 208 VADD.I8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 217 …VSUB.I8 Q11,Q0,Q15 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 224 VADD.I8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 317 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 320 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 327 VNEG.S8 Q10,Q11 @sign_left = vnegq_s8(sign_right) 328 VEXT.8 Q10,Q10,Q11,#15 @sign_left = vextq_s8(sign_left, sign_left, 15)
|
D | ihevc_sao_edge_offset_class3_chroma.s | 406 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 407 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 410 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 412 VNEG.S8 Q7,Q11 @I sign_up = vnegq_s8(sign_down) 487 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 505 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 527 VCGT.U8 Q11,Q8,Q9 @III vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 537 …VSUB.U8 Q11,Q10,Q11 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 541 VADD.I8 Q9,Q9,Q11 @III edge_idx = vaddq_s8(edge_idx, sign_down) 548 VNEG.S8 Q7,Q11 @III sign_up = vnegq_s8(sign_down) [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 414 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 415 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 418 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 421 VNEG.S8 Q7,Q11 @I sign_up = vnegq_s8(sign_down) 427 VAND Q11,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 486 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 498 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 539 VCLT.U8 Q11,Q8,Q9 @III vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 541 …VSUB.U8 Q11,Q11,Q10 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 552 VADD.I8 Q9,Q9,Q11 @III edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 208 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 213 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 224 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 230 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 369 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 376 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 384 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 391 VADD.U8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
|
D | ihevc_resi_trans_32x32_a9q.s | 178 VSUBL.U8 Q11,D3,D7 @ Get residue 25-32 row 1 -- dual issue 201 VREV64.S16 Q11,Q11 @ Rev 25-32 row 1 -- dual issue 205 VSWP D22,D23 @ Q11: 32 31 30 29 28 27 26 25 row 1 210 VADD.S16 Q4, Q8,Q11 @ e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 1 -- dual issue 212 VSUB.S16 Q6, Q8,Q11 @ o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-8 row 1 -- dual issue 222 VSUB.S16 Q11, Q13,Q2 @ o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 2 -- dual issue 861 VADD.S32 Q11, Q3, Q4 @e[k] = resi_tmp_1 + resi_tmp_2 k -> 13-16 R1-- dual issue 869 VREV64.S32 Q11, Q11 @rev e[k] k-> 13-16 R1 -- dual issue 873 VSWP D22, D23 @Q11: e[16] e[15] e[14] e[13] -- dual issue 879 VADD.S32 Q0, Q8, Q11 @ee[k] = e[k] + e[15- k] row R1, k-> 0-3 [all …]
|
/external/libjpeg-turbo/ |
D | jdcoefct.c | 424 JLONG Q00, Q01, Q02, Q10, Q11, Q20, num; in decompress_smooth_data() local 488 Q11 = quanttbl->quantval[Q11_POS]; in decompress_smooth_data() 574 pred = (int)(((Q11 << 7) + num) / (Q11 << 8)); in decompress_smooth_data() 578 pred = (int)(((Q11 << 7) - num) / (Q11 << 8)); in decompress_smooth_data()
|
/external/libxaac/decoder/ |
D | ixheaacd_constants.h | 37 #define Q11 2048 macro
|