/external/libxaac/decoder/armv7/ |
D | ixheaacd_pre_twiddle_compute.s | 143 VMULL.U16 Q11, D0, D11 148 VSHR.U32 Q11, Q11, #16 153 VMLAL.S16 Q11, D1, D11 170 VSUB.I32 Q11, Q8, Q11 179 VSHL.S32 Q11, Q11, Q7 195 VST2.32 {Q10, Q11}, [R7], R8 212 VMULL.U16 Q11, D0, D11 220 VSHR.U32 Q11, Q11, #16 228 VMLAL.S16 Q11, D1, D11 239 VSUB.I32 Q11, Q8, Q11 [all …]
|
D | ixheaacd_post_twiddle.s | 127 VMULL.U16 Q11, D6, D9 139 VSHR.U32 Q11, Q11, #16 151 VMLAL.S16 Q11, D7, D9 163 VADD.I32 Q11, Q11, Q8 169 VNEG.S32 Q11, Q11 172 VMOV Q9, Q11 210 VADD.I32 Q8, Q11, Q8 234 VMULL.U16 Q11, D6, D9 247 VSHR.U32 Q11, Q11, #16 259 VMLAL.S16 Q11, D7, D9 [all …]
|
D | ixheaacd_post_twiddle_overlap.s | 237 VMULL.U16 Q11, D4, D8 253 VSHR.U32 Q11, Q11, #16 254 VMLAL.S16 Q11, D5, D8 279 VADD.I32 Q11, Q11, Q0 280 VNEG.S32 Q11, Q11 292 VMOV Q0, Q11 371 VMULL.S32 Q11, D30, D0 372 VQMOVN.S64 D24, Q11 373 VMULL.S32 Q11, D31, D1 374 VQMOVN.S64 D25, Q11 [all …]
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 66 VMULL.S32 Q11, D3, D11 82 VSHR.S64 Q11, Q11, #31 87 VSUB.I64 Q11, Q11, Q5 90 VADD.I64 Q10, Q10, Q11 110 VMULL.S32 Q11, D3, D11 121 VSHR.S64 Q11, Q11, #31 131 VSUB.I64 Q11, Q11, Q5 134 VADD.I64 Q10, Q10, Q11 154 VMULL.S32 Q11, D3, D11 165 VSHR.S64 Q11, Q11, #31 [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 97 VSUB.I32 Q11, Q3, Q1 129 VADD.I32 Q12, Q11, Q14 133 VSUB.I32 Q7, Q14, Q11 144 VSUB.I32 Q11, Q3, Q1 183 VADD.I32 Q12, Q11, Q14 186 VSUB.I32 Q7, Q14, Q11 189 VSUB.I32 Q11, Q3, Q1 233 VADD.I32 Q12, Q11, Q14 237 VSUB.I32 Q7, Q14, Q11 247 VSUB.I32 Q11, Q3, Q1 [all …]
|
D | ixheaacd_overlap_add2.s | 41 VDUP.32 Q11, R4 73 VQSHL.S32 Q12, Q12, Q11 108 VQSHL.S32 Q8, Q8, Q11 110 VQSHL.S32 Q12, Q12, Q11 136 VQSHL.S32 Q8, Q8, Q11 176 @VQSHL.S32 Q12,Q13,Q11 180 VQSHL.S32 Q12, Q12, Q11 198 VQSHL.S32 Q12, Q12, Q11 238 VQSHL.S32 Q8, Q8, Q11 241 VQSHL.S32 Q12, Q12, Q11 [all …]
|
D | ixheaacd_tns_ar_filter_fixed.s | 186 VEXT.32 Q11, Q6, Q11, #3 230 VEXT.32 Q12, Q11, Q12, #3 234 VEXT.32 Q11, Q6, Q11, #3 277 VEXT.32 Q12, Q11, Q12, #3 281 VEXT.32 Q11, Q6, Q11, #3 327 VEXT.32 Q12, Q11, Q12, #3 @order12 331 VEXT.32 Q11, Q6, Q11, #3 @order8 475 VEXT.32 Q11, Q6, Q11, #3 522 VEXT.32 Q12, Q11, Q12, #3 526 VEXT.32 Q11, Q6, Q11, #3
|
D | ixheaacd_no_lap1.s | 62 VQADD.S32 Q11, Q12, Q2 66 VSHR.S32 Q10, Q11, #16 94 VQADD.S32 Q11, Q12, Q2 96 VSHR.S32 Q10, Q11, #16
|
D | ixheaacd_overlap_add1.s | 46 VDUP.16 Q11, R4 75 VQSHL.S32 Q15, Q15, Q11 95 VQSHL.S32 Q12, Q12, Q11 137 VQSHL.S32 Q15, Q15, Q11 139 VQSHL.S32 Q12, Q12, Q11 187 VQSHL.S32 Q15, Q15, Q11 189 VQSHL.S32 Q12, Q12, Q11 248 VQSHL.S32 Q15, Q15, Q11 250 VQSHL.S32 Q12, Q12, Q11
|
D | ixheaacd_sbr_qmfsyn64_winadd.s | 40 VDUP.32 Q11, R4 47 VNEG.S32 Q14, Q11 126 VQSHL.S32 Q13, Q13, Q11 222 VQSHL.S32 Q13, Q13, Q11 281 VQSHL.S32 Q13, Q13, Q11 366 VQSHL.S32 Q13, Q13, Q11
|
D | ixheaacd_calc_pre_twid.s | 54 VMULL.S32 Q11, D9, D3 64 VSHRN.S64 D22, Q11, #32
|
D | ixheaacd_calc_post_twid.s | 50 VMULL.S32 Q11, D5, D3 59 VSHRN.S64 D13, Q11, #32
|
/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 197 VMULL.S16 Q11,D7,D0[0] @//(V-128)*C1 FOR R 211 VQSHRN.S32 D11,Q11,#13 @//D11 = (V-128)*C1>>13 4 16-BIT VALUES 224 VADDW.U8 Q11,Q5,D31 @//Q11 - HAS Y + R 239 VQMOVUN.S16 D22,Q11 244 VZIP.16 Q10,Q11 247 VZIP.32 Q8,Q11 265 VADDW.U8 Q11,Q5,D29 @//Q11 - HAS Y + R 290 VQMOVUN.S16 D22,Q11 295 VZIP.16 Q10,Q11 298 VZIP.32 Q8,Q11 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class1.s | 172 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row) 178 …VSUB.U8 Q4,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 180 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 185 VADD.I8 Q11,Q11,Q4 @II edge_idx = vaddq_s8(edge_idx, sign_down) 241 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 242 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 311 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row) 318 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 320 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 324 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class1_chroma.s | 176 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row) 182 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 184 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 190 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down) 253 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 254 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 328 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row) 335 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 339 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 348 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class3.s | 334 …VMOVL.U8 Q11,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8… 342 …VADDW.S8 Q11,Q11,D11 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1… 344 …VMAX.S16 Q11,Q11,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… 345 …VMIN.U16 Q11,Q11,Q2 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u1… 355 VMOVN.I16 D21,Q11 @I vmovn_s16(pi2_tmp_cur_row.val[1]) 458 …VMOVL.U8 Q11,D17 @III pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_… 462 …VADDW.S8 Q11,Q11,D11 @III pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val… 465 …VMAX.S16 Q11,Q11,Q1 @III pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.va… 468 …VMIN.U16 Q11,Q11,Q2 @III pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_… 480 VMOVN.I16 D21,Q11 @III vmovn_s16(pi2_tmp_cur_row.val[1]) [all …]
|
D | ihevc_sao_edge_offset_class2.s | 323 …VMOVL.U8 Q11,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8… 328 …VADDW.S8 Q11,Q11,D11 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1… 331 …VMAX.S16 Q11,Q11,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… 334 …VMIN.U16 Q11,Q11,Q2 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u1… 336 VMOVN.I16 D21,Q11 @I vmovn_s16(pi2_tmp_cur_row.val[1]) 358 …VEXT.8 Q11,Q8,Q14,#1 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row… 369 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 373 VCLT.U8 Q11,Q6,Q11 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 377 …VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 387 VADD.I8 Q11,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) [all …]
|
D | ihevc_sao_edge_offset_class0.s | 202 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 208 VADD.I8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 217 …VSUB.I8 Q11,Q0,Q15 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 224 VADD.I8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 317 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 320 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 327 VNEG.S8 Q10,Q11 @sign_left = vnegq_s8(sign_right) 328 VEXT.8 Q10,Q10,Q11,#15 @sign_left = vextq_s8(sign_left, sign_left, 15)
|
D | ihevc_sao_edge_offset_class3_chroma.s | 406 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 407 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 410 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 412 VNEG.S8 Q7,Q11 @I sign_up = vnegq_s8(sign_down) 487 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 505 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 527 VCGT.U8 Q11,Q8,Q9 @III vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 537 …VSUB.U8 Q11,Q10,Q11 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 541 VADD.I8 Q9,Q9,Q11 @III edge_idx = vaddq_s8(edge_idx, sign_down) 548 VNEG.S8 Q7,Q11 @III sign_up = vnegq_s8(sign_down) [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 414 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 415 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 418 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 421 VNEG.S8 Q7,Q11 @I sign_up = vnegq_s8(sign_down) 427 VAND Q11,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 486 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 498 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 539 VCLT.U8 Q11,Q8,Q9 @III vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 541 …VSUB.U8 Q11,Q11,Q10 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 552 VADD.I8 Q9,Q9,Q11 @III edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 208 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 213 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 224 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 230 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 369 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 376 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 384 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 391 VADD.U8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
|
D | ihevc_resi_trans_32x32_a9q.s | 180 VSUBL.U8 Q11,D3,D7 @ Get residue 25-32 row 1 -- dual issue 203 VREV64.S16 Q11,Q11 @ Rev 25-32 row 1 -- dual issue 207 VSWP D22,D23 @ Q11: 32 31 30 29 28 27 26 25 row 1 212 VADD.S16 Q4, Q8,Q11 @ e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 1 -- dual issue 214 VSUB.S16 Q6, Q8,Q11 @ o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-8 row 1 -- dual issue 224 VSUB.S16 Q11, Q13,Q2 @ o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 2 -- dual issue 863 VADD.S32 Q11, Q3, Q4 @e[k] = resi_tmp_1 + resi_tmp_2 k -> 13-16 R1-- dual issue 871 VREV64.S32 Q11, Q11 @rev e[k] k-> 13-16 R1 -- dual issue 875 VSWP D22, D23 @Q11: e[16] e[15] e[14] e[13] -- dual issue 881 VADD.S32 Q0, Q8, Q11 @ee[k] = e[k] + e[15- k] row R1, k-> 0-3 [all …]
|
/external/llvm-project/llvm/test/CodeGen/AArch64/ |
D | aarch64-vector-pcs.mir | 55 ; | Q10, Q11 | (32 bytes) 59 …setup STPQpre killed $q11, killed $q10, $sp, -3 :: (store 16 into %stack.[[Q11:[0-9]+]]), (store 1… 60 ; CHECK-DAG: - { id: [[Q11]], {{.*}}, offset: -48, size: 16, alignment: 16 80 ; | Q10, Q11 | (32 bytes) 84 …setup STPQpre killed $q11, killed $q10, $sp, -3 :: (store 16 into %stack.[[Q11:[0-9]+]]), (store 1… 86 ; CHECK-DAG: - { id: [[Q11]], {{.*}}, offset: -48, size: 16, alignment: 16 111 ; | Q10, Q11 | (32 bytes) 115 …setup STPQpre killed $q11, killed $q10, $sp, -4 :: (store 16 into %stack.[[Q11:[0-9]+]]), (store 1… 118 ; CHECK-DAG: - { id: [[Q11]], {{.*}}, offset: -64, size: 16, alignment: 16
|
/external/libxaac/decoder/ |
D | ixheaacd_constants.h | 37 #define Q11 2048 macro
|
/external/libjpeg-turbo/ |
D | jdcoefct.c | 445 JLONG Q00, Q01, Q02, Q03 = 0, Q10, Q11, Q12 = 0, Q20, Q21 = 0, Q30 = 0, num; in decompress_smooth_data() local 530 Q11 = quanttbl->quantval[Q11_POS]; in decompress_smooth_data() 675 pred = (int)(((Q11 << 7) + num) / (Q11 << 8)); in decompress_smooth_data() 679 pred = (int)(((Q11 << 7) - num) / (Q11 << 8)); in decompress_smooth_data()
|