/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 201 VMULL.S16 Q7,D5,D0[1] @//(U-128)*C2 FOR G 202 VMLAL.S16 Q7,D7,D0[2] @//Q7 = (U-128)*C2 + (V-128)*C3 216 VQSHRN.S32 D13,Q7,#13 @//D13 = [(U-128)*C2 + (V-128)*C3]>>13 4 16-BIT VALUES 219 VADDW.U8 Q7,Q4,D30 @//Q7 - HAS Y + B 227 VQMOVUN.S16 D14,Q7 234 VZIP.16 Q7,Q8 246 VZIP.32 Q7,Q10 260 VADDW.U8 Q7,Q4,D28 @//Q7 - HAS Y + B 278 VQMOVUN.S16 D14,Q7 285 VZIP.16 Q7,Q8 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class0.s | 163 …VEXT.8 Q7,Q7,Q6,#15 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_row, … 167 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 172 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 187 …VEXT.8 Q7,Q6,Q7,#1 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tmp, … 195 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 198 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 205 VADD.I8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 208 VADD.I8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 219 VAND Q7,Q7,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 236 …VMOVL.U8 Q7,D13 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v… [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 170 …VEXT.8 Q7,Q7,Q6,#14 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_row, … 174 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 178 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 198 …VEXT.8 Q7,Q6,Q7,#2 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tmp, … 202 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 205 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 211 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 213 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 221 VAND Q7,Q7,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 333 …VEXT.8 Q7,Q7,Q6,#14 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_row, … [all …]
|
D | ihevc_sao_edge_offset_class2.s | 257 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row) 265 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 303 VADD.I8 Q12,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 314 VNEG.S8 Q7,Q5 @I sign_up = vnegq_s8(sign_down) 316 VEXT.8 Q7,Q7,Q7,#15 @I sign_up = vextq_s8(sign_up, sign_up, 15) 387 VADD.I8 Q11,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 392 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 396 VEXT.8 Q7,Q7,Q7,#15 @II sign_up = vextq_s8(sign_up, sign_up, 15) 401 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 407 VNEG.S8 Q7,Q5 @III sign_up = vnegq_s8(sign_down) [all …]
|
D | ihevc_sao_edge_offset_class3.s | 272 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row) 285 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 321 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 324 VNEG.S8 Q7,Q5 @I sign_up = vnegq_s8(sign_down) 326 VEXT.8 Q7,Q7,Q7,#1 @I sign_up = vextq_s8(sign_up, sign_up, 1) 410 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 412 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 417 VEXT.8 Q7,Q7,Q7,#1 @II sign_up = vextq_s8(sign_up, sign_up, 1) 430 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 434 VNEG.S8 Q7,Q5 @III sign_up = vnegq_s8(sign_down) [all …]
|
D | ihevc_sao_edge_offset_class3_chroma.s | 340 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row) 348 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 409 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 412 VNEG.S8 Q7,Q11 @I sign_up = vnegq_s8(sign_down) 415 VEXT.8 Q7,Q7,Q7,#2 @I sign_up = vextq_s8(sign_up, sign_up, 2) 513 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 520 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 525 VEXT.8 Q7,Q7,Q7,#2 @II sign_up = vextq_s8(sign_up, sign_up, 2) 539 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 548 VNEG.S8 Q7,Q11 @III sign_up = vnegq_s8(sign_down) [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 350 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row) 366 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 417 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 421 VNEG.S8 Q7,Q11 @I sign_up = vnegq_s8(sign_down) 424 VEXT.8 Q7,Q7,Q7,#14 @I sign_up = vextq_s8(sign_up, sign_up, 14) 510 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 520 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 525 VEXT.8 Q7,Q7,Q7,#14 @II sign_up = vextq_s8(sign_up, sign_up, 14) 547 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 557 VNEG.S8 Q7,Q11 @III sign_up = vnegq_s8(sign_down) [all …]
|
D | ihevc_sao_edge_offset_class1.s | 145 VCLT.U8 Q7,Q5,Q4 @vcltq_u8(pu1_cur_row, pu1_top_row) 147 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 162 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row) 165 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 237 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row) 238 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 288 VCLT.U8 Q7,Q5,Q4 @vcltq_u8(pu1_cur_row, pu1_top_row) 289 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 304 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row) 307 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) [all …]
|
D | ihevc_sao_edge_offset_class1_chroma.s | 149 VCLT.U8 Q7,Q5,Q14 @vcltq_u8(pu1_cur_row, pu1_top_row) 151 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 166 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row) 169 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 249 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row) 250 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 305 VCLT.U8 Q7,Q5,Q14 @vcltq_u8(pu1_cur_row, pu1_top_row) 306 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 321 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row) 324 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) [all …]
|
/external/libxaac/decoder/armv7/ |
D | ixheaacd_pre_twiddle_compute.s | 103 VDUP.32 Q7, R5 175 VSHL.S32 Q10, Q10, Q7 179 VSHL.S32 Q11, Q11, Q7 182 VSHL.S32 Q9, Q15, Q7 183 VSHL.S32 Q8, Q14, Q7 241 VSHL.S32 Q10, Q10, Q7 242 VSHL.S32 Q11, Q11, Q7 245 VSHL.S32 Q9, Q15, Q7 248 VSHL.S32 Q8, Q14, Q7 296 VSHL.S32 Q10, Q10, Q7 [all …]
|
D | ixheaacd_post_twiddle_overlap.s | 286 VDUP.S32 Q7, R11 287 VQADD.S32 Q14, Q14, Q7 293 VMOV Q7, Q12 323 VADD.I32 Q7, Q7, Q13 365 VNEG.S32 Q13, Q7 406 VQADD.S32 Q7, Q2, Q10 412 VSHR.S32 Q7, Q7, #16 541 VDUP.S32 Q7, R11 542 VQADD.S32 Q14, Q14, Q7 549 VMOV Q7, Q12 [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 132 VSUB.I32 Q7, Q14, Q11 136 VREV64.32 Q7, Q7 150 VST2.32 {Q6, Q7}, [R12] 185 VSUB.I32 Q7, Q14, Q11 187 VREV64.32 Q7, Q7 205 VST2.32 {Q6, Q7}, [R12] 236 VSUB.I32 Q7, Q14, Q11 240 VREV64.32 Q7, Q7 250 VST2.32 {Q6, Q7}, [R12] 278 VSUB.I32 Q7, Q14, Q11 [all …]
|
D | ixheaacd_post_twiddle.s | 188 VADD.I32 Q7, Q15, Q1 191 VREV64.32 Q7, Q7 221 VST2.32 {Q7, Q8}, [R0]! 296 VADD.I32 Q7, Q15, Q1 299 VREV64.32 Q7, Q7 329 VST2.32 {Q7, Q8}, [R0]! 396 VADD.I32 Q7, Q15, Q1 399 VREV64.32 Q7, Q7 417 VST2.32 {Q7, Q8}, [R0]! 512 VADD.I32 Q7, Q15, Q1 [all …]
|
D | ixheaacd_esbr_cos_sin_mod_loop2.s | 76 VQSUB.S64 Q7, Q5, Q2 80 VSHRN.I64 D14, Q7, #32 107 VQSUB.S64 Q7, Q2, Q5 111 VSHRN.I64 D14, Q7, #32 136 VQSUB.S64 Q7, Q4, Q3 140 VSHRN.I64 D14, Q7, #32
|
D | ia_xheaacd_mps_mulshift.s | 36 VQDMULL.S32 Q7, D3, D7 38 VUZP.32 Q5, Q7 39 VST1.32 {Q6, Q7}, [R2]! @Storing values to R2
|
D | ixheaacd_overlap_add1.s | 78 VADDL.S16 Q7, D3, D12 99 VADDL.S16 Q7, D2, D12 143 VADDL.S16 Q7, D3, D12 153 VADDL.S16 Q7, D2, D12 193 VADDL.S16 Q7, D3, D12 203 VADDL.S16 Q7, D2, D12 255 VADDL.S16 Q7, D3, D12 264 VADDL.S16 Q7, D2, D12
|
D | ixheaacd_dct3_32.s | 315 VADD.I32 Q7, Q0, Q2 330 VSHR.S32 Q7, Q7, #1 339 VSUB.I32 Q10, Q7, Q15 341 VADD.I32 Q13, Q7, Q15 368 VADD.I32 Q7, Q0, Q2 384 VSHR.S32 Q7, Q7, #1 392 VSUB.I32 Q10, Q7, Q15 397 VADD.I32 Q13, Q7, Q15 454 VADD.I32 Q13, Q7, Q15
|
D | ixheaacd_mps_synt_post_fft_twiddle.s | 46 VMULL.S32 Q7, D3, D7 51 VSHRN.S64 D14, Q7, #31
|
D | ixheaacd_tns_ar_filter_fixed.s | 164 VEXT.32 Q6, Q7, Q6, #3 203 VEXT.32 Q6, Q7, Q6, #3 250 VEXT.32 Q6, Q7, Q6, #3 297 VEXT.32 Q6, Q7, Q6, #3 347 VEXT.32 Q6, Q7, Q6, #3 453 VEXT.32 Q6, Q7, Q6, #3 494 VEXT.32 Q6, Q7, Q6, #3 543 VEXT.32 Q6, Q7, Q6, #3
|
D | ixheaacd_mps_synt_out_calc.s | 33 VMULL.S32 Q7, D3, D7 37 VSHRN.S64 D13, Q7, #31
|
D | ixheaacd_calc_pre_twid.s | 50 VMULL.S32 Q7, D2, D8 60 VSHRN.S64 D14, Q7, #32
|
D | ixheaacd_calc_post_twid.s | 46 VMULL.S32 Q7, D4, D2 55 VSHRN.S64 D12, Q7, #32
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 62 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix 106 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix 150 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix 194 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix
|
D | ixheaacd_overlap_add2.s | 71 VREV64.16 Q6, Q7 106 VREV64.16 Q6, Q7 187 VREV64.32 Q4, Q7 231 VREV64.32 Q4, Q7
|
/external/llvm/lib/Target/AArch64/ |
D | AArch64CallingConvention.td | 68 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 70 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 72 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 75 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 77 CCAssignToReg<[Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 106 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 108 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 110 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 113 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 115 CCAssignToReg<[Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>> [all …]
|