/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class0_chroma.s | 180 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 204 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 208 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 213 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 215 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 219 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 229 VAND Q12,Q12,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 344 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 367 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 371 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 484 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 488 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 504 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 510 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 625 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 629 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 632 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 779 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 780 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 783 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class3.s | 385 VCGT.U8 Q12,Q6,Q9 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 393 …VSUB.U8 Q12,Q13,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 403 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 406 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 499 VCGT.U8 Q12,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 505 … VSUB.U8 Q12,Q13,Q12 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 511 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 650 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 653 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 659 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down) [all …]
|
D | ihevc_sao_edge_offset_class2.s | 294 VADD.I8 Q12,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 299 VADD.I8 Q12,Q12,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down) 360 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 368 …VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 379 VADD.I8 Q11,Q11,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 383 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 609 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 612 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 618 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down) 740 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) [all …]
|
D | ihevc_sao_edge_offset_class3_chroma.s | 487 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 495 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 507 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 510 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 802 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 803 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 806 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 808 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down) 972 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 973 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) [all …]
|
D | ihevc_sao_edge_offset_class0.s | 309 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 310 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 315 VAND Q12,Q12,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
|
D | ihevc_sao_edge_offset_class1.s | 166 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row) 168 …VSUB.U8 Q4,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 304 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_next_row) 308 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
|
D | ihevc_sao_edge_offset_class1_chroma.s | 171 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row) 173 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 322 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_next_row) 326 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
|
/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 224 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G 237 VQMOVUN.S16 D21,Q12 265 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G 288 VQMOVUN.S16 D21,Q12 355 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G 368 VQMOVUN.S16 D21,Q12 396 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G 410 VQMOVUN.S16 D21,Q12
|
/external/libavc/common/arm/ |
D | ih264_iquant_itrans_recon_dc_a9.s | 261 vld1.32 d24, [r1], r3 @ Q12 = 0x070605....0x070605.... 263 vld1.32 d25, [r1], r3 @ Q12 = 0x070605....0x070605.... 265 vld1.32 d26, [r1], r3 @ Q12 = 0x070605....0x070605.... 267 vld1.32 d27, [r1], r3 @ Q12 = 0x070605....0x070605.... 269 vld1.32 d28, [r1], r3 @ Q12 = 0x070605....0x070605.... 271 vld1.32 d29, [r1], r3 @ Q12 = 0x070605....0x070605.... 273 vld1.32 d30, [r1], r3 @ Q12 = 0x070605....0x070605.... 275 vld1.32 d31, [r1], r3 @ Q12 = 0x070605....0x070605....
|
D | ih264_deblk_luma_a9.s | 111 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0) 123 vcge.u8 q12, q12, q8 @Q12=( ABS(q1 - q0) >= Beta ) 130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0) 134 vshl.i16 q12, q12, #2 @Q12 = (q0 - p0)<<2 138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1) 142 vqrshrn.s16 d25, q13, #3 @Q12 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3 165 vcge.s8 q12, q12, #0 @Q12 = (i_macro >= 0)
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 161 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES 220 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES 286 @Q12,Q13 HAVE VERTICAL FILTERED VALUES 321 @Q12,Q13 HAVE VERTICAL FILTERED VALUES 370 @Q12,Q13 HAVE VERTICAL FILTERED VALUES 407 @Q12,Q13 HAVE VERTICAL FILTERED VALUES
|
D | ih264_iquant_itrans_recon_a9.s | 534 vld1.32 {q12}, [r5]! @ Q12 = Dequant values row 5 732 vld1.32 d28, [r1], r3 @ Q12 = 0x070605....0x070605.... 739 vld1.32 d29, [r1], r3 @ Q12 = 0x070605....0x070605.... 743 vld1.32 d30, [r1], r3 @ Q12 = 0x070605....0x070605.... 747 vld1.32 d31, [r1], r3 @ Q12 = 0x070605....0x070605.... 823 vld1.32 d16, [r1], r3 @ Q12 = 0x070605....0x070605.... 826 vld1.32 d17, [r1], r3 @ Q12 = 0x070605....0x070605.... 829 vld1.32 d18, [r1], r3 @ Q12 = 0x070605....0x070605.... 832 vld1.32 d19, [r1], r3 @ Q12 = 0x070605....0x070605....
|
D | ih264_deblk_chroma_a9.s | 109 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0) 116 vcge.u8 q12, q12, q8 @Q12= ( ABS(q1 - q0) >= Beta ) 294 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0) 301 vcge.u8 q12, q12, q8 @Q12= ( ABS(q1 - q0) >= Beta ) 721 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0) 729 vcge.u8 q12, q12, q8 @Q12= ( ABS(q1 - q0) >= Beta ) 809 vdup.16 q12, r3 @Q12 = beta 935 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0) 943 vcge.u8 q12, q12, q8 @Q12= ( ABS(q1 - q0) >= Beta ) 1046 vdup.16 q12, r3 @Q12 = beta
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 135 vmov.u16 q12, #0x5 @ Filter coeff 5 into Q12 146 vmov.u16 q15, #0x5 @ Filter coeff 5 into Q12
|
D | ih264_inter_pred_filters_luma_vert_a9q.s | 113 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12
|
D | ih264_inter_pred_luma_vert_qpel_a9q.s | 121 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12
|
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 143 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12 611 vmov.u16 q12, #5 @ Filter coeff 5 into Q12
|
/external/libgdx/extensions/gdx-bullet/jni/src/bullet/BulletCollision/CollisionDispatch/ |
D | btBoxBoxDetector.cpp | 272 Q11,Q12,Q13,Q21,Q22,Q23,Q31,Q32,Q33,s,s2,l; in dBoxBox2() local 292 Q11 = btFabs(R11); Q12 = btFabs(R12); Q13 = btFabs(R13); in dBoxBox2() 321 TST (pp[0],(A[0] + B[0]*Q11 + B[1]*Q12 + B[2]*Q13),R1+0,1); in dBoxBox2() 327 TST (dDOT41(R2+1,p),(A[0]*Q12 + A[1]*Q22 + A[2]*Q32 + B[1]),R2+1,5); in dBoxBox2() 351 Q12 += fudge2; in dBoxBox2() 363 TST(pp[2]*R21-pp[1]*R31,(A[1]*Q31+A[2]*Q21+B[1]*Q13+B[2]*Q12),0,-R31,R21,7); in dBoxBox2() 365 TST(pp[2]*R23-pp[1]*R33,(A[1]*Q33+A[2]*Q23+B[0]*Q12+B[1]*Q11),0,-R33,R23,9); in dBoxBox2() 369 TST(pp[0]*R32-pp[2]*R12,(A[0]*Q32+A[2]*Q12+B[0]*Q23+B[2]*Q21),R32,0,-R12,11); in dBoxBox2() 374 TST(pp[1]*R12-pp[0]*R22,(A[0]*Q22+A[1]*Q12+B[0]*Q33+B[2]*Q31),-R22,R12,0,14); in dBoxBox2()
|
/external/llvm/lib/Target/AArch64/ |
D | AArch64PBQPRegAlloc.cpp | 135 case AArch64::Q12: in isOdd()
|
/external/llvm/lib/Target/AArch64/InstPrinter/ |
D | AArch64InstPrinter.cpp | 1187 case AArch64::Q11: Reg = AArch64::Q12; break; in getNextVectorRegister() 1188 case AArch64::Q12: Reg = AArch64::Q13; break; in getNextVectorRegister()
|
/external/libavc/encoder/arm/ |
D | ime_distortion_metrics_a9q.s | 519 vadd.u16 q12, q12, q13 @ Q12 : sad_ref3 889 @;Q11:Q12 : sad_bot 897 @; Q6,Q8,Q10,Q12
|
/external/llvm/lib/Target/Sparc/Disassembler/ |
D | SparcDisassembler.cpp | 102 SP::Q4, SP::Q12, ~0U, ~0U,
|
/external/valgrind/memcheck/ |
D | mc_machine.c | 1006 if (o >= GOF(Q12) && o+sz <= GOF(Q12)+SZB(Q12)) return GOF(Q12); in get_otrack_shadow_offset_wrk()
|
/external/llvm/lib/Target/Sparc/ |
D | SparcRegisterInfo.td | 239 def Q12 : Rq<17, "F48", [D24, D25]>;
|