Home
last modified time | relevance | path

Searched refs:Q12 (Results 1 – 25 of 35) sorted by relevance

12

/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class0_chroma.s180 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
204 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
208 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
213 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
215 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
219 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
229 VAND Q12,Q12,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
344 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
367 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
371 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
[all …]
Dihevc_sao_edge_offset_class2_chroma.s484 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
488 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
504 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
510 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
625 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
629 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
632 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
779 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
780 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
783 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
[all …]
Dihevc_sao_edge_offset_class3.s385 VCGT.U8 Q12,Q6,Q9 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
393 …VSUB.U8 Q12,Q13,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
403 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
406 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
499 VCGT.U8 Q12,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
505 … VSUB.U8 Q12,Q13,Q12 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
511 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
650 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
653 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
659 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down)
[all …]
Dihevc_sao_edge_offset_class2.s294 VADD.I8 Q12,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up)
299 VADD.I8 Q12,Q12,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down)
360 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
368 …VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
379 VADD.I8 Q11,Q11,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
383 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
609 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
612 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
618 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down)
740 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
[all …]
Dihevc_sao_edge_offset_class3_chroma.s487 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
495 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
507 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
510 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
802 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
803 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
806 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
808 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down)
972 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
973 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
[all …]
Dihevc_sao_edge_offset_class0.s309 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
310 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
315 VAND Q12,Q12,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
Dihevc_sao_edge_offset_class1.s166 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row)
168 …VSUB.U8 Q4,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
304 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_next_row)
308 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
Dihevc_sao_edge_offset_class1_chroma.s171 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row)
173 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
322 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_next_row)
326 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
/external/libhevc/decoder/arm/
Dihevcd_fmt_conv_420sp_to_rgba8888.s224 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G
237 VQMOVUN.S16 D21,Q12
265 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G
288 VQMOVUN.S16 D21,Q12
355 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G
368 VQMOVUN.S16 D21,Q12
396 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G
410 VQMOVUN.S16 D21,Q12
/external/libavc/common/arm/
Dih264_iquant_itrans_recon_dc_a9.s261 vld1.32 d24, [r1], r3 @ Q12 = 0x070605....0x070605....
263 vld1.32 d25, [r1], r3 @ Q12 = 0x070605....0x070605....
265 vld1.32 d26, [r1], r3 @ Q12 = 0x070605....0x070605....
267 vld1.32 d27, [r1], r3 @ Q12 = 0x070605....0x070605....
269 vld1.32 d28, [r1], r3 @ Q12 = 0x070605....0x070605....
271 vld1.32 d29, [r1], r3 @ Q12 = 0x070605....0x070605....
273 vld1.32 d30, [r1], r3 @ Q12 = 0x070605....0x070605....
275 vld1.32 d31, [r1], r3 @ Q12 = 0x070605....0x070605....
Dih264_deblk_luma_a9.s111 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0)
123 vcge.u8 q12, q12, q8 @Q12=( ABS(q1 - q0) >= Beta )
130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0)
134 vshl.i16 q12, q12, #2 @Q12 = (q0 - p0)<<2
138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1)
142 vqrshrn.s16 d25, q13, #3 @Q12 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3
165 vcge.s8 q12, q12, #0 @Q12 = (i_macro >= 0)
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s161 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES
220 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES
286 @Q12,Q13 HAVE VERTICAL FILTERED VALUES
321 @Q12,Q13 HAVE VERTICAL FILTERED VALUES
370 @Q12,Q13 HAVE VERTICAL FILTERED VALUES
407 @Q12,Q13 HAVE VERTICAL FILTERED VALUES
Dih264_iquant_itrans_recon_a9.s534 vld1.32 {q12}, [r5]! @ Q12 = Dequant values row 5
732 vld1.32 d28, [r1], r3 @ Q12 = 0x070605....0x070605....
739 vld1.32 d29, [r1], r3 @ Q12 = 0x070605....0x070605....
743 vld1.32 d30, [r1], r3 @ Q12 = 0x070605....0x070605....
747 vld1.32 d31, [r1], r3 @ Q12 = 0x070605....0x070605....
823 vld1.32 d16, [r1], r3 @ Q12 = 0x070605....0x070605....
826 vld1.32 d17, [r1], r3 @ Q12 = 0x070605....0x070605....
829 vld1.32 d18, [r1], r3 @ Q12 = 0x070605....0x070605....
832 vld1.32 d19, [r1], r3 @ Q12 = 0x070605....0x070605....
Dih264_deblk_chroma_a9.s109 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0)
116 vcge.u8 q12, q12, q8 @Q12= ( ABS(q1 - q0) >= Beta )
294 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0)
301 vcge.u8 q12, q12, q8 @Q12= ( ABS(q1 - q0) >= Beta )
721 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0)
729 vcge.u8 q12, q12, q8 @Q12= ( ABS(q1 - q0) >= Beta )
809 vdup.16 q12, r3 @Q12 = beta
935 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0)
943 vcge.u8 q12, q12, q8 @Q12= ( ABS(q1 - q0) >= Beta )
1046 vdup.16 q12, r3 @Q12 = beta
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s135 vmov.u16 q12, #0x5 @ Filter coeff 5 into Q12
146 vmov.u16 q15, #0x5 @ Filter coeff 5 into Q12
Dih264_inter_pred_filters_luma_vert_a9q.s113 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12
Dih264_inter_pred_luma_vert_qpel_a9q.s121 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s143 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12
611 vmov.u16 q12, #5 @ Filter coeff 5 into Q12
/external/libgdx/extensions/gdx-bullet/jni/src/bullet/BulletCollision/CollisionDispatch/
DbtBoxBoxDetector.cpp272 Q11,Q12,Q13,Q21,Q22,Q23,Q31,Q32,Q33,s,s2,l; in dBoxBox2() local
292 Q11 = btFabs(R11); Q12 = btFabs(R12); Q13 = btFabs(R13); in dBoxBox2()
321 TST (pp[0],(A[0] + B[0]*Q11 + B[1]*Q12 + B[2]*Q13),R1+0,1); in dBoxBox2()
327 TST (dDOT41(R2+1,p),(A[0]*Q12 + A[1]*Q22 + A[2]*Q32 + B[1]),R2+1,5); in dBoxBox2()
351 Q12 += fudge2; in dBoxBox2()
363 TST(pp[2]*R21-pp[1]*R31,(A[1]*Q31+A[2]*Q21+B[1]*Q13+B[2]*Q12),0,-R31,R21,7); in dBoxBox2()
365 TST(pp[2]*R23-pp[1]*R33,(A[1]*Q33+A[2]*Q23+B[0]*Q12+B[1]*Q11),0,-R33,R23,9); in dBoxBox2()
369 TST(pp[0]*R32-pp[2]*R12,(A[0]*Q32+A[2]*Q12+B[0]*Q23+B[2]*Q21),R32,0,-R12,11); in dBoxBox2()
374 TST(pp[1]*R12-pp[0]*R22,(A[0]*Q22+A[1]*Q12+B[0]*Q33+B[2]*Q31),-R22,R12,0,14); in dBoxBox2()
/external/llvm/lib/Target/AArch64/
DAArch64PBQPRegAlloc.cpp135 case AArch64::Q12: in isOdd()
/external/llvm/lib/Target/AArch64/InstPrinter/
DAArch64InstPrinter.cpp1187 case AArch64::Q11: Reg = AArch64::Q12; break; in getNextVectorRegister()
1188 case AArch64::Q12: Reg = AArch64::Q13; break; in getNextVectorRegister()
/external/libavc/encoder/arm/
Dime_distortion_metrics_a9q.s519 vadd.u16 q12, q12, q13 @ Q12 : sad_ref3
889 @;Q11:Q12 : sad_bot
897 @; Q6,Q8,Q10,Q12
/external/llvm/lib/Target/Sparc/Disassembler/
DSparcDisassembler.cpp102 SP::Q4, SP::Q12, ~0U, ~0U,
/external/valgrind/memcheck/
Dmc_machine.c1006 if (o >= GOF(Q12) && o+sz <= GOF(Q12)+SZB(Q12)) return GOF(Q12); in get_otrack_shadow_offset_wrk()
/external/llvm/lib/Target/Sparc/
DSparcRegisterInfo.td239 def Q12 : Rq<17, "F48", [D24, D25]>;

12