• Home
  • Raw
  • Download

Lines Matching refs:p0

103     mov           r7, r0                @keeping backup of pointer to p0
104 vld1.8 {q3}, [r0], r1 @p0 values are loaded into q3
107 vabd.u8 q13, q4, q3 @Q13 = ABS(p1 - p0)
109 vabd.u8 q11, q3, q0 @Q11 = ABS(p0 - q0)
118 vabd.u8 q14, q5, q3 @Q14 = Ap = ABS(p2 - p0)
122 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha )
124 vcge.u8 q13, q13, q8 @Q13=( ABS(p1 - p0) >= Beta )
128 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta )
130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0)
131 …r q9, q9, q13 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | ( AB…
133 vshl.i16 q13, q15, #2 @Q13 = (q0 - p0)<<2
134 vshl.i16 q12, q12, #2 @Q12 = (q0 - p0)<<2
138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1)
140 vrhadd.u8 q8, q3, q0 @Q8 = ((p0+q0+1) >> 1)
142 vqrshrn.s16 d25, q13, #3 @Q12 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3
148 vaddl.u8 q5, d16, d10 @Q14,Q5 = p2 + (p0+q0+1)>>1
152 vaddl.u8 q2, d16, d4 @Q15,Q2 = q2 + (p0+q0+1)>>1
155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1)
162 vsub.i16 q15, q15, q13 @Q15,Q2 = [q2 + (p0+q0+1)>>1] - (q1<<1)
169 vqadd.u8 q8, q3, q9 @Q8 = p0 + delta
170 vqsub.u8 q3, q3, q9 @Q3 = p0 - delta
176 vbif q8, q3, q12 @Q8 = (i_macro >= 0 ) ? (p0+delta) : (p0-delta)
180 vst1.8 {q8}, [r7], r1 @writting back filtered value of p0
231 sub r12, r0, r1 @pointer to p0 = q0 - src_strd
239 vld1.8 {d6, d7}, [r12] @load p0 to Q3
244 vabd.u8 q6, q2, q3 @ABS(p0 - q0)
246 vabd.u8 q8, q5, q3 @ABS(p1 - p0)
247 vcge.u8 q9, q6, q0 @ABS(p0 - q0) >= Alpha
249 vcge.u8 q8, q8, q1 @ABS(p1 - p0) >= Beta
251 vorr q9, q9, q7 @ABS(p0 - q0) >= Alpha || ABS(q1 - q0) >= Beta
253 …vorr q9, q9, q8 @ABS(p0 - q0) >= Alpha || ABS(q1 - q0) >= Beta || ABS(p1 - p0)…
256 vaddl.u8 q12, d4, d6 @p0+q0 L
257 vaddl.u8 q13, d5, d7 @p0+q0 H
259 vclt.u8 q10, q6, q10 @(ABS(p0 - q0) <((Alpha >>2) + 2))
265 @ q0' if (Aq < Beta && ABS(p0 - q0) <((Alpha >>2) + 2)) TRUE
266 vadd.i16 q8, q14, q14 @2*(p0+q0+q1)L
267 vadd.i16 q0, q15, q15 @2*(p0+q0+q1)H
268 vaddw.u8 q8, q8, d14 @2*(p0+q0+q1)+q2 L
269 vaddw.u8 q0, q0, d15 @2*(p0+q0+q1)+q2 H
270 vaddw.u8 q8, q8, d10 @2*(p0+q0+q1)+q2 +p1 L
271 vaddw.u8 q0, q0, d11 @2*(p0+q0+q1)+q2 +p1 H
272 vrshrn.u16 d12, q8, #3 @(2*(p0+q0+q1)+q2 +p1 +4)>> 3 L [q0']
289 …vbic q11, q11, q9 @((ABS(p0 - q0) >= Alpha || ABS(q1 - q0) >= Beta || ABS(p1 -
290 @ && (Aq < Beta && ABS(p0 - q0) <((Alpha >>2) + 2))
291 vrshrn.u16 d12, q14, #2 @(p0+q0+q1+q2+2)>>2 L [q1']
303 vrshrn.u16 d1, q15, #3 @(p0+q0+q1+3*q2+2*q3+4)>>3 H [q2']
322 vrshrn.u16 d29, q2, #3 @(2*(p0+q0+p1)+p2+q1+4)>>3 H,p0'
334 vrshrn.u16 d2, q1, #2 @(2*p1+p0+q1+2)>>2,p0"L
338 vmla.u16 q6, q4, d1[0] @(p0+q0+p1)+3*p2+2*p3 L
339 vmla.u16 q2, q8, d1[0] @(p0+q0+p1)+3*p2+2*p3 H
340 …vbic q8, q10, q9 @((ABS(p0 - q0) >= Alpha || ABS(q1 - q0) >= Beta || ABS(p1 -
341 @&& (Ap < Beta && ABS(p0 - q0) <((Alpha >>2) + 2))
344 vrshrn.u16 d13, q2, #3 @((p0+q0+p1)+3*p2+2*p3+4)>>3 H p2'
679 vrshrn.u16 d21, q9, #2 @(p2 + p1 + p0 + q0 + 2) >> 2)H p1'
684 vrshrn.u16 d25, q13, #3 @((p2 + X2(p1) + X2(p0) + X2(q0) + q1 + 4) >> 3) H p0'
698 vbif q12, q11, q7 @p0' or p0 "
742 vrshrn.u16 d17, q2, #3 @(p1 + X2(p0) + X2(q0) + X2(q1) + q2 + 4) >> 3 H qo"
868 vabd.u8 d11, d3, d4 @ABD(p0-q0)
870 vabd.u8 d15, d1, d3 @Ap = ABD(p2-p0)
871 vrshrn.u16 d12, q6, #3 @((p2 + X2(p1) + X2(p0) + X2(q0) + q1 + 4) >> 3) p0'
880 vbif d12, d11, d26 @p0' or p0 "
913 vrshrn.u16 d2, q10, #2 @p0 + q0 + q1 + q2 + 2)>>2 q1'