Lines Matching refs:q12
86 vmull.s16 q12, d1, d4[0]
90 vshrn.s32 d21, q12, #16
108 vmull.s16 q12, d1, d4[0]
114 vshrn.s32 d20, q12, #16
199 vaddw.u8 q12, q9, d4
211 vqmovun.s16 d24, q12
246 vaddw.u8 q12, q8, d4
255 vqmovun.s16 d24, q12
260 vst1.8 {q12}, [r0,:128], r2
284 vabd.u8 q12, q2, q3 @ abs(P1-P0)
288 vcle.u8 q8, q12, q15 @ abs(P1-P0) <= flim_I
307 vcgt.u8 q12, q12, q15 @ abs(P1-P0) > hev_thresh
312 vorr q9, q12, q14
323 vmov.i16 q12, #3
328 vmul.i16 q10, q10, q12 @ w = 3 * (QS0 - PS0)
329 vmul.i16 q11, q11, q12
331 vqsub.s8 q12, q2, q5 @ clamp(PS1-QS1)
335 vand q12, q12, q9 @ if(hev) w += clamp(PS1-QS1)
356 @ q8, q11, q12 -> unused
366 vqadd.s8 q12, q10, q15 @ c2 = clamp((w&hev)+3)
368 vshr.s8 q12, q12, #3 @ c2 >>= 3
370 vqadd.s8 q3, q3, q12 @ PS0 = clamp(PS0+c2)
381 vqadd.s8 q12, q10, q15 @ c2 = clamp((w&hev)+3)
383 vshr.s8 q12, q12, #3 @ c2 >>= 3
385 vqadd.s8 q3, q3, q12 @ PS0 = clamp(PS0+c2)
395 vand q12, q10, q9 @ w & hev
396 vqadd.s8 q11, q12, q14 @ c1 = clamp((w&hev)+4)
397 vqadd.s8 q12, q12, q15 @ c2 = clamp((w&hev)+3)
399 vshr.s8 q12, q12, #3 @ c2 >>= 3
402 vqadd.s8 q3, q3, q12 @ PS0 = clamp(PS0+c2)
422 vadd.s16 q12, q9, q15 @ 18*w + 63
424 vadd.s16 q15, q12, q15 @ 27*w + 63
428 vqshrn.s16 d23, q12, #7 @ clamp((18*w + 63)>>7)
728 vmovl.u8 q12, d30
733 vmls.u16 q11, q12, d1[0]
746 vmovl.u8 q12, d30
760 vmls.u16 q11, q12, d1[0]
761 vmovl.u8 q12, \s0
766 vmla.u16 q10, q12, d0[0]
781 vmovl.u8 q12, \s4
789 vmls.u16 q15, q12, d1[0]
795 vmla.u16 q14, q12, d0[3]
809 vmovl.u8 q12, d30
813 vmls.u16 q11, q12, d1[0]
822 vmovl.u8 q12, \s3
827 vmul.u16 q15, q12, d0[3]
829 vmls.u16 q14, q12, d1[0]
1581 vmull.u8 q12, d19, d1
1582 vmlal.u8 q12, d21, d0
1586 vrshrn.u16 d7, q12, #3
1650 vmull.u8 q12, d19, d1
1651 vmlal.u8 q12, d21, d0
1658 vrshrn.u16 d7, q12, #3
1659 vmull.u8 q12, d4, d3
1660 vmlal.u8 q12, d6, d2
1669 vrshrn.u16 d24, q12, #3
1671 vst1.8 {q12}, [r0,:128], r1
1759 vmull.u8 q12, d16, d3
1760 vmlal.u8 q12, d22, d2
1763 vrshrn.u16 d23, q12, #3