Lines Matching refs:q3
111 JLONG q1, q2, q3, q4, q5, q6, q7; \
133 q3 = ((JLONG)row0 - (JLONG)row4) << 13; \
137 q1 = q3 + q2; \
155 q3 = q3 - q2; \
171 tmp12 = q3; \
255 vmul.s16 q11, q11, q3
263 vmul.s16 q15, q15, q3
274 vsubl.s16 q3, ROW0L, ROW4L
283 vshl.s32 q3, q3, #13
287 vadd.s32 q1, q3, q2
306 vsub.s32 q3, q3, q2
310 vadd.s32 q1, q3, q5
312 vsub.s32 q3, q3, q5
317 vrshrn.s32 ROW5L, q3, #11
330 vsub.s32 q3, q1, q4
335 vrshrn.s32 ROW4L, q3, #11
352 vsubl.s16 q3, ROW0R, ROW4R
360 vshl.s32 q3, q3, #13
363 vadd.s32 q1, q3, q2
377 vsub.s32 q3, q3, q2
379 vadd.s32 q1, q3, q5
380 vsub.s32 q3, q3, q5
383 vrshrn.s32 ROW5R, q3, #11
391 vsub.s32 q3, q1, q4
395 vrshrn.s32 ROW4R, q3, #11
416 vsubl.s16 q3, ROW0L, ROW0R /* ROW4L <-> ROW0R */
422 vshl.s32 q3, q3, #13
424 vadd.s32 q1, q3, q2
436 vsub.s32 q3, q3, q2
438 vadd.s32 q1, q3, q5
439 vsub.s32 q3, q3, q5
442 vshrn.s32 ROW1R, q3, #16 /* ROW5L <-> ROW1R */
450 vsub.s32 q3, q1, q4
454 vshrn.s32 ROW0R, q3, #16 /* ROW4L <-> ROW0R */
465 vsubl.s16 q3, ROW4L, ROW4R /* ROW4L <-> ROW0R */
471 vshl.s32 q3, q3, #13
473 vadd.s32 q1, q3, q2
485 vsub.s32 q3, q3, q2
487 vadd.s32 q1, q3, q5
488 vsub.s32 q3, q3, q5
491 vshrn.s32 ROW5R, q3, #16
499 vsub.s32 q3, q1, q4
503 vshrn.s32 ROW4R, q3, #16
584 vshll.s16 q3, ROW0L, #13
588 vadd.s32 q1, q3, q2
597 vsub.s32 q3, q3, q2
599 vadd.s32 q1, q3, q5
600 vsub.s32 q3, q3, q5
603 vshrn.s32 ROW1R, q3, #16 /* ROW5L <-> ROW1R */
609 vsub.s32 q3, q1, q4
613 vshrn.s32 ROW0R, q3, #16 /* ROW4L <-> ROW0R */
621 vshll.s16 q3, ROW4L, #13
625 vadd.s32 q1, q3, q2
634 vsub.s32 q3, q3, q2
636 vadd.s32 q1, q3, q5
637 vsub.s32 q3, q3, q5
640 vshrn.s32 ROW5R, q3, #16
646 vsub.s32 q3, q1, q4
650 vshrn.s32 ROW4R, q3, #16
744 vmul.s16 q11, q11, q3
751 vmul.s16 q15, q15, q3
762 vadd.s16 q3, q1, q1
767 vadd.s16 q3, q3, q6
780 vsub.s16 q3, q6, q3
782 vsub.s16 q3, q3, q1
784 vadd.s16 q2, q3, q2
788 vadd.s16 q14, q5, q3
789 vsub.s16 q9, q5, q3
816 vadd.s16 q3, q1, q1
821 vadd.s16 q3, q3, q6
834 vsub.s16 q3, q6, q3
836 vsub.s16 q3, q3, q1
838 vadd.s16 q2, q3, q2
842 vadd.s16 q14, q5, q3
843 vsub.s16 q9, q5, q3
1040 vmul.s16 q3, q3, q10
1198 vmul.s16 q3, q3, q10
1234 vtrn.16 q2, q3
1235 vtrn.32 q3, q5
1379 vaddw.u8 q3, q1, d4 /* q3 = u - 128 */
1427 vaddw.u8 q3, q1, d4 /* q3 = u - 128 */
1705 vmovl.u8 q3, d1\g_offs /* g = { d6, d7 } */
1761 vmovl.u8 q3, d1\g_offs /* g = { d6, d7 } */
2065 vadd.s16 q3, q9, q10
2070 vadd.s16 q8, q2, q3
2071 vsub.s16 q12, q2, q3
2072 vadd.s16 q3, q6, q7
2074 vqdmulh.s16 q3, q3, XFIX_0_707106781
2081 vadd.s16 q4, q1, q3
2082 vsub.s16 q3, q1, q3
2086 vadd.s16 q13, q3, q11
2087 vsub.s16 q11, q3, q11
2152 vshr.s16 q3, q1, #15
2164 veor.u16 q15, q15, q3
2174 vsub.u16 q15, q15, q3
2183 vshr.s16 q3, q1, #15
2191 veor.u16 q15, q15, q3
2193 vsub.u16 q15, q15, q3
2583 vcgt.s16 q11, q11, q3
2587 vabs.s16 q3, q3
2591 veor q11, q11, q3
2598 vclz.i16 q3, q3
2602 vsub.i16 q3, q14, q3
2608 vshl.s16 q3, q15, q3
2612 vsub.i16 q3, q3, q15
2616 vand q11, q11, q3
2748 vceq.i16 q3, q3, q8
2756 vmovn.i16 d6, q3