• Home
  • Raw
  • Download

Lines Matching refs:q10

250     vmul.s16        q10, q10, q2
504 vqrshrn.s16 d18, q10, #2
518 vtrn.16 q10, q11
530 vadd.u8 q10, q10, q0
737 vmul.s16 q10, q10, q2
749 vsub.s16 q2, q10, q14
750 vadd.s16 q14, q10, q14
759 vadd.s16 q10, q2, q4
766 vsub.s16 q10, q10, q14
771 vadd.s16 q5, q6, q10
772 vsub.s16 q10, q6, q10
785 vsub.s16 q13, q10, q2
786 vadd.s16 q10, q10, q2
792 vtrn.16 q10, q11
796 vtrn.32 q8, q10
801 vsub.s16 q2, q10, q14
803 vadd.s16 q14, q10, q14
813 vadd.s16 q10, q2, q4
820 vsub.s16 q10, q10, q14
825 vadd.s16 q5, q6, q10
826 vsub.s16 q10, q6, q10
839 vsub.s16 q13, q10, q2
841 vadd.s16 q10, q10, q2
848 vqshrn.s16 d18, q10, #5
856 vadd.u8 q10, q10, q0
860 vtrn.16 q10, q11
861 vtrn.32 q8, q10
970 vadd.s32 q10, q14, q13
974 vrshr.s32 q10, q10, #\shift
976 vmovn.s32 \y26, q10
979 vrshrn.s32 \y26, q10, #\shift
983 vadd.s32 q10, q15, q12
987 vrshr.s32 q10, q10, #\shift
989 vmovn.s32 \y27, q10
992 vrshrn.s32 \y27, q10, #\shift
1036 vmul.s16 q3, q3, q10
1143 vadd.s32 q10, q14, q13
1147 vrshr.s32 q10, q10, #\shift
1149 vmovn.s32 \y26, q10
1152 vrshrn.s32 \y26, q10, #\shift
1195 vmul.s16 q3, q3, q10
1223 vadd.s32 q10, q14, q13
1225 vrshrn.s32 d4, q10, #13
1227 vadd.s32 q10, q15, q12
1229 vrshrn.s32 d5, q10, #13
1378 vmull.s16 q10, d6, d1[1] /* multiply by -11277 */
1379 vmlal.s16 q10, d8, d1[2] /* multiply by -23401 */
1389 vrshrn.s32 d20, q10, #15
1395 vaddw.u8 q11, q10, d0
1413 vrshrn.s32 d20, q10, #15
1426 vaddw.u8 q11, q10, d0
1427 vmull.s16 q10, d6, d1[1] /* multiply by -11277 */
1428 vmlal.s16 q10, d8, d1[2] /* multiply by -23401 */
1735 vmovn.u16 d20, q10 /* d20 = y */
1755 vmovn.u16 d20, q10 /* d20 = y */
1948 vsubl.u8 q10, d20, d0
2040 vtrn.16 q10, q11
2045 vtrn.32 q8, q10
2054 vsub.s16 q6, q10, q13
2055 vadd.s16 q10, q10, q13
2060 vsub.s16 q4, q9, q10
2062 vadd.s16 q3, q9, q10
2073 vadd.s16 q10, q5, q4
2135 vadd.u16 q12, q12, q10 /* add correction */
2137 vmull.u16 q10, d24, d16 /* multiply by reciprocal */
2142 vshrn.u32 d20, q10, #16
2150 vshl.u16 q14, q10, q12 /* shift */
2163 vadd.u16 q12, q12, q10 /* add correction */
2165 vmull.u16 q10, d24, d16 /* multiply by reciprocal */
2172 vshrn.u32 d20, q10, #16
2181 vshl.u16 q14, q10, q12 /* shift */
2230 vaddw.u8 q10, q15, d4
2234 vmlal.u8 q10, d0, d28
2239 vshrn.u16 d8, q10, #2
2257 vaddw.u8 q10, q15, d4
2261 vmlal.u8 q10, d0, d28
2267 vshrn.u16 d8, q10, #2
2272 vaddw.u8 q10, q15, d4
2276 vmlal.u8 q10, d2, d28
2281 vshrn.u16 d8, q10, #2
2351 vaddw.u8 q10, q15, d4
2355 vmlal.u8 q10, d0, d28
2359 vshrn.u16 d11, q10, #2