• Home
  • Raw
  • Download

Lines Matching refs:q10

253     vmul.s16        q10, q10, q2
508 vqrshrn.s16 d18, q10, #2
522 vtrn.16 q10, q11
534 vadd.u8 q10, q10, q0
742 vmul.s16 q10, q10, q2
754 vsub.s16 q2, q10, q14
755 vadd.s16 q14, q10, q14
764 vadd.s16 q10, q2, q4
771 vsub.s16 q10, q10, q14
776 vadd.s16 q5, q6, q10
777 vsub.s16 q10, q6, q10
790 vsub.s16 q13, q10, q2
791 vadd.s16 q10, q10, q2
797 vtrn.16 q10, q11
801 vtrn.32 q8, q10
806 vsub.s16 q2, q10, q14
808 vadd.s16 q14, q10, q14
818 vadd.s16 q10, q2, q4
825 vsub.s16 q10, q10, q14
830 vadd.s16 q5, q6, q10
831 vsub.s16 q10, q6, q10
844 vsub.s16 q13, q10, q2
846 vadd.s16 q10, q10, q2
853 vqshrn.s16 d18, q10, #5
861 vadd.u8 q10, q10, q0
865 vtrn.16 q10, q11
866 vtrn.32 q8, q10
975 vadd.s32 q10, q14, q13
979 vrshr.s32 q10, q10, #\shift
981 vmovn.s32 \y26, q10
984 vrshrn.s32 \y26, q10, #\shift
988 vadd.s32 q10, q15, q12
992 vrshr.s32 q10, q10, #\shift
994 vmovn.s32 \y27, q10
997 vrshrn.s32 \y27, q10, #\shift
1040 vmul.s16 q3, q3, q10
1147 vadd.s32 q10, q14, q13
1151 vrshr.s32 q10, q10, #\shift
1153 vmovn.s32 \y26, q10
1156 vrshrn.s32 \y26, q10, #\shift
1198 vmul.s16 q3, q3, q10
1226 vadd.s32 q10, q14, q13
1228 vrshrn.s32 d4, q10, #13
1230 vadd.s32 q10, q15, q12
1232 vrshrn.s32 d5, q10, #13
1381 vmull.s16 q10, d6, d1[1] /* multiply by -11277 */
1382 vmlal.s16 q10, d8, d1[2] /* multiply by -23401 */
1392 vrshrn.s32 d20, q10, #15
1398 vaddw.u8 q11, q10, d0
1416 vrshrn.s32 d20, q10, #15
1429 vaddw.u8 q11, q10, d0
1430 vmull.s16 q10, d6, d1[1] /* multiply by -11277 */
1431 vmlal.s16 q10, d8, d1[2] /* multiply by -23401 */
1738 vmovn.u16 d20, q10 /* d20 = y */
1758 vmovn.u16 d20, q10 /* d20 = y */
1951 vsubl.u8 q10, d20, d0
2043 vtrn.16 q10, q11
2048 vtrn.32 q8, q10
2057 vsub.s16 q6, q10, q13
2058 vadd.s16 q10, q10, q13
2063 vsub.s16 q4, q9, q10
2065 vadd.s16 q3, q9, q10
2076 vadd.s16 q10, q5, q4
2138 vadd.u16 q12, q12, q10 /* add correction */
2140 vmull.u16 q10, d24, d16 /* multiply by reciprocal */
2145 vshrn.u32 d20, q10, #16
2153 vshl.u16 q14, q10, q12 /* shift */
2166 vadd.u16 q12, q12, q10 /* add correction */
2168 vmull.u16 q10, d24, d16 /* multiply by reciprocal */
2175 vshrn.u32 d20, q10, #16
2184 vshl.u16 q14, q10, q12 /* shift */
2233 vaddw.u8 q10, q15, d4
2237 vmlal.u8 q10, d0, d28
2242 vshrn.u16 d8, q10, #2
2260 vaddw.u8 q10, q15, d4
2264 vmlal.u8 q10, d0, d28
2270 vshrn.u16 d8, q10, #2
2275 vaddw.u8 q10, q15, d4
2279 vmlal.u8 q10, d2, d28
2284 vshrn.u16 d8, q10, #2
2354 vaddw.u8 q10, q15, d4
2358 vmlal.u8 q10, d0, d28
2362 vshrn.u16 d11, q10, #2
2514 veor q10, q10, q10
2582 vcgt.s16 q10, q10, q2
2590 veor q10, q10, q2
2615 vand q10, q10, q2
2629 veor q10, q10, q10
2689 vcgt.s16 q10, q10, q6
2697 veor q10, q10, q6
2723 vand q10, q10, q6