Home
last modified time | relevance | path

Searched refs:q10 (Results 1 – 25 of 96) sorted by relevance

1234

/third_party/openssl/crypto/modes/asm/arm32/
Dghashv8-armx.S16 vshr.u64 q10,q11,#63
18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
19 vshr.u64 q10,q3,#63
21 vand q10,q10,q8
23 vext.8 q10,q10,q10,#8
25 vorr q3,q3,q10 @ H<<<=1
37 veor q10,q0,q2
39 veor q1,q1,q10
40 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
44 veor q0,q1,q10
[all …]
Dghash-armv4.S424 vmull.p8 q10, d20, d6 @ J = A3*B
434 veor q10, q10, q0 @ N = I + J
446 vext.8 q10, q10, q10, #13
448 veor q10, q10, q11
450 veor q0, q0, q10
462 vmull.p8 q10, d20, d6 @ J = A3*B
472 veor q10, q10, q1 @ N = I + J
484 vext.8 q10, q10, q10, #13
486 veor q10, q10, q11
488 veor q1, q1, q10
[all …]
/third_party/ffmpeg/libavcodec/arm/
Dh264dsp_neon.S56 vabd.u8 q4, q10, q8 @ abs(p2 - p0)
68 vhadd.u8 q10, q10, q14
71 vmin.u8 q7, q7, q10
79 vmovl.u8 q10, d1
81 vsubw.u8 q10, q10, d17
83 vshl.i16 q10, q10, #2
85 vaddw.u8 q10, q10, d19
87 vsubw.u8 q10, q10, d3
89 vrshrn.i16 d5, q10, #3
156 transpose_8x8 q3, q10, q9, q8, q0, q1, q2, q13
[all …]
Dvc1dsp_neon.S65 @ vadd.i16 q0, q8, q10
71 @ vhadd.s16 q0, q8, q10
85 @ Trashes: r12 q8 q9 q10 q11 q12 q13
99 vmul.i16 q10, q1, d0[1] @ t3 = 22 * (src[1])
105 vmla.i16 q10, q3, d1[0] @ t3 += 10 * src[3]
108 vhadd.s16 q0, q8, q10 @ dst[0] = (t1 + t3) >> 1
109 vhsub.s16 q3, q8, q10 @ dst[3] = (t1 - t3) >> 1
146 vmla.i16 q14, q10, d0[0] @ t1|t2 = 12 * (temp1|temp2) + 64
176 vadd.i16 q10, q14, q15 @ t5|t6 = old t1|t2 + old t3|t4
202 vadd.i16 q3, q15, q10 @ line[7,6] = t5|t6 + 1
[all …]
Dhpeldsp_neon.S41 vld1.8 {q10}, [r12,:128], r2
42 vrhadd.u8 q2, q2, q10
126 vaddl.u8 q10, d1, d3
135 vadd.u16 q1 , q10, q11
145 vaddl.u8 q10, d1, d31
151 vadd.u16 q0, q10, q11
168 vadd.u16 q1 , q10, q11
177 vaddl.u8 q10, d1, d31
181 vadd.u16 q0, q10, q11
295 vadd.u16 q10, q8, q9
[all …]
Dh264idct_neon.S189 vshr.s16 q2, q10, #1
197 vadd.i16 q3, q3, q10
201 vtrn.32 q8, q10
207 vshr.s16 q14, q10, #1
215 vadd.i16 q3, q3, q10
217 vadd.i16 q10, q1, qa
248 vadd.i16 q9, q10, q2
249 vsub.i16 q2, q10, q2
251 vadd.i16 q10, q12, q1
255 vtrn.16 q10, q11
[all …]
Dhevcdsp_sao_neon.S45 vshl.u16 q10, q11, #8 // q10: highIndex; q9: lowIndex;
46 vadd.u16 q10, q9 // combine high and low index;
51 vsub.u8 q10, q14 // Look-up with 8bit
71 vshl.u16 q10, q11, #8 // q10: highIndex; q9: lowIndex;
72 vadd.u16 q10, q9 // combine high and low index;
77 vsub.u8 q10, q14 // Look-up with 8bit
131 vshl.u16 q10, q7, #8 // highIndex
132 vadd.u16 q10, q6 // combine lowIndex and highIndex, offset_val
164 vshl.u16 q10, q7, #8 // highIndex
165 vadd.u16 q10, q6 // combine lowIndex and highIndex, offset_val
Dlossless_audiodsp_neon.S39 vmul.s16 q10, q10, q14
43 vadd.s16 q10, q8, q10
47 vst1.16 {q10}, [r12,:128]!
Drv34dsp_neon.S31 vmull.s16 q10, d28, d0
32 vmlal.s16 q10, d30, d0
41 vadd.s32 q1, q10, q13 @ z0 + z3
43 vsub.s32 q8, q10, q13 @ z0 - z3
50 vadd.s32 q10, q1, q3
60 vmul.s32 q14, q10, d0[0]
104 vshl.s32 q10, q1, #1
108 vadd.s32 q10, q10, q1
111 vshrn.s32 d0, q10, #11 @ (z0 + z3)*3 >> 11
Dhevcdsp_qpel_neon.S81 vmull.s16 q10, d7, d16 // 58 * d1
91 vsub.s32 q10, q12 // 58 * d1 - 10 * c1
95 vadd.s32 q10, q14 // 58 * d1 - 10 * c1 + 17 * e1
99 vadd.s32 q10, q12 // 58 * d1 - 10 * c1 + 17 * e1 + 4 * b1
103 vadd.s32 q10, q14 // 58 * d1 - 10 * c1 + 17 * e1 + 4 * b1 + g1 - a1 - 5 * f1
105 vqshrn.s32 d17, q10, #6
113 vaddl.s16 q10, d7, d9 // d1 + e1
121 vmul.s32 q10, q8 // 40 * (d1 + e1)
130 vadd.s32 q10, q8 // 40 * (d1 + e1) + 4*(b1+g1)
132 vsub.s32 q10, q12 // 40 * (d1 + e1) + 4*(b1+g1) - (11 * (c1 + f1) + a1 + h1)
[all …]
Dvp9mc_16bpp_neon.S40 vld1.16 {q10, q11}, [r2], r3
41 vst1.16 {q10, q11}, [r0, :128], r1
56 vld1.16 {q10, q11}, [r2]!
61 vrhadd.u16 q2, q2, q10
69 vld1.16 {q10, q11}, [r0, :128], r1
70 vrhadd.u16 q10, q10, q14
73 vst1.16 {q10, q11}, [lr, :128], r1
88 vld1.16 {q10, q11}, [r2], r3
92 vrhadd.u16 q2, q2, q10
/third_party/ffmpeg/libswresample/arm/
Daudio_convert_neon.S77 vld1.32 {q10}, [r3,:128]!
78 vcvt.s32.f32 q10, q10, #31
87 vsri.32 q10, q8, #16
94 vst1.16 {q10}, [r0,:128]!
104 vld1.32 {q10}, [r3,:128]!
105 vcvt.s32.f32 q10, q10, #31
112 2: vsri.32 q10, q8, #16
122 vst1.16 {q10}, [r0,:128]!
128 3: vsri.32 q10, q8, #16
130 vst1.16 {q10-q11},[r0,:128]!
[all …]
/third_party/ffmpeg/libavresample/arm/
Daudio_convert_neon.S75 vld1.32 {q10}, [r3,:128]!
76 vcvt.s32.f32 q10, q10, #31
85 vsri.32 q10, q8, #16
92 vst1.16 {q10}, [r0,:128]!
102 vld1.32 {q10}, [r3,:128]!
103 vcvt.s32.f32 q10, q10, #31
110 2: vsri.32 q10, q8, #16
120 vst1.16 {q10}, [r0,:128]!
126 3: vsri.32 q10, q8, #16
128 vst1.16 {q10-q11},[r0,:128]!
[all …]
/third_party/openssl/crypto/aes/asm/arm32/
Dbsaes-armv7.S1159 vld1.8 {q10-q11}, [r0]!
1163 veor q4, q4, q10
1213 vld1.8 {q10-q11}, [r0]!
1217 veor q4, q4, q10
1236 vld1.8 {q10-q11}, [r0]!
1240 veor q4, q4, q10
1257 vld1.8 {q10-q11}, [r0]!
1261 veor q4, q4, q10
1275 vld1.8 {q10}, [r0]!
1279 veor q4, q4, q10
[all …]
/third_party/openh264/codec/encoder/core/arm/
Dreconstruct_neon.S323 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11
329 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11
347 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11
353 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11
372 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11
375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
389 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11
392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
405 NEWQUANT_COEF_EACH_16BITS q0, q8, d16, d17, d6, d7, q9, q10, q11
408 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
[all …]
Dpixel_neon.S43 vsubl.u8 q10, d1, d3
67 vadd.s16 q8, q10, q11
68 vsub.s16 q9, q10, q11
70 vadd.s16 q10, q14, q15
76 vadd.s16 q13, q8, q10
77 vsub.s16 q15, q8, q10
89 vabd.s16 q10, q12, q14
109 vtrn.32 q8, q10
115 vmax.s16 q0, q8, q10
139 vsubl.u8 q10, d4, d5
[all …]
/third_party/openh264/codec/common/arm/
Dcopy_mb_neon.S92 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3
94 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
100 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3
102 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
113 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3
115 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
121 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3
123 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
134 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3
136 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
Dmc_neon.S163 vext.8 q10, q0, q1, #5 //q10=src[3]
262 vext.8 q10, q0, q1, #5 //q10=src[3]
361 vext.8 q10, q0, q1, #5 //q10=src[3]
469 vst1.u8 {q10}, [r2], r3 //write 1st 16Byte
475 vst1.u8 {q10}, [r2], r3 //write 2nd 16Byte
481 vst1.u8 {q10}, [r2], r3 //write 3rd 16Byte
487 vst1.u8 {q10}, [r2], r3 //write 4th 16Byte
493 vst1.u8 {q10}, [r2], r3 //write 5th 16Byte
499 vst1.u8 {q10}, [r2], r3 //write 6th 16Byte
505 vst1.u8 {q10}, [r2], r3 //write 7th 16Byte
[all …]
/third_party/pixman/pixman/
Dpixman-arm-neon-asm.S167 vmull.u8 q10, d3, d6
170 vrshr.u16 q13, q10, #8
173 vraddhn.u16 d20, q10, q13
272 vmull.u8 q10, d3, d6
280 vrshr.u16 q13, q10, #8
287 vraddhn.u16 d20, q10, q13
365 vmull.u8 q10, d3, d6
368 vrshr.u16 q13, q10, #8
371 vraddhn.u16 d20, q10, q13
589 vmull.u8 q10, d24, d6
[all …]
/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm32/
DIndirectGemmInt16to32_8x4.S74 vmull.s16 q10, d8, d4[0]
82 vmlal.s16 q10, d9, d4[1]
84 vmlal.s16 q10, d10, d4[2]
86 vmlal.s16 q10, d11, d4[3]
99 vmlal.s16 q10, d12, d5[0]
101 vmlal.s16 q10, d13, d5[1]
103 vmlal.s16 q10, d14, d5[2]
105 vmlal.s16 q10, d15, d5[3]
159 vmlal.s16 q10, d8, d4[0]
167 vmlal.s16 q10, d9, d4[1]
[all …]
DTiledC4MatmulFp32.S51 vmul.f32 q10, q4, d4[0]
56 vmla.f32 q10, q5, d4[1]
61 vmla.f32 q10, q6, d5[0]
66 vmla.f32 q10, q7, d5[1]
104 vmla.f32 q10, q4, d4[0]
110 vmla.f32 q10, q5, d4[1]
115 vmla.f32 q10, q6, d5[0]
120 vmla.f32 q10, q7, d5[1]
156 vmla.f32 q10, q4, d4[0]
162 vmla.f32 q10, q5, d4[1]
[all …]
DMatVecMulFp32.S54 veor q10, q10, q10
71 vmla.f32 q10, q8, q1
133 veor q10, q10, q10
144 vmla.f32 q10, q1, q0
DConvDwFp32Row.S63 vld1.32 {q10, q11}, [r0]!
64 vmla.f32 q10, q2, q6
66 vst1.32 {q10, q11}, [r11]!
83 vld1.32 {q10, q11}, [r0]!
84 vmla.f32 q10, q2, q6
86 vst1.32 {q10, q11}, [r11]!
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/
Djsimd_neon.S253 vmul.s16 q10, q10, q2
508 vqrshrn.s16 d18, q10, #2
522 vtrn.16 q10, q11
534 vadd.u8 q10, q10, q0
742 vmul.s16 q10, q10, q2
754 vsub.s16 q2, q10, q14
755 vadd.s16 q14, q10, q14
764 vadd.s16 q10, q2, q4
771 vsub.s16 q10, q10, q14
776 vadd.s16 q5, q6, q10
[all …]
/third_party/libjpeg-turbo/simd/arm/
Djsimd_neon.S253 vmul.s16 q10, q10, q2
508 vqrshrn.s16 d18, q10, #2
522 vtrn.16 q10, q11
534 vadd.u8 q10, q10, q0
742 vmul.s16 q10, q10, q2
754 vsub.s16 q2, q10, q14
755 vadd.s16 q14, q10, q14
764 vadd.s16 q10, q2, q4
771 vsub.s16 q10, q10, q14
776 vadd.s16 q5, q6, q10
[all …]

1234