Home
last modified time | relevance | path

Searched refs:q8 (Results 1 – 25 of 82) sorted by relevance

1234

/third_party/ffmpeg/libavcodec/arm/
Dh264cmc_neon.S65 vmull.u8 q8, d4, d0
66 vmlal.u8 q8, d5, d1
69 vmlal.u8 q8, d6, d2
72 vmlal.u8 q8, d7, d3
80 vrshrn.u16 d16, q8, #6
83 vadd.u16 q8, q8, q11
85 vshrn.u16 d16, q8, #6
91 vrhadd.u8 q8, q8, q10
110 vmull.u8 q8, d4, d0
111 vmlal.u8 q8, d6, d1
[all …]
Dhevcdsp_idct_neon.S50 vmovl.u8 q8, d4
52 vqadd.s16 q0, q0, q8
91 vmovl.u8 q8, d17
93 vqadd.s16 q1, q8
110 vld1.16 {q8}, [r0, :128]
111 vqadd.s16 q0, q8
126 vld1.8 {q8}, [r0, :128]
155 vld1.16 {q8-q9}, [r0, :128]
157 vqadd.s16 q0, q8
178 vmovl.u8 q8, d24
[all …]
Dvorbisdsp_neon.S33 vcle.s32 q8, q12, #0
36 vand q2, q12, q8
37 vbic q3, q12, q8
42 vcle.s32 q8, q1, #0
47 vand q2, q1, q8
48 vbic q3, q1, q8
55 vcle.s32 q8, q12, #0
60 vand q2, q12, q8
61 vbic q3, q12, q8
73 vcle.s32 q8, q1, #0
[all …]
Dvc1dsp_neon.S65 @ vadd.i16 q0, q8, q10
71 @ vhadd.s16 q0, q8, q10
85 @ Trashes: r12 q8 q9 q10 q11 q12 q13
96 vmov.i16 q8, #\add @ t1 will accumulate here
102 vmla.i16 q8, q12, d0[0] @ t1 = 17 * (temp1) + 4
108 vhadd.s16 q0, q8, q10 @ dst[0] = (t1 + t3) >> 1
109 vhsub.s16 q3, q8, q10 @ dst[3] = (t1 - t3) >> 1
161 vshl.i16 q8, q1, #4 @ t1|t2 = 16 * (src[8]|src[40])
169 vadd.i16 q8, q8, q2 @ t1|t2 += temp1|temp2
171 vmla.i16 q8, q1, d0[3] @ t1|t2 += 9 * (src[40]|src[56])
[all …]
Dh264dsp_neon.S44 vabd.u8 q6, q8, q0 @ abs(p0 - q0)
46 vabd.u8 q14, q9, q8 @ abs(p1 - p0)
56 vabd.u8 q4, q10, q8 @ abs(p2 - p0)
65 vrhadd.u8 q14, q8, q0
156 transpose_8x8 q3, q10, q9, q8, q0, q1, q2, q13
162 transpose_4x4 q4, q8, q0, q5
298 vmov q2, q8
299 vmov q3, q8
309 vmov q12, q8
311 vmov q13, q8
[all …]
Dhpeldsp_neon.S37 vld1.8 {q8}, [r12,:128], r2
38 vrhadd.u8 q0, q0, q8
90 vld1.8 {q8}, [r0,:128], r2
92 vrhadd.u8 q2, q2, q8
104 vld1.8 {q8}, [r0,:128], r2
106 vrhadd.u8 q2, q2, q8
125 vaddl.u8 q8, d0, d2
131 vadd.u16 q12, q8, q9
140 vld1.8 {q8}, [r0,:128]
141 vrhadd.u8 q14, q14, q8
[all …]
Dh264idct_neon.S32 vshr.s16 q8, q1, #1
47 vshr.s16 q8, q1, #1
190 vadd.i16 q0, q8, q12
194 vsub.i16 q1, q8, q12
201 vtrn.32 q8, q10
211 vadd.i16 q0, q8, q12
213 vsub.i16 q1, q8, q12
219 vadd.i16 q8, q0, q3
246 vsub.i16 q15, q8, q3
247 vadd.i16 q8, q8, q3
[all …]
Dfmtconvert_neon.S35 vcvt.f32.s32 q8, q2
39 vmul.f32 q10, q8, q0
44 vcvt.f32.s32 q8, q2
66 vdup.32 q8, d20[0]
69 vmul.f32 q0, q0, q8
71 vmul.f32 q1, q1, q8
84 vmul.f32 q0, q0, q8
85 vmul.f32 q1, q1, q8
Dvp3dsp_neon.S121 vadd.s16 q1, q8, q12
122 vsub.s16 q8, q8, q12
140 vadd.s16 q8, q8, q4 // F = (ip[0] - ip[4]) * C4
222 vadd.s16 q8, q8, q0
230 vsub.s16 q3, q8, q10 // Fd = F - Ad
231 vadd.s16 q10, q8, q10 // Add = F + Ad
234 vadd.s16 q8, q2, q11 // [0] = Gd + Cd
241 vtrn.16 q8, q9
251 vtrn.32 q8, q10
257 vadd.s16 q1, q8, q12
[all …]
Dsbrdsp_neon.S38 vld1.32 {q8}, [lr,:128]!
39 vadd.f32 q0, q0, q8
61 vmov.i32 q8, #1<<31
63 veor q1, q1, q8
67 veor q3, q3, q8
70 veor q1, q1, q8
73 veor q3, q3, q8
86 vmov.i32 q8, #1<<31
93 veor q0, q0, q8
99 veor q9, q9, q8
[all …]
Drv34dsp_neon.S43 vsub.s32 q8, q10, q13 @ z0 - z3
46 vtrn.32 q3, q8
55 vshl.s32 q11, q8, #4
57 vshl.s32 q15, q8, #3
59 vadd.s32 q11, q11, q8
61 vsub.s32 q8, q15, q8
63 vadd.s32 q9, q9, q8
81 vtrn.32 q8, q9
89 vaddw.u8 q0, q8, d28
Dsbcdsp_neon.S101 vmull.s16 q8, d6, d10
110 vmlal.s16 q8, d6, d10
119 vmlal.s16 q8, d6, d10
128 vmlal.s16 q8, d6, d10
138 vmlal.s16 q8, d6, d10
160 vmull.s16 q8, d6, d0
167 vmlal.s16 q8, d6, d1
174 vmlal.s16 q8, d6, d2
181 vmlal.s16 q8, d6, d3
233 vabs.s32 q8, q8
[all …]
Dvp8dsp_neon.S40 vmov.i16 q8, #3
99 vadd.s16 q0, q8, q9
100 vsub.s16 q1, q8, q9
125 vadd.s16 q0, q8, q9
127 vsub.s16 q1, q8, q9
187 vrshr.s16 q8, q8, #3 @ dc >>= 3
191 vaddw.u8 q10, q8, d0
193 vaddw.u8 q0, q8, d1
195 vaddw.u8 q11, q8, d2
197 vaddw.u8 q1, q8, d3
[all …]
Dhevcdsp_qpel_neon.S89 vmull.s16 q8, d11, d17 // 5 * f1
101 vsub.s32 q14, q8 // g1 - a1 - 5 * f1
111 vmov.i32 q8, #11
116 vmul.s32 q11, q8 // 11 * (c0 + f0)
117 vmul.s32 q12, q8 // 11 * (c1 + f1)
118 vmov.i32 q8, #40
120 vmul.s32 q9, q8 // 40 * (d0 + e0)
121 vmul.s32 q10, q8 // 40 * (d1 + e1)
122 vaddl.s16 q8, d3, d13 // b1 + g1
126 vshl.s32 q8, #2 // 4*(b1+g1)
[all …]
Dvp9mc_16bpp_neon.S38 vld1.16 {q8, q9}, [r2]!
39 vst1.16 {q8, q9}, [r0, :128]!
54 vld1.16 {q8, q9}, [r2]!
57 vrhadd.u16 q0, q0, q8
64 vld1.16 {q8, q9}, [r0, :128]!
66 vrhadd.u16 q8, q8, q12
71 vst1.16 {q8, q9}, [lr, :128]!
86 vld1.16 {q8, q9}, [r2]!
89 vrhadd.u16 q0, q0, q8
Dmpegvideo_neon.S45 vld1.16 {q8}, [r0,:128]!
48 vclt.s16 q11, q8, #0
49 vmul.s16 q10, q8, q15
53 vceq.s16 q9, q8, #0
56 vbif q8, q10, q9
59 vst1.16 {q8}, [r1,:128]!
/third_party/openh264/codec/encoder/core/arm/
Dreconstruct_neon.S323 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11
329 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11
347 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11
353 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11
370 vmov q8, q2
375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
376 vst1.s16 {q8}, [r0]!
387 vmov q8, q2
392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
393 vst1.s16 {q8}, [r0]!
[all …]
Dpixel_neon.S40 vsubl.u8 q8, d0, d2
56 vadd.s16 q0, q8, q9
59 vsub.s16 q1, q8, q9
67 vadd.s16 q8, q10, q11
76 vadd.s16 q13, q8, q10
77 vsub.s16 q15, q8, q10
88 vadd.s16 q8, q12, q14
94 vabs.s16 q8, q8
109 vtrn.32 q8, q10
115 vmax.s16 q0, q8, q10
[all …]
/third_party/ffmpeg/libavresample/arm/
Dresample_neon.S130 veor.f32 q8, q8
156 vmlal.s32 q8, d0, d4[0]
159 vmlal.s32 q8, d0, d4
162 vmlal.s32 q8, d0, d4
166 vmull.s32 q8, d0, d4
170 veor.s64 q8, q8
174 vadd.s64 q8, q8, q9
176 vqrshrn.s64 d16, q8, #30
200 vmlal.s16 q8, d0, d4[0]
203 vmlal.s16 q8, d0, d4
[all …]
Daudio_convert_neon.S27 vcvt.s32.f32 q8, q0, #31
34 vqrshrn.s32 d4, q8, #16
43 vld1.32 {q8}, [r1,:128]!
44 vcvt.s32.f32 q8, q8, #31
52 vqrshrn.s32 d4, q8, #16
62 3: vqrshrn.s32 d4, q8, #16
72 vcvt.s32.f32 q8, q0, #31
85 vsri.32 q10, q8, #16
96 vld1.32 {q8}, [r1,:128]!
99 vcvt.s32.f32 q8, q8, #31
[all …]
/third_party/ffmpeg/libswresample/arm/
Daudio_convert_neon.S28 vcvt.s32.f32 q8, q0, #31
35 vqrshrn.s32 d4, q8, #16
44 vld1.32 {q8}, [r1,:128]!
45 vcvt.s32.f32 q8, q8, #31
53 vqrshrn.s32 d4, q8, #16
63 3: vqrshrn.s32 d4, q8, #16
74 vcvt.s32.f32 q8, q0, #31
87 vsri.32 q10, q8, #16
98 vld1.32 {q8}, [r1,:128]!
101 vcvt.s32.f32 q8, q8, #31
[all …]
/third_party/ffmpeg/libavutil/arm/
Dfloat_dsp_neon.S29 vmul.f32 q8, q0, q2
44 vmul.f32 q8, q0, q2
55 vmul.f32 q8, q0, q2
75 vld1.32 {q8}, [acc,:128]!
78 1: vmla.f32 q8, q0, q15
85 vst1.32 {q8}, [r0,:128]!
91 vld1.32 {q8}, [acc,:128]!
103 vld1.32 {q8}, [acc,:128]!
104 vmla.f32 q8, q0, q15
105 vst1.32 {q8}, [r0,:128]!
[all …]
/third_party/openh264/codec/common/arm/
Dcopy_mb_neon.S92 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3
94 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
100 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3
102 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
113 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3
115 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
121 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3
123 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
134 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3
136 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
Ddeblocking_neon.S199 vmax.s8 q8, q8, q15
200 vmin.s8 q8, q8, q14
201 vand.s8 q8, q8, q10
202 EXTRACT_DELTA_INTO_TWO_PART q8, q9
204 vqsub.u8 q2, q2, q8
207 vqadd.u8 q3, q3, q8
222 vld1.u8 {q8}, [r3], r1
257 DIFF_LUMA_EQ4_MASK q8,q10, q3, q4
340 vmax.s8 q8, q8, q15
341 vmin.s8 q8, q8, q14
[all …]
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/
Djsimd_neon.S249 vmul.s16 q8, q8, q0
506 vqrshrn.s16 d16, q8, #2
513 vtrn.16 q8, q9
520 vadd.u8 q8, q8, q0
738 vmul.s16 q8, q8, q0
773 vsub.s16 q6, q8, q12
774 vadd.s16 q12, q8, q12
779 vadd.s16 q8, q12, q14
785 vsub.s16 q15, q8, q6
787 vadd.s16 q8, q8, q6
[all …]

1234