Home
last modified time | relevance | path

Searched refs:d17 (Results 1 – 25 of 89) sorted by relevance

1234

/third_party/ffmpeg/libavcodec/arm/
Dmdct_neon.S39 vld2.32 {d16-d17},[r7,:128],r12 @ d16=x,n1 d17=x,n0
41 vrev64.32 d17, d17
43 vmul.f32 d6, d17, d2
49 vmul.f32 d5, d17, d3
57 vld2.32 {d16-d17},[r7,:128],r12
59 vrev64.32 d17, d17
61 vmul.f32 d6, d17, d2
95 vld2.32 {d17,d19},[r4,:128]! @ d17=c2,c3 d19=s2,s3
100 vmul.f32 d23, d21, d17
102 vmul.f32 d25, d20, d17
[all …]
Dac3dsp_neon.S142 vld1.32 {d17}, [r2]!
143 vadd.s32 d18, d16, d17
144 vsub.s32 d19, d16, d17
146 vmlal.s32 q1, d17, d17
164 vld1.32 {d17}, [r2]!
165 vadd.f32 d18, d16, d17
166 vsub.f32 d19, d16, d17
168 vmla.f32 d1, d17, d17
Dhevcdsp_sao_neon.S42 vshr.u8 d17, d16, #3 // index = [src>>3]
43 vshll.u8 q9, d17, #1 // lowIndex = 2*index
68 vshr.u8 d17, d16, #3 // src>>3
69 vshll.u8 q9, d17, #1 // lowIndex = 2*index
116 vld1.8 {d17}, [r10], r3 // src[x + a_stride]
118 vcgt.u8 d8, d16, d17
120 vclt.u8 d8, d16, d17
149 vld1.32 {d17[0]}, [r10], r3 // src[x + a_stride]
151 vcgt.u8 d8, d16, d17
153 vclt.u8 d8, d16, d17
Dsbcdsp_neon.S143 vpadd.s32 d2, d16, d17
186 vpadd.s32 d2, d16, d17 /* TODO: can be eliminated */
232 vld1.32 {d16, d17}, [r6, :128], r11
282 vld1.32 {d16, d17}, [r5, :128], r11
322 vld1.32 {d16, d17}, [r5, :128]
335 vbif.s32 d23, d17, d31
342 vld1.32 {d16, d17}, [r5, :128]
359 vbif.s32 d23, d17, d31
409 vld1.32 {d16, d17}, [r4, :128]!
416 vpadd.s32 d16, d16, d17
[all …]
Dh264cmc_neon.S81 vrshrn.u16 d17, q9, #6
86 vshrn.u16 d17, q9, #6
94 vst1.8 {d17}, [r0,:64], r2
118 vrshrn.u16 d17, q9, #6
123 vshrn.u16 d17, q9, #6
133 vst1.8 {d17}, [r0,:64], r2
151 vrshrn.u16 d17, q9, #6
156 vshrn.u16 d17, q9, #6
164 vst1.8 {d17}, [r0,:64], r2
178 vrshrn.u16 d17, q9, #6
[all …]
Dint_neon.S29 1: vld1.16 {d16-d17}, [r0]!
33 vmlal.s16 q1, d17, d21
41 vpadd.s32 d17, d2, d3
44 vpadd.s32 d0, d16, d17
Dlossless_audiodsp_neon.S33 1: vld1.16 {d16-d17}, [r0,:128]!
42 vmlal.s16 q1, d17, d19
53 vpadd.s32 d17, d2, d3
56 vpadd.s32 d0, d16, d17
Didctdsp_neon.S50 vld1.16 {d16-d17}, [r0,:128]!
54 vld1.16 {d16-d17}, [r0,:128]!
90 vld1.8 {d17}, [r1,:64], r2
94 vaddw.u8 q1, q1, d17
109 vld1.8 {d17}, [r1,:64], r2
111 vaddw.u8 q1, q1, d17
Dvp9itxfm_16bpp_neon.S843 butterfly d25, d29, d29, d17 @ d25 = t15a, d29 = t12a
851 butterfly d17, d30, d19, d23 @ d17 = out[1], d30 = out[14]
867 mbutterfly d17, d31, d4[0], d4[1], q4, q5 @ d17 = t8a, d31 = t15a
876 butterfly d16, d25, d17, d25 @ d16 = t8, d25 = t9
878 butterfly d17, d27, d19, d27 @ d17 = t12, d27 = t13
892 mbutterfly_h1 d17, d31, d4[0], d4[1], q4, q5 @ d17 = t8a, d31 = t15a
901 butterfly d16, d25, d17, d25 @ d16 = t8, d25 = t9
903 butterfly d17, d27, d19, d27 @ d17 = t12, d27 = t13
914 vmull.s32 q4, d17, d4[0]
918 vmull.s32 q14, d17, d4[1]
[all …]
Drdft_neon.S65 vmov.i32 d17, #1<<31
67 vtrn.32 d16, d17
69 vrev64.32 d16, d16 @ d16=1,0 d17=0,1
86 veor d6, d20, d17 @ ev.re,-ev.im
95 veor d24, d22, d17 @ ev.re,-ev.im
124 veor d6, d20, d17 @ ev.re,-ev.im
131 veor d23, d23, d17
Dhevcdsp_qpel_neon.S27 vmov d16, d17
28 vmov d17, d18
50 vext.8 d17, d22, d23, #2
62 vld1.8 {d17}, [r2], r3
79 vmov.i16 d17, #10
83 vmull.s16 q11, d4, d17 // 10 * c0
84 vmull.s16 q12, d5, d17 // 10 * c1
85 vmov.i16 d17, #5
88 vmull.s16 q15, d10, d17 // 5 * f0
89 vmull.s16 q8, d11, d17 // 5 * f1
[all …]
Dh264qpel_neon.S154 vld1.8 {d16,d17}, [r1], r2
156 lowpass_8 d0, d1, d16, d17, d0, d16
191 vld1.8 {d16,d17}, [r1], r2
195 lowpass_8 d0, d1, d16, d17, d0, d1
359 vld1.8 {d17}, [r0,:64], r3
360 vrhadd.u8 d1, d1, d17
363 vld1.8 {d17}, [r0,:64], r3
364 vrhadd.u8 d3, d3, d17
367 vld1.8 {d17}, [r0,:64], r3
368 vrhadd.u8 d5, d5, d17
[all …]
Dfft_neon.S37 vsub.f32 d7, d16, d17 @ r3-r2,i2-i3
61 vadd.f32 d4, d16, d17 @ r4+r5,i4+i5
64 vsub.f32 d17, d16, d17 @ r4-r5,i4-i5
69 vmul.f32 d26, d17, d28 @ -a2r*w,a2i*w
74 vmul.f32 d24, d17, d31 @ a2r*w,a2i*w
92 vsub.f32 d17, d1, d5
110 vadd.f32 d4, d16, d17
111 vsub.f32 d5, d16, d17
123 vuzp.32 d16, d17 @ {r0,r1,i0,i1}
180 vst2.32 {d16-d17},[r0,:128], r1
[all …]
Dvp9lpf_16bpp_neon.S866 vld1.16 {d17}, [r12,:64], r1 @ p6
887 @ d2-d17 (skipping d7 and d16). r12 points to r0 - 7 * stride,
888 @ store d2-d9 there, and d10-d17 into r0.
902 vst1.16 {d17}, [r0, :64], r1
Dg722dsp_neon.S27 vld1.s16 {d16,d17,d18}, [r3,:64]! /* load qmf_coeffs */
29 vmlal.s16 q0, d3, d17
Dvp3dsp_neon.S36 vsubl.u8 q3, d18, d17
53 vaddw.u8 q2, q0, d17
63 vld1.64 {d17}, [r0,:64], r1
79 vld1.32 {d17[]}, [r0], r1
83 vld1.32 {d17[1]}, [r0], r1
88 vtrn.8 d16, d17
91 vtrn.16 d17, d19
132 vmull.s16 q7, d17, xC4S4
255 vswp d17, d24
/third_party/openh264/codec/encoder/core/arm/
Dintra_pred_sad_3_opt_neon.S143 vmov.i32 d17, #0//Save the SATD of DC_BOTH
155 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d20, d27, d15, d16, d17, d14
156 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d20, d27, d15, d16, d17, d14
157 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d20, d27, d15, d16, d17, d14
158 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d20, d27, d15, d16, d17, d14
168 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d21, d27, d15, d16, d17, d14
169 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d21, d27, d15, d16, d17, d14
170 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d21, d27, d15, d16, d17, d14
171 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d21, d27, d15, d16, d17, d14
181 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d18, d27, d15, d16, d17, d14
[all …]
Dreconstruct_neon.S314 LOAD_8x8_DATA_FOR_DCT d16, d17, d18, d19, d20, d21, d22, d23, r1, r3
317 vsubl.u8 q1, d17, d21
338 LOAD_8x8_DATA_FOR_DCT d16, d17, d18, d19, d20, d21, d22, d23, r1, r3
341 vsubl.u8 q1, d17, d21
375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
405 NEWQUANT_COEF_EACH_16BITS q0, q8, d16, d17, d6, d7, q9, q10, q11
408 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
413 NEWQUANT_COEF_EACH_16BITS q0, q8, d16, d17, d6, d7, q9, q10, q11
416 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
[all …]
/third_party/libpng/arm/
Dfilter_neon.S125 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
128 vhadd.u8 d1, d0, d17
153 vext.8 d17, d20, d21, #3
156 vhadd.u8 d1, d0, d17
198 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
201 paeth d1, d0, d17, d16
203 paeth d2, d1, d18, d17
229 vext.8 d17, d20, d21, #3
230 paeth d1, d0, d17, d20
235 paeth d2, d1, d18, d17
/third_party/skia/third_party/externals/libpng/arm/
Dfilter_neon.S125 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
128 vhadd.u8 d1, d0, d17
153 vext.8 d17, d20, d21, #3
156 vhadd.u8 d1, d0, d17
198 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
201 paeth d1, d0, d17, d16
203 paeth d2, d1, d18, d17
229 vext.8 d17, d20, d21, #3
230 paeth d1, d0, d17, d20
235 paeth d2, d1, d18, d17
/third_party/flutter/skia/third_party/externals/libpng/arm/
Dfilter_neon.S125 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
128 vhadd.u8 d1, d0, d17
153 vext.8 d17, d20, d21, #3
156 vhadd.u8 d1, d0, d17
198 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
201 paeth d1, d0, d17, d16
203 paeth d2, d1, d18, d17
229 vext.8 d17, d20, d21, #3
230 paeth d1, d0, d17, d20
235 paeth d2, d1, d18, d17
/third_party/openh264/codec/common/arm/
Dmc_neon.S167 FILTER_6TAG_8BITS d1, d5, d7, d17, d19, d21, d3, q14, q15
266 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d1, d5, d7, d17, d19, d21, d3, q14, q15
365 FILTER_6TAG_8BITS_AVERAGE_WITH_1 d1, d5, d7, d17, d19, d21, d3, q14, q15
467 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d1, d3, d5, d7, d17, d19, d21, q14, q15
473 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d3, d5, d7, d17, d19, d1, d21, q14, q15
479 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d5, d7, d17, d19, d1, d3, d21, q14, q15
485 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d7, d17, d19, d1, d3, d5, d21, q14, q15
491 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d17, d19, d1, d3, d5, d7, d21, q14, q15
497 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d19, d1, d3, d5, d7, d17, d21, q14, q15
503 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d1, d3, d5, d7, d17, d19, d21, q14, q15
[all …]
/third_party/ffmpeg/libavresample/arm/
Dresample_neon.S123 vmla.f32 d17, d1, d5
127 vmul.f32 d17, d1, d5
133 vpadd.f32 d16, d16, d17
175 vadd.s64 d16, d16, d17
215 vpadd.s32 d16, d16, d17
347 vpadd.f32 d16, d16, d17
/third_party/openssl/crypto/modes/asm/arm32/
Dghash-armv4.S359 vshl.i64 d17,#57
428 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8
429 vand d17, d17, d29
435 veor d16, d16, d17
466 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8
467 vand d17, d17, d29
473 veor d16, d16, d17
503 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8
504 vand d17, d17, d29
510 veor d16, d16, d17
/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm32/
DMatmulInt8Opt.S110 vpadd.i32 d16, d16, d17
153 vld1.32 {d16[], d17[]}, [lr]
216 vand d17, d21, d31
217 vshr.s32 d17, d17, #31
218 vqadd.s32 d31, d31, d17

1234