Home
last modified time | relevance | path

Searched refs:d18 (Results 1 – 25 of 116) sorted by relevance

12345

/third_party/ffmpeg/libavcodec/arm/
Dvp6dsp_neon.S26 vsubl.u8 q0, d20, d18 @ p[ 0] - p[-s]
61 vaddw.u8 q2, q0, d18
65 vqmovun.s16 d18, q2
80 vst1.8 {d18}, [r0]!
91 vld1.32 {d18[0]}, [r0], r1
95 vld1.32 {d18[1]}, [r0], r1
108 vst1.16 {d18[0]}, [r3], r1
110 vst1.16 {d18[1]}, [r3], r1
112 vst1.16 {d18[2]}, [r3], r1
114 vst1.16 {d18[3]}, [r3], r1
Dsbrdsp_neon.S101 vswp d18, d19
221 vneg.f32 d18, d1
222 vtrn.32 d18, d1
235 vmla.f32 d6, d4, d18
236 vmla.f32 d7, d20, d18
279 vrev64.32 d18, d17
284 vmla.f32 d1, d16, d18
320 vld1.32 {d18}, [r2,:64]!
324 vmla.f32 d0, d6, d18
325 vmla.f32 d1, d7, d18
[all …]
Dint_neon.S32 vld1.16 {d18-d19}, [r0]!
35 vmlal.s16 q2, d18, d22
42 vpadd.s32 d18, d4, d5
45 vpadd.s32 d1, d18, d19
Dmdct_neon.S91 vld2.32 {d16,d18},[r1,:128], r7 @ d16=c1,c0 d18=s1,s0
94 vmul.f32 d7, d0, d18
96 vmul.f32 d4, d1, d18
110 vld2.32 {d16,d18},[r1,:128], r7 @ d16=c1,c0 d18=s1,s0
176 vld2.32 {d16,d18},[r9,:128],r12 @ in0u0,in0u1 in4d1,in4d0
181 vsub.f32 d0, d18, d0 @ in4d-in4u I
208 vld2.32 {d16,d18},[r9,:128],r12 @ in0u0,in0u1 in4d1,in4d0
214 vsub.f32 d0, d18, d0 @ in4d-in4u I
270 vld2.32 {d16,d18},[r1,:128], r7 @ c1,c0 s1,s0
273 vmul.f32 d7, d0, d18 @ r1*s1,r0*s0
[all …]
Dhevcdsp_deblock_neon.S36 vsubl.u8 q11, d18, d19
65 vmovl.u8 q9, d18
280 vqmovun.s16 d18, q9
295 vld1.8 {d18}, [r0], r1
303 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30
305 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30
307 vst1.8 {d18}, [r0], r1
325 vld1.8 {d18}, [r0], r1
335 vst1.8 {d18}, [r0], r1
352 vld1.8 {d18}, [r0], r1
[all …]
Dlossless_audiodsp_neon.S34 vld1.16 {d18-d19}, [r1]!
41 vmlal.s16 q0, d16, d18
54 vpadd.s32 d18, d4, d5
57 vpadd.s32 d1, d18, d19
Didctdsp_neon.S52 vld1.16 {d18-d19}, [r0,:128]!
56 vld1.16 {d18-d19}, [r0,:128]!
93 vld1.8 {d18}, [r1,:64], r2
96 vaddw.u8 q2, q2, d18
114 vld1.8 {d18}, [r1,:64], r2
116 vaddw.u8 q2, q2, d18
Dsbcdsp_neon.S144 vpadd.s32 d3, d18, d19
187 vpadd.s32 d3, d18, d19 /* TODO: can be eliminated */
234 vld1.32 {d18, d19}, [r6, :128], r11
280 vld1.32 {d18, d19}, [r6, :128], r11
320 vld1.32 {d18, d19}, [r6, :128]
338 vld1.32 {d18, d19}, [r6, :128]
550 vtbl.8 d18, {d20, d21}, d0
553 vst1.16 {d18, d19}, [r7, :128]
569 vtbl.8 d18, {d20, d21}, d0
572 vst1.16 {d18, d19}, [r7, :128]
[all …]
Dac3dsp_neon.S143 vadd.s32 d18, d16, d17
147 vmlal.s32 q2, d18, d18
165 vadd.f32 d18, d16, d17
169 vmla.f32 d2, d18, d18
Dhevcdsp_sao_neon.S117 vld1.8 {d18}, [r11], r3 // src[x + b_stride]
122 vcgt.u8 d10, d16, d18
124 vclt.u8 d10, d16, d18
150 vld1.32 {d18[0]}, [r11], r3 // src[x + b_stride]
155 vcgt.u8 d10, d16, d18
157 vclt.u8 d10, d16, d18
Dh264dsp_neon.S84 vaddw.u8 q2, q2, d18
118 vld1.8 {d18,d19}, [r0,:128], r1
141 vld1.8 {d18}, [r0], r1
192 vabd.u8 d28, d18, d16 @ abs(p1 - p0)
197 vaddw.u8 q2, q2, d18
222 vld1.8 {d18}, [r0,:64], r1
241 vld1.32 {d18[0]}, [r0], r1
245 vld1.32 {d18[1]}, [r0], r1
250 vtrn.16 d18, d0
252 vtrn.8 d18, d16
[all …]
Dvp9itxfm_16bpp_neon.S836 butterfly d18, d11, d8, d11 @ d18 = t0a, d11 = t7a
850 butterfly d16, d31, d18, d25 @ d16 = out[0], d31 = out[15]
854 butterfly d18, d29, d8, d29 @ d18 = out[2], d29 = out[13]
865 mbutterfly d18, d30, d2[0], d2[1], q4, q5 @ d18 = t4a, d30 = t7a
874 butterfly d10, d26, d18, d26 @ d10 = t4, d26 = t5
881 mbutterfly0 d22, d26, d22, d26, d18, d30, q9, q15 @ d22 = t6a, d26 = t5a
890 mbutterfly_h1 d18, d30, d2[0], d2[1], q4, q5 @ d18 = t4a, d30 = t7a
899 butterfly d10, d26, d18, d26 @ d10 = t4, d26 = t5
906 mbutterfly0 d22, d26, d22, d26, d18, d30, q9, q15 @ d22 = t6a, d26 = t5a
915 vmull.s32 q5, d18, d2[1]
[all …]
Drv40dsp_neon.S116 vld1.64 d18, [r0,:64], r2
189 vld1.64 d18, [r0,:64], r2
669 vmull.u16 q8, d18, d0[2]
681 vshrn.i32 d18, q14, #9
747 vpadd.u16 d18, d18, d19 @ -3, -1, 2, 0
748 vabd.u16 d16, d18, d16
763 vand d18, d16, d17
764 vtrn.32 d18, d19
765 vand d18, d18, d19
766 vmov.u16 r0, d18[0]
[all …]
/third_party/vixl/test/aarch32/
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc105 {{F32, d18, d17, d23}, false, al, "F32 d18 d17 d23", "F32_d18_d17_d23"},
106 {{F64, d29, d21, d18}, false, al, "F64 d29 d21 d18", "F64_d29_d21_d18"},
109 {{F64, d2, d18, d10}, false, al, "F64 d2 d18 d10", "F64_d2_d18_d10"},
114 {{F64, d18, d12, d20}, false, al, "F64 d18 d12 d20", "F64_d18_d12_d20"},
119 {{F32, d12, d18, d29}, false, al, "F32 d12 d18 d29", "F32_d12_d18_d29"},
139 {{F64, d17, d1, d18}, false, al, "F64 d17 d1 d18", "F64_d17_d1_d18"},
145 {{F32, d18, d12, d5}, false, al, "F32 d18 d12 d5", "F32_d18_d12_d5"},
163 {{F64, d11, d19, d18}, false, al, "F64 d11 d19 d18", "F64_d11_d19_d18"},
181 {{F64, d24, d18, d16}, false, al, "F64 d24 d18 d16", "F64_d24_d18_d16"},
188 {{F32, d18, d13, d26}, false, al, "F32 d18 d13 d26", "F32_d18_d13_d26"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc105 {{F32, d18, d17, d23}, false, al, "F32 d18 d17 d23", "F32_d18_d17_d23"},
106 {{F64, d29, d21, d18}, false, al, "F64 d29 d21 d18", "F64_d29_d21_d18"},
109 {{F64, d2, d18, d10}, false, al, "F64 d2 d18 d10", "F64_d2_d18_d10"},
114 {{F64, d18, d12, d20}, false, al, "F64 d18 d12 d20", "F64_d18_d12_d20"},
119 {{F32, d12, d18, d29}, false, al, "F32 d12 d18 d29", "F32_d12_d18_d29"},
139 {{F64, d17, d1, d18}, false, al, "F64 d17 d1 d18", "F64_d17_d1_d18"},
145 {{F32, d18, d12, d5}, false, al, "F32 d18 d12 d5", "F32_d18_d12_d5"},
163 {{F64, d11, d19, d18}, false, al, "F64 d11 d19 d18", "F64_d11_d19_d18"},
181 {{F64, d24, d18, d16}, false, al, "F64 d24 d18 d16", "F64_d24_d18_d16"},
188 {{F32, d18, d13, d26}, false, al, "F32 d18 d13 d26", "F32_d18_d13_d26"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc128 {{F32, d18, d7, d6}, false, al, "F32 d18 d7 d6", "F32_d18_d7_d6"},
129 {{F32, d24, d18, d8}, false, al, "F32 d24 d18 d8", "F32_d24_d18_d8"},
145 {{F32, d5, d19, d18}, false, al, "F32 d5 d19 d18", "F32_d5_d19_d18"},
154 {{F32, d2, d26, d18}, false, al, "F32 d2 d26 d18", "F32_d2_d26_d18"},
156 {{F32, d8, d18, d17}, false, al, "F32 d8 d18 d17", "F32_d8_d18_d17"},
157 {{F32, d18, d11, d8}, false, al, "F32 d18 d11 d8", "F32_d18_d11_d8"},
167 {{F32, d18, d28, d11}, false, al, "F32 d18 d28 d11", "F32_d18_d28_d11"},
173 {{F32, d18, d8, d10}, false, al, "F32 d18 d8 d10", "F32_d18_d8_d10"},
190 {{F32, d7, d6, d18}, false, al, "F32 d7 d6 d18", "F32_d7_d6_d18"},
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc128 {{F32, d18, d7, d6}, false, al, "F32 d18 d7 d6", "F32_d18_d7_d6"},
129 {{F32, d24, d18, d8}, false, al, "F32 d24 d18 d8", "F32_d24_d18_d8"},
145 {{F32, d5, d19, d18}, false, al, "F32 d5 d19 d18", "F32_d5_d19_d18"},
154 {{F32, d2, d26, d18}, false, al, "F32 d2 d26 d18", "F32_d2_d26_d18"},
156 {{F32, d8, d18, d17}, false, al, "F32 d8 d18 d17", "F32_d8_d18_d17"},
157 {{F32, d18, d11, d8}, false, al, "F32 d18 d11 d8", "F32_d18_d11_d8"},
167 {{F32, d18, d28, d11}, false, al, "F32 d18 d28 d11", "F32_d18_d28_d11"},
173 {{F32, d18, d8, d10}, false, al, "F32 d18 d8 d10", "F32_d18_d8_d10"},
190 {{F32, d7, d6, d18}, false, al, "F32 d7 d6 d18", "F32_d7_d6_d18"},
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc382 {{F64, d18, d11, d29},
387 {{F64, d18, d7, d16},
527 {{F64, d23, d18, d21},
562 {{F64, d14, d18, d24},
612 {{F64, d18, d24, d3},
762 {{F64, d30, d18, d9},
807 {{F64, d8, d16, d18},
857 {{F64, d18, d18, d25},
917 {{F64, d18, d14, d14},
957 {{F64, d18, d29, d29},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc382 {{F64, d18, d11, d29},
387 {{F64, d18, d7, d16},
527 {{F64, d23, d18, d21},
562 {{F64, d14, d18, d24},
612 {{F64, d18, d24, d3},
762 {{F64, d30, d18, d9},
807 {{F64, d8, d16, d18},
857 {{F64, d18, d18, d25},
917 {{F64, d18, d14, d14},
957 {{F64, d18, d29, d29},
[all …]
/third_party/skia/third_party/externals/libpng/arm/
Dfilter_neon.S125 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
130 vhadd.u8 d2, d1, d18
157 vext.8 d18, d20, d21, #6
162 vhadd.u8 d2, d1, d18
198 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
203 paeth d2, d1, d18, d17
205 paeth d3, d2, d19, d18
234 vext.8 d18, d20, d21, #6
235 paeth d2, d1, d18, d17
241 paeth d3, d2, d19, d18
/third_party/openh264/codec/common/arm/
Dmc_neon.S165 FILTER_6TAG_8BITS d0, d4, d6, d16, d18, d20, d2, q14, q15
264 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d4, d6, d16, d18, d20, d2, q14, q15
363 FILTER_6TAG_8BITS_AVERAGE_WITH_1 d0, d4, d6, d16, d18, d20, d2, q14, q15
465 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d2, d4, d6, d16, d18, d20, q14, q15
471 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d2, d4, d6, d16, d18, d0, d20, q14, q15
477 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d4, d6, d16, d18, d0, d2, d20, q14, q15
483 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d6, d16, d18, d0, d2, d4, d20, q14, q15
489 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d16, d18, d0, d2, d4, d6, d20, q14, q15
495 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d18, d0, d2, d4, d6, d16, d20, q14, q15
501 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d2, d4, d6, d16, d18, d20, q14, q15
[all …]
/third_party/ffmpeg/libavresample/arm/
Daudio_convert_neon.S165 vzip.32 d18, d22
169 vst1.16 {d18}, [r8], r12
220 vsri.32 d18, d16, #16
224 vst1.32 {d18[0]}, [r8], r12
226 vst1.32 {d18[1]}, [r8], r12
243 vsri.32 d18, d16, #16
251 vst1.32 {d18[0]}, [r8], r12
253 vst1.32 {d18[1]}, [r8], r12
292 7: vsri.32 d18, d16, #16
294 vst1.32 {d18[0]}, [r8], r12
[all …]
/third_party/ffmpeg/libswresample/arm/
Daudio_convert_neon.S167 vzip.32 d18, d22
171 vst1.16 {d18}, [r8], r12
222 vsri.32 d18, d16, #16
226 vst1.32 {d18[0]}, [r8], r12
228 vst1.32 {d18[1]}, [r8], r12
245 vsri.32 d18, d16, #16
253 vst1.32 {d18[0]}, [r8], r12
255 vst1.32 {d18[1]}, [r8], r12
294 7: vsri.32 d18, d16, #16
296 vst1.32 {d18[0]}, [r8], r12
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/
Dghash-armv4.S419 vext.8 d18, d26, d26, #2 @ A2
420 vmull.p8 q9, d18, d6 @ H = A2*B
432 veor d18, d18, d19 @ t1 = (M) (P2 + P3) << 16
437 veor d18, d18, d19
457 vext.8 d18, d28, d28, #2 @ A2
458 vmull.p8 q9, d18, d6 @ H = A2*B
470 veor d18, d18, d19 @ t1 = (M) (P2 + P3) << 16
475 veor d18, d18, d19
494 vext.8 d18, d27, d27, #2 @ A2
495 vmull.p8 q9, d18, d7 @ H = A2*B
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/
Dghash-armv4.S419 vext.8 d18, d26, d26, #2 @ A2
420 vmull.p8 q9, d18, d6 @ H = A2*B
432 veor d18, d18, d19 @ t1 = (M) (P2 + P3) << 16
437 veor d18, d18, d19
457 vext.8 d18, d28, d28, #2 @ A2
458 vmull.p8 q9, d18, d6 @ H = A2*B
470 veor d18, d18, d19 @ t1 = (M) (P2 + P3) << 16
475 veor d18, d18, d19
494 vext.8 d18, d27, d27, #2 @ A2
495 vmull.p8 q9, d18, d7 @ H = A2*B
[all …]

12345