Home
last modified time | relevance | path

Searched refs:d25 (Results 1 – 25 of 90) sorted by relevance

1234

/third_party/ffmpeg/libavcodec/arm/
Dvp9lpf_neon.S98 vsubl.u8 q7, d25, d23 @ q0 - p0
125 vmovl.u8 q7, d25 @ q0
164 vabd.u8 d7, d24, d25 @ abs(q0 - q1)
165 vabd.u8 \tmp1, d25, d26 @ abs(q1 - q2)
173 vabd.u8 d5, d22, d25 @ abs(p1 - q1)
193 vabd.u8 \tmp1, d25, d24 @ abs(q1 - q0)
232 vabd.u8 d1, d25, d24 @ abs(q1 - q0)
238 vsubl.u8 \tmpq1, d22, d25 @ p1 - q1
286 vmovl.u8 q1, d25 @ q1
298 vbit d25, d2, d5
[all …]
Dvp9itxfm_16bpp_neon.S842 butterfly d23, d27, d25, d27 @ d23 = t14, d27 = t13
843 butterfly d25, d29, d29, d17 @ d25 = t15a, d29 = t12a
850 butterfly d16, d31, d18, d25 @ d16 = out[0], d31 = out[15]
852 butterfly_r d25, d22, d22, d24 @ d25 = out[9], d22 = out[6]
868 mbutterfly d25, d23, d5[0], d5[1], q4, q5 @ d25 = t9a, d23 = t14a
876 butterfly d16, d25, d17, d25 @ d16 = t8, d25 = t9
882 mbutterfly d23, d25, d1[0], d1[1], q9, q15 @ d23 = t9a, d25 = t14a
893 mbutterfly_h2 d25, d23, d5[0], d5[1], q4, q5 @ d25 = t9a, d23 = t14a
901 butterfly d16, d25, d17, d25 @ d16 = t8, d25 = t9
907 mbutterfly d23, d25, d1[0], d1[1], q9, q15 @ d23 = t9a, d25 = t14a
[all …]
Dmdct_neon.S102 vmul.f32 d25, d20, d17
106 vsub.f32 d5, d5, d25
198 vmul.f32 d25, d17, d31 @ -I*s
204 vsub.f32 d24, d25, d24 @ I*s-R*c
205 vadd.f32 d25, d22, d23 @ R*s-I*c
231 vst2.32 {d24[0],d25[0]},[r10,:64]
232 vst2.32 {d24[1],d25[1]},[r6,:64]
246 vst2.32 {d24[0],d25[0]},[r10,:64]
247 vst2.32 {d24[1],d25[1]},[r6,:64]
279 vmul.f32 d25, d20, d17 @ r2*c2,r3*c3
[all …]
Dfft_neon.S75 vmul.f32 d25, d19, d31 @ a3r*w,a3i*w
83 vadd.f32 d25, d25, d27 @ a3r-a3i,a3i+a3r t5,t6
89 vadd.f32 d5, d25, d24
109 vld1.32 {d22-d25}, [r0,:128]! @ q11{r4,i4,r5,i5} q12{r6,i5,r7,i7}
117 vsub.f32 d23, d24, d25
119 vadd.f32 d21, d24, d25
122 vmul.f32 d25, d23, d3
141 vswp d25, d26 @ q12{r8,i8,i10,r11} q13{r9,i9,i11,r10}
159 vswp d25, d28 @ q12{r8,i8,r12,i12} q14{r9,i9,r13,i13}
168 vadd.f32 d1, d25, d29
[all …]
Dvorbisdsp_neon.S31 vld1.32 {d24-d25},[r1,:128]!
45 vst1.32 {d24-d25},[r3, :128]!
53 vld1.32 {d24-d25},[r1,:128]!
Dhevcdsp_sao_neon.S49 vtbx.8 d25, {q0-q1}, d21
53 vtbx.8 d25, {q2-q3}, d21
75 vtbx.8 d25, {q0-q1}, d21
79 vtbx.8 d25, {q2-q3}, d21
Dlossless_audiodsp_neon.S37 vld1.16 {d24-d25}, [r1]!
46 vmlal.s16 q3, d23, d25
Dsynth_filter_neon.S72 vmla.f32 d3, d23, d25
79 vmla.f32 d6, d22, d25
Dvp9itxfm_neon.S828 vst1.16 {d25}, [r0,:64]!
991 …q10, q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29…
1002 vst1.16 {d25}, [r0,:64]!
1051 …q10, q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29…
Dh264dsp_neon.S205 vneg.s8 d25, d24
207 vmax.s8 d4, d4, d25
326 vqmovun.s16 d25, q13
330 vst1.8 {d24-d25},[r6,:128], r2
467 vqmovun.s16 d25, q13
469 vst1.8 {d24-d25},[r4,:128], r1
/third_party/vixl/test/aarch32/
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc402 {{F64, d16, d17, d25},
467 {{F64, d27, d25, d7},
497 {{F64, d25, d14, d25},
552 {{F64, d25, d29, d17},
567 {{F64, d3, d4, d25},
637 {{F64, d17, d25, d11},
697 {{F64, d25, d26, d10},
787 {{F64, d1, d25, d1},
857 {{F64, d18, d18, d25},
867 {{F64, d25, d21, d21},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc402 {{F64, d16, d17, d25},
467 {{F64, d27, d25, d7},
497 {{F64, d25, d14, d25},
552 {{F64, d25, d29, d17},
567 {{F64, d3, d4, d25},
637 {{F64, d17, d25, d11},
697 {{F64, d25, d26, d10},
787 {{F64, d1, d25, d1},
857 {{F64, d18, d18, d25},
867 {{F64, d25, d21, d21},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc111 {{F64, d11, d25, d14}, false, al, "F64 d11 d25 d14", "F64_d11_d25_d14"},
129 {{F32, d1, d15, d25}, false, al, "F32 d1 d15 d25", "F32_d1_d15_d25"},
160 {{F64, d20, d25, d20}, false, al, "F64 d20 d25 d20", "F64_d20_d25_d20"},
179 {{F64, d25, d23, d24}, false, al, "F64 d25 d23 d24", "F64_d25_d23_d24"},
185 {{F32, d25, d23, d17}, false, al, "F32 d25 d23 d17", "F32_d25_d23_d17"},
186 {{F64, d13, d25, d3}, false, al, "F64 d13 d25 d3", "F64_d13_d25_d3"},
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc111 {{F64, d11, d25, d14}, false, al, "F64 d11 d25 d14", "F64_d11_d25_d14"},
129 {{F32, d1, d15, d25}, false, al, "F32 d1 d15 d25", "F32_d1_d15_d25"},
160 {{F64, d20, d25, d20}, false, al, "F64 d20 d25 d20", "F64_d20_d25_d20"},
179 {{F64, d25, d23, d24}, false, al, "F64 d25 d23 d24", "F64_d25_d23_d24"},
185 {{F32, d25, d23, d17}, false, al, "F32 d25 d23 d17", "F32_d25_d23_d17"},
186 {{F64, d13, d25, d3}, false, al, "F64 d13 d25 d3", "F64_d13_d25_d3"},
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc119 {{F32, d25, d5, d14}, false, al, "F32 d25 d5 d14", "F32_d25_d5_d14"},
158 {{F32, d25, d14, d5}, false, al, "F32 d25 d14 d5", "F32_d25_d14_d5"},
186 {{F32, d25, d21, d8}, false, al, "F32 d25 d21 d8", "F32_d25_d21_d8"},
/third_party/openh264/codec/encoder/core/arm/
Dintra_pred_sad_3_opt_neon.S157 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d20, d27, d15, d16, d17, d14
170 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d21, d27, d15, d16, d17, d14
183 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d18, d27, d15, d16, d17, d14
196 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d19, d27, d15, d16, d17, d14
296 vadd.u16 d24, d25
360 vdup.8 d25, d2[4]
361 vtrn.32 d26, d25 //Save to "d27, d26"
371 vdup.8 d25, d2[0]
373 vtrn.32 d25, d24
408 vabal.u8 q9, d25, d1
[all …]
Dreconstruct_neon.S448 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d28
456 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d29
468 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d28
476 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d29
714 vld1.u64 {d25}, [r2], r3
744 vmovl.u8 q8,d25
746 vqmovun.s16 d25,q1
747 vst1.u8 {d25},[r0],r1
760 vld1.u64 {d25}, [r2], r3
790 vmovl.u8 q8,d25
[all …]
/third_party/openh264/codec/processing/src/arm/
Dadaptive_quantization.S54 vaddl.u16 q12, d24, d25
93 vadd.u32 d2, d24, d25 //sqr
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/sha/
Dsha256-armv4.S1975 vshr.u32 d25,d7,#10
1981 veor d25,d25,d24
1990 veor d25,d25,d24
1993 vadd.i32 d0,d0,d25
2002 vshr.u32 d25,d0,#10
2005 veor d25,d25,d24
2017 veor d25,d25,d24
2020 vadd.i32 d1,d1,d25
2073 vshr.u32 d25,d1,#10
2079 veor d25,d25,d24
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/sha/
Dsha256-armv4.S1975 vshr.u32 d25,d7,#10
1981 veor d25,d25,d24
1990 veor d25,d25,d24
1993 vadd.i32 d0,d0,d25
2002 vshr.u32 d25,d0,#10
2005 veor d25,d25,d24
2017 veor d25,d25,d24
2020 vadd.i32 d1,d1,d25
2073 vshr.u32 d25,d1,#10
2079 veor d25,d25,d24
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/aes/
Dbsaes-armv7.S207 vtbl.8 d1, {q8}, d25
211 vtbl.8 d3, {q9}, d25
215 vtbl.8 d5, {q10}, d25
218 vtbl.8 d7, {q11}, d25
223 vtbl.8 d9, {q8}, d25
226 vtbl.8 d11, {q9}, d25
229 vtbl.8 d13, {q10}, d25
231 vtbl.8 d15, {q11}, d25
700 vtbl.8 d1, {q8}, d25
704 vtbl.8 d3, {q9}, d25
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/aes/
Dbsaes-armv7.S207 vtbl.8 d1, {q8}, d25
211 vtbl.8 d3, {q9}, d25
215 vtbl.8 d5, {q10}, d25
218 vtbl.8 d7, {q11}, d25
223 vtbl.8 d9, {q8}, d25
226 vtbl.8 d11, {q9}, d25
229 vtbl.8 d13, {q10}, d25
231 vtbl.8 d15, {q11}, d25
700 vtbl.8 d1, {q8}, d25
704 vtbl.8 d3, {q9}, d25
[all …]
/third_party/vixl/test/aarch64/
Dtest-assembler-fp-aarch64.cc2199 __ Fmov(d25, 0.25); in TEST()
2214 __ Fsqrt(d9, d25); in TEST()
2330 __ Fmov(d25, kFP64DefaultNaN); in TEST()
2350 __ Frint32x(d12, d25); in TEST()
2474 __ Fmov(d25, kFP64DefaultNaN); in TEST()
2494 __ Frint32z(d12, d25); in TEST()
2619 __ Fmov(d25, kFP64DefaultNaN); in TEST()
2640 __ Frint64x(d12, d25); in TEST()
2765 __ Fmov(d25, kFP64DefaultNaN); in TEST()
2786 __ Frint64z(d12, d25); in TEST()
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/
Dpoly1305-armv4.S781 vmull.u32 q7,d25,d0[1]
796 vmlal.u32 q8,d25,d1[1]
803 vmlal.u32 q9,d25,d3[1]
808 vmlal.u32 q5,d25,d6[1]
816 vmlal.u32 q6,d25,d8[1]
819 vld4.32 {d21,d23,d25,d27},[r4] @ inp[2:3] (or 0)
927 vadd.i32 d25,d24,d14 @ add hash value and move to #hi
938 vmull.u32 q7,d25,d0
950 vmlal.u32 q8,d25,d1
960 vmlal.u32 q9,d25,d3
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/
Dpoly1305-armv4.S781 vmull.u32 q7,d25,d0[1]
796 vmlal.u32 q8,d25,d1[1]
803 vmlal.u32 q9,d25,d3[1]
808 vmlal.u32 q5,d25,d6[1]
816 vmlal.u32 q6,d25,d8[1]
819 vld4.32 {d21,d23,d25,d27},[r4] @ inp[2:3] (or 0)
927 vadd.i32 d25,d24,d14 @ add hash value and move to #hi
938 vmull.u32 q7,d25,d0
950 vmlal.u32 q8,d25,d1
960 vmlal.u32 q9,d25,d3
[all …]

1234