/third_party/ffmpeg/libavcodec/arm/ |
D | vp9lpf_neon.S | 98 vsubl.u8 q7, d25, d23 @ q0 - p0 125 vmovl.u8 q7, d25 @ q0 164 vabd.u8 d7, d24, d25 @ abs(q0 - q1) 165 vabd.u8 \tmp1, d25, d26 @ abs(q1 - q2) 173 vabd.u8 d5, d22, d25 @ abs(p1 - q1) 193 vabd.u8 \tmp1, d25, d24 @ abs(q1 - q0) 232 vabd.u8 d1, d25, d24 @ abs(q1 - q0) 238 vsubl.u8 \tmpq1, d22, d25 @ p1 - q1 286 vmovl.u8 q1, d25 @ q1 298 vbit d25, d2, d5 [all …]
|
D | vp9itxfm_16bpp_neon.S | 842 butterfly d23, d27, d25, d27 @ d23 = t14, d27 = t13 843 butterfly d25, d29, d29, d17 @ d25 = t15a, d29 = t12a 850 butterfly d16, d31, d18, d25 @ d16 = out[0], d31 = out[15] 852 butterfly_r d25, d22, d22, d24 @ d25 = out[9], d22 = out[6] 868 mbutterfly d25, d23, d5[0], d5[1], q4, q5 @ d25 = t9a, d23 = t14a 876 butterfly d16, d25, d17, d25 @ d16 = t8, d25 = t9 882 mbutterfly d23, d25, d1[0], d1[1], q9, q15 @ d23 = t9a, d25 = t14a 893 mbutterfly_h2 d25, d23, d5[0], d5[1], q4, q5 @ d25 = t9a, d23 = t14a 901 butterfly d16, d25, d17, d25 @ d16 = t8, d25 = t9 907 mbutterfly d23, d25, d1[0], d1[1], q9, q15 @ d23 = t9a, d25 = t14a [all …]
|
D | mdct_neon.S | 102 vmul.f32 d25, d20, d17 106 vsub.f32 d5, d5, d25 198 vmul.f32 d25, d17, d31 @ -I*s 204 vsub.f32 d24, d25, d24 @ I*s-R*c 205 vadd.f32 d25, d22, d23 @ R*s-I*c 231 vst2.32 {d24[0],d25[0]},[r10,:64] 232 vst2.32 {d24[1],d25[1]},[r6,:64] 246 vst2.32 {d24[0],d25[0]},[r10,:64] 247 vst2.32 {d24[1],d25[1]},[r6,:64] 279 vmul.f32 d25, d20, d17 @ r2*c2,r3*c3 [all …]
|
D | fft_neon.S | 75 vmul.f32 d25, d19, d31 @ a3r*w,a3i*w 83 vadd.f32 d25, d25, d27 @ a3r-a3i,a3i+a3r t5,t6 89 vadd.f32 d5, d25, d24 109 vld1.32 {d22-d25}, [r0,:128]! @ q11{r4,i4,r5,i5} q12{r6,i5,r7,i7} 117 vsub.f32 d23, d24, d25 119 vadd.f32 d21, d24, d25 122 vmul.f32 d25, d23, d3 141 vswp d25, d26 @ q12{r8,i8,i10,r11} q13{r9,i9,i11,r10} 159 vswp d25, d28 @ q12{r8,i8,r12,i12} q14{r9,i9,r13,i13} 168 vadd.f32 d1, d25, d29 [all …]
|
D | vorbisdsp_neon.S | 31 vld1.32 {d24-d25},[r1,:128]! 45 vst1.32 {d24-d25},[r3, :128]! 53 vld1.32 {d24-d25},[r1,:128]!
|
D | hevcdsp_sao_neon.S | 49 vtbx.8 d25, {q0-q1}, d21 53 vtbx.8 d25, {q2-q3}, d21 75 vtbx.8 d25, {q0-q1}, d21 79 vtbx.8 d25, {q2-q3}, d21
|
D | lossless_audiodsp_neon.S | 37 vld1.16 {d24-d25}, [r1]! 46 vmlal.s16 q3, d23, d25
|
D | synth_filter_neon.S | 72 vmla.f32 d3, d23, d25 79 vmla.f32 d6, d22, d25
|
D | vp9itxfm_neon.S | 828 vst1.16 {d25}, [r0,:64]! 991 …q10, q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29… 1002 vst1.16 {d25}, [r0,:64]! 1051 …q10, q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29…
|
D | h264dsp_neon.S | 205 vneg.s8 d25, d24 207 vmax.s8 d4, d4, d25 326 vqmovun.s16 d25, q13 330 vst1.8 {d24-d25},[r6,:128], r2 467 vqmovun.s16 d25, q13 469 vst1.8 {d24-d25},[r4,:128], r1
|
/third_party/vixl/test/aarch32/ |
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 402 {{F64, d16, d17, d25}, 467 {{F64, d27, d25, d7}, 497 {{F64, d25, d14, d25}, 552 {{F64, d25, d29, d17}, 567 {{F64, d3, d4, d25}, 637 {{F64, d17, d25, d11}, 697 {{F64, d25, d26, d10}, 787 {{F64, d1, d25, d1}, 857 {{F64, d18, d18, d25}, 867 {{F64, d25, d21, d21}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 402 {{F64, d16, d17, d25}, 467 {{F64, d27, d25, d7}, 497 {{F64, d25, d14, d25}, 552 {{F64, d25, d29, d17}, 567 {{F64, d3, d4, d25}, 637 {{F64, d17, d25, d11}, 697 {{F64, d25, d26, d10}, 787 {{F64, d1, d25, d1}, 857 {{F64, d18, d18, d25}, 867 {{F64, d25, d21, d21}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 111 {{F64, d11, d25, d14}, false, al, "F64 d11 d25 d14", "F64_d11_d25_d14"}, 129 {{F32, d1, d15, d25}, false, al, "F32 d1 d15 d25", "F32_d1_d15_d25"}, 160 {{F64, d20, d25, d20}, false, al, "F64 d20 d25 d20", "F64_d20_d25_d20"}, 179 {{F64, d25, d23, d24}, false, al, "F64 d25 d23 d24", "F64_d25_d23_d24"}, 185 {{F32, d25, d23, d17}, false, al, "F32 d25 d23 d17", "F32_d25_d23_d17"}, 186 {{F64, d13, d25, d3}, false, al, "F64 d13 d25 d3", "F64_d13_d25_d3"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 111 {{F64, d11, d25, d14}, false, al, "F64 d11 d25 d14", "F64_d11_d25_d14"}, 129 {{F32, d1, d15, d25}, false, al, "F32 d1 d15 d25", "F32_d1_d15_d25"}, 160 {{F64, d20, d25, d20}, false, al, "F64 d20 d25 d20", "F64_d20_d25_d20"}, 179 {{F64, d25, d23, d24}, false, al, "F64 d25 d23 d24", "F64_d25_d23_d24"}, 185 {{F32, d25, d23, d17}, false, al, "F32 d25 d23 d17", "F32_d25_d23_d17"}, 186 {{F64, d13, d25, d3}, false, al, "F64 d13 d25 d3", "F64_d13_d25_d3"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 119 {{F32, d25, d5, d14}, false, al, "F32 d25 d5 d14", "F32_d25_d5_d14"}, 158 {{F32, d25, d14, d5}, false, al, "F32 d25 d14 d5", "F32_d25_d14_d5"}, 186 {{F32, d25, d21, d8}, false, al, "F32 d25 d21 d8", "F32_d25_d21_d8"},
|
/third_party/openh264/codec/encoder/core/arm/ |
D | intra_pred_sad_3_opt_neon.S | 157 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d20, d27, d15, d16, d17, d14 170 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d21, d27, d15, d16, d17, d14 183 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d18, d27, d15, d16, d17, d14 196 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d19, d27, d15, d16, d17, d14 296 vadd.u16 d24, d25 360 vdup.8 d25, d2[4] 361 vtrn.32 d26, d25 //Save to "d27, d26" 371 vdup.8 d25, d2[0] 373 vtrn.32 d25, d24 408 vabal.u8 q9, d25, d1 [all …]
|
D | reconstruct_neon.S | 448 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d28 456 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d29 468 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d28 476 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d29 714 vld1.u64 {d25}, [r2], r3 744 vmovl.u8 q8,d25 746 vqmovun.s16 d25,q1 747 vst1.u8 {d25},[r0],r1 760 vld1.u64 {d25}, [r2], r3 790 vmovl.u8 q8,d25 [all …]
|
/third_party/openh264/codec/processing/src/arm/ |
D | adaptive_quantization.S | 54 vaddl.u16 q12, d24, d25 93 vadd.u32 d2, d24, d25 //sqr
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/sha/ |
D | sha256-armv4.S | 1975 vshr.u32 d25,d7,#10 1981 veor d25,d25,d24 1990 veor d25,d25,d24 1993 vadd.i32 d0,d0,d25 2002 vshr.u32 d25,d0,#10 2005 veor d25,d25,d24 2017 veor d25,d25,d24 2020 vadd.i32 d1,d1,d25 2073 vshr.u32 d25,d1,#10 2079 veor d25,d25,d24 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/sha/ |
D | sha256-armv4.S | 1975 vshr.u32 d25,d7,#10 1981 veor d25,d25,d24 1990 veor d25,d25,d24 1993 vadd.i32 d0,d0,d25 2002 vshr.u32 d25,d0,#10 2005 veor d25,d25,d24 2017 veor d25,d25,d24 2020 vadd.i32 d1,d1,d25 2073 vshr.u32 d25,d1,#10 2079 veor d25,d25,d24 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/aes/ |
D | bsaes-armv7.S | 207 vtbl.8 d1, {q8}, d25 211 vtbl.8 d3, {q9}, d25 215 vtbl.8 d5, {q10}, d25 218 vtbl.8 d7, {q11}, d25 223 vtbl.8 d9, {q8}, d25 226 vtbl.8 d11, {q9}, d25 229 vtbl.8 d13, {q10}, d25 231 vtbl.8 d15, {q11}, d25 700 vtbl.8 d1, {q8}, d25 704 vtbl.8 d3, {q9}, d25 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/aes/ |
D | bsaes-armv7.S | 207 vtbl.8 d1, {q8}, d25 211 vtbl.8 d3, {q9}, d25 215 vtbl.8 d5, {q10}, d25 218 vtbl.8 d7, {q11}, d25 223 vtbl.8 d9, {q8}, d25 226 vtbl.8 d11, {q9}, d25 229 vtbl.8 d13, {q10}, d25 231 vtbl.8 d15, {q11}, d25 700 vtbl.8 d1, {q8}, d25 704 vtbl.8 d3, {q9}, d25 [all …]
|
/third_party/vixl/test/aarch64/ |
D | test-assembler-fp-aarch64.cc | 2199 __ Fmov(d25, 0.25); in TEST() 2214 __ Fsqrt(d9, d25); in TEST() 2330 __ Fmov(d25, kFP64DefaultNaN); in TEST() 2350 __ Frint32x(d12, d25); in TEST() 2474 __ Fmov(d25, kFP64DefaultNaN); in TEST() 2494 __ Frint32z(d12, d25); in TEST() 2619 __ Fmov(d25, kFP64DefaultNaN); in TEST() 2640 __ Frint64x(d12, d25); in TEST() 2765 __ Fmov(d25, kFP64DefaultNaN); in TEST() 2786 __ Frint64z(d12, d25); in TEST() [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/ |
D | poly1305-armv4.S | 781 vmull.u32 q7,d25,d0[1] 796 vmlal.u32 q8,d25,d1[1] 803 vmlal.u32 q9,d25,d3[1] 808 vmlal.u32 q5,d25,d6[1] 816 vmlal.u32 q6,d25,d8[1] 819 vld4.32 {d21,d23,d25,d27},[r4] @ inp[2:3] (or 0) 927 vadd.i32 d25,d24,d14 @ add hash value and move to #hi 938 vmull.u32 q7,d25,d0 950 vmlal.u32 q8,d25,d1 960 vmlal.u32 q9,d25,d3 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/ |
D | poly1305-armv4.S | 781 vmull.u32 q7,d25,d0[1] 796 vmlal.u32 q8,d25,d1[1] 803 vmlal.u32 q9,d25,d3[1] 808 vmlal.u32 q5,d25,d6[1] 816 vmlal.u32 q6,d25,d8[1] 819 vld4.32 {d21,d23,d25,d27},[r4] @ inp[2:3] (or 0) 927 vadd.i32 d25,d24,d14 @ add hash value and move to #hi 938 vmull.u32 q7,d25,d0 950 vmlal.u32 q8,d25,d1 960 vmlal.u32 q9,d25,d3 [all …]
|