/third_party/ffmpeg/libavcodec/arm/ |
D | vp9lpf_neon.S | 98 vsubl.u8 q7, d25, d23 @ q0 - p0 116 vmovl.u8 q7, d23 @ p0 152 @ p7 = d16 .. p3 = d20, p0 = d23, q0 = d24, q3 = d27, q7 = d31 163 vabd.u8 d6, d22, d23 @ abs(p1 - p0) 170 vabd.u8 d6, d23, d24 @ abs(p0 - q0) 190 vabd.u8 d6, d20, d23 @ abs(p3 - p0) 191 vabd.u8 d2, d21, d23 @ abs(p2 - p0) 192 vabd.u8 d1, d22, d23 @ abs(p1 - p0) 200 vabd.u8 d7, d16, d23 @ abs(p7 - p0) 202 vabd.u8 d2, d17, d23 @ abs(p6 - p0) [all …]
|
D | fft_neon.S | 72 vsub.f32 d23, d22, d23 @ i2-i3,r3-r2 78 vadd.f32 d1, d22, d23 80 vsub.f32 d3, d22, d23 115 vadd.f32 d20, d22, d23 116 vsub.f32 d22, d22, d23 117 vsub.f32 d23, d24, d25 122 vmul.f32 d25, d23, d3 132 vadd.f32 d1, d21, d23 133 vsub.f32 d2, d21, d23 199 vst2.32 {d22-d23},[r0,:128], r1 [all …]
|
D | rdft_neon.S | 93 veor d7, d23, d16 @ -od.im, od.re 96 vrev64.32 d3, d23 @ od.re, od.im 104 vmla.f32 d24, d23, d5[0] 127 vmov d23, d22 129 vtrn.32 d22, d23 131 veor d23, d23, d17 136 vadd.f32 d22, d22, d23
|
D | vp9itxfm_16bpp_neon.S | 841 butterfly d24, d21, d23, d21 @ d24 = t9, d21 = t10 842 butterfly d23, d27, d25, d27 @ d23 = t14, d27 = t13 851 butterfly d17, d30, d19, d23 @ d17 = out[1], d30 = out[14] 853 butterfly d23, d24, d11, d20 @ d23 = out[7], d24 = out[8] 868 mbutterfly d25, d23, d5[0], d5[1], q4, q5 @ d25 = t9a, d23 = t14a 879 butterfly d29, d23, d31, d23 @ d29 = t15, d23 = t14 882 mbutterfly d23, d25, d1[0], d1[1], q9, q15 @ d23 = t9a, d25 = t14a 893 mbutterfly_h2 d25, d23, d5[0], d5[1], q4, q5 @ d25 = t9a, d23 = t14a 904 butterfly d29, d23, d31, d23 @ d29 = t15, d23 = t14 907 mbutterfly d23, d25, d1[0], d1[1], q9, q15 @ d23 = t9a, d25 = t14a [all …]
|
D | hevcdsp_qpel_neon.S | 33 vmov d22, d23 49 vext.8 d16, d22, d23, #1 50 vext.8 d17, d22, d23, #2 51 vext.8 d18, d22, d23, #3 52 vext.8 d19, d22, d23, #4 53 vext.8 d20, d22, d23, #5 54 vext.8 d21, d22, d23, #6 55 vext.8 d22, d22, d23, #7 74 vld1.8 {d23}, [r2], r3 194 vaddl.u8 q12, d16, d23 // a + h [all …]
|
D | sbcdsp_neon.S | 238 vld1.32 {d22, d23}, [r6, :128], r11 335 vbif.s32 d23, d17, d31 340 vst1.32 {d22, d23}, [r5, :128], r11 359 vbif.s32 d23, d17, d31 362 vst1.32 {d22, d23}, [r5, :128] 658 vld1.8 {d20, d21, d22, d23}, [r1]! 666 vtbl.8 d16, {d20, d21, d22, d23}, d0 667 vtbl.8 d17, {d20, d21, d22, d23}, d1 668 vtbl.8 d18, {d20, d21, d22, d23}, d2 669 vtbl.8 d19, {d20, d21, d22, d23}, d3 [all …]
|
D | vorbisdsp_neon.S | 32 vld1.32 {d22-d23},[r0,:128]! 46 vst1.32 {d22-d23},[r12,:128]! 54 vld1.32 {d22-d23},[r0,:128]!
|
D | int_neon.S | 34 vld1.16 {d22-d23}, [r1,:128]! 36 vmlal.s16 q3, d19, d23
|
D | vp9itxfm_neon.S | 835 vst1.16 {d23}, [r0,:64]! 989 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31 991 …q8, q9, q10, q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27… 1009 vst1.16 {d23}, [r0,:64]! 1049 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31 1051 …q8, q9, q10, q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27…
|
D | lossless_audiodsp_neon.S | 36 vld1.16 {d22-d23}, [r0,:128]! 46 vmlal.s16 q3, d23, d25
|
D | mdct_neon.S | 100 vmul.f32 d23, d21, d17 104 vadd.f32 d6, d6, d23 200 vmul.f32 d23, d17, d30 @ I*c 205 vadd.f32 d25, d22, d23 @ R*s-I*c 281 vmul.f32 d23, d1, d16 @ i1*c1,i0*c0 285 vsub.f32 d7, d23, d7 @ i1*c1-r1*s1,i0*c0-r0*s0
|
D | synth_filter_neon.S | 72 vmla.f32 d3, d23, d25 80 vmla.f32 d7, d23, d24
|
/third_party/skia/third_party/externals/libpng/arm/ |
D | filter_neon.S | 89 vext.8 d5, d22, d23, #3 91 vext.8 d6, d22, d23, #6 93 vext.8 d7, d23, d23, #1 151 vext.8 d5, d22, d23, #3 155 vext.8 d6, d22, d23, #6 159 vext.8 d7, d23, d23, #1 227 vext.8 d5, d22, d23, #3 232 vext.8 d6, d22, d23, #6 236 vext.8 d7, d23, d23, #1
|
/third_party/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 105 {{F32, d18, d17, d23}, false, al, "F32 d18 d17 d23", "F32_d18_d17_d23"}, 118 {{F64, d9, d23, d8}, false, al, "F64 d9 d23 d8", "F64_d9_d23_d8"}, 131 {{F64, d29, d23, d10}, false, al, "F64 d29 d23 d10", "F64_d29_d23_d10"}, 162 {{F64, d20, d23, d16}, false, al, "F64 d20 d23 d16", "F64_d20_d23_d16"}, 165 {{F32, d23, d20, d7}, false, al, "F32 d23 d20 d7", "F32_d23_d20_d7"}, 168 {{F64, d10, d30, d23}, false, al, "F64 d10 d30 d23", "F64_d10_d30_d23"}, 179 {{F64, d25, d23, d24}, false, al, "F64 d25 d23 d24", "F64_d25_d23_d24"}, 183 {{F32, d9, d6, d23}, false, al, "F32 d9 d6 d23", "F32_d9_d6_d23"}, 185 {{F32, d25, d23, d17}, false, al, "F32 d25 d23 d17", "F32_d25_d23_d17"}, 193 {{F64, d2, d23, d13}, false, al, "F64 d2 d23 d13", "F64_d2_d23_d13"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 105 {{F32, d18, d17, d23}, false, al, "F32 d18 d17 d23", "F32_d18_d17_d23"}, 118 {{F64, d9, d23, d8}, false, al, "F64 d9 d23 d8", "F64_d9_d23_d8"}, 131 {{F64, d29, d23, d10}, false, al, "F64 d29 d23 d10", "F64_d29_d23_d10"}, 162 {{F64, d20, d23, d16}, false, al, "F64 d20 d23 d16", "F64_d20_d23_d16"}, 165 {{F32, d23, d20, d7}, false, al, "F32 d23 d20 d7", "F32_d23_d20_d7"}, 168 {{F64, d10, d30, d23}, false, al, "F64 d10 d30 d23", "F64_d10_d30_d23"}, 179 {{F64, d25, d23, d24}, false, al, "F64 d25 d23 d24", "F64_d25_d23_d24"}, 183 {{F32, d9, d6, d23}, false, al, "F32 d9 d6 d23", "F32_d9_d6_d23"}, 185 {{F32, d25, d23, d17}, false, al, "F32 d25 d23 d17", "F32_d25_d23_d17"}, 193 {{F64, d2, d23, d13}, false, al, "F64 d2 d23 d13", "F64_d2_d23_d13"}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 422 {{F64, d23, d3, d9}, 442 {{F64, d1, d2, d23}, 512 {{F64, d23, d23, d15}, 517 {{F64, d7, d23, d3}, 522 {{F64, d7, d23, d16}, 527 {{F64, d23, d18, d21}, 582 {{F64, d30, d19, d23}, 692 {{F64, d23, d2, d26}, 707 {{F64, d4, d31, d23}, 712 {{F64, d30, d1, d23}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 422 {{F64, d23, d3, d9}, 442 {{F64, d1, d2, d23}, 512 {{F64, d23, d23, d15}, 517 {{F64, d7, d23, d3}, 522 {{F64, d7, d23, d16}, 527 {{F64, d23, d18, d21}, 582 {{F64, d30, d19, d23}, 692 {{F64, d23, d2, d26}, 707 {{F64, d4, d31, d23}, 712 {{F64, d30, d1, d23}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 132 {{F32, d16, d23, d26}, false, al, "F32 d16 d23 d26", "F32_d16_d23_d26"}, 161 {{F32, d23, d0, d22}, false, al, "F32 d23 d0 d22", "F32_d23_d0_d22"}, 162 {{F32, d23, d31, d10}, false, al, "F32 d23 d31 d10", "F32_d23_d31_d10"}, 176 {{F32, d26, d23, d0}, false, al, "F32 d26 d23 d0", "F32_d26_d23_d0"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 132 {{F32, d16, d23, d26}, false, al, "F32 d16 d23 d26", "F32_d16_d23_d26"}, 161 {{F32, d23, d0, d22}, false, al, "F32 d23 d0 d22", "F32_d23_d0_d22"}, 162 {{F32, d23, d31, d10}, false, al, "F32 d23 d31 d10", "F32_d23_d31_d10"}, 176 {{F32, d26, d23, d0}, false, al, "F32 d26 d23 d0", "F32_d26_d23_d0"},
|
/third_party/ffmpeg/libavresample/arm/ |
D | audio_convert_neon.S | 168 vzip.32 d19, d23 175 vst1.16 {d23}, [r8], r12 227 vsri.32 d23, d21, #16 236 vst1.32 {d23[0]}, [r8], r12 237 vst1.32 {d23[1]}, [r8], r12 254 vsri.32 d23, d21, #16 263 vst1.32 {d23[0]}, [r8], r12 264 vst1.32 {d23[1]}, [r8], r12 297 vsri.32 d23, d21, #16 302 vst1.32 {d23[0]}, [r8], r12 [all …]
|
/third_party/ffmpeg/libswresample/arm/ |
D | audio_convert_neon.S | 170 vzip.32 d19, d23 177 vst1.16 {d23}, [r8], r12 229 vsri.32 d23, d21, #16 238 vst1.32 {d23[0]}, [r8], r12 239 vst1.32 {d23[1]}, [r8], r12 256 vsri.32 d23, d21, #16 265 vst1.32 {d23[0]}, [r8], r12 266 vst1.32 {d23[1]}, [r8], r12 299 vsri.32 d23, d21, #16 304 vst1.32 {d23[0]}, [r8], r12 [all …]
|
/third_party/ffmpeg/libavutil/arm/ |
D | float_dsp_neon.S | 48 vst1.32 {d20-d23},[r0,:128]! 166 vmul.f32 d23, d1, d5 173 vmla.f32 d23, d2, d6 182 vswp d22, d23 184 vst1.32 {d22,d23},[ip,:128], r5 187 vmla.f32 d23, d2, d6 191 vswp d22, d23 193 vst1.32 {d22,d23},[ip,:128], r5
|
/third_party/openh264/codec/encoder/core/arm/ |
D | intra_pred_sad_3_opt_neon.S | 158 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d20, d27, d15, d16, d17, d14 171 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d21, d27, d15, d16, d17, d14 184 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d18, d27, d15, d16, d17, d14 197 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d19, d27, d15, d16, d17, d14 301 vadd.u16 d22, d23 376 vdup.8 d23, d2[4] 377 vtrn.32 d24, d23 //Save to "d25, d24" 445 vadd.u16 d22, d23 568 HDM_TRANSFORM_4X4_L0 d6, d8, d26, d23, d18, d11, d10, d28, d30 569 HDM_TRANSFORM_4X4_L0 d7, d9, d27, d23, d15, d11, d10, d28, d30 [all …]
|
/third_party/skia/src/core/ |
D | SkMaskBlurFilter.cpp | 706 Sk8h* d01, Sk8h* d12, Sk8h* d23, Sk8h* d34, Sk8h*, Sk8h*, Sk8h*, Sk8h*) { in blur_y_radius_2() argument 713 *d12 = *d23 + v0; in blur_y_radius_2() 714 *d23 = *d34 + v1; in blur_y_radius_2() 723 Sk8h* d01, Sk8h* d12, Sk8h* d23, Sk8h* d34, Sk8h* d45, Sk8h* d56, Sk8h*, Sk8h*) { in blur_y_radius_3() argument 731 *d12 = *d23 + v1; in blur_y_radius_3() 732 *d23 = *d34 + v0; in blur_y_radius_3() 743 Sk8h* d01, Sk8h* d12, Sk8h* d23, Sk8h* d34, Sk8h* d45, Sk8h* d56, Sk8h* d67, Sk8h* d78) { in blur_y_radius_4() argument 752 *d12 = *d23 + v2; in blur_y_radius_4() 753 *d23 = *d34 + v1; in blur_y_radius_4() 772 Sk8h d01{kHalf}, d12{kHalf}, d23{kHalf}, d34{kHalf}, in blur_column() local [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/ |
D | poly1305-armv4.S | 786 vmlal.u32 q7,d23,d1[1] 788 vmull.u32 q6,d23,d0[1] 802 vmlal.u32 q8,d23,d3[1] 809 vmlal.u32 q9,d23,d5[1] 814 vmlal.u32 q5,d23,d8[1] 819 vld4.32 {d21,d23,d25,d27},[r4] @ inp[2:3] (or 0) 930 vadd.i32 d23,d22,d12 944 vmull.u32 q6,d23,d0 954 vmlal.u32 q7,d23,d1 956 vmlal.u32 q8,d23,d3 [all …]
|