/third_party/ffmpeg/libavcodec/arm/ |
D | h264cmc_neon.S | 65 vmull.u8 q8, d4, d0 66 vmlal.u8 q8, d5, d1 69 vmlal.u8 q8, d6, d2 72 vmlal.u8 q8, d7, d3 80 vrshrn.u16 d16, q8, #6 83 vadd.u16 q8, q8, q11 85 vshrn.u16 d16, q8, #6 91 vrhadd.u8 q8, q8, q10 110 vmull.u8 q8, d4, d0 111 vmlal.u8 q8, d6, d1 [all …]
|
D | hevcdsp_idct_neon.S | 50 vmovl.u8 q8, d4 52 vqadd.s16 q0, q0, q8 91 vmovl.u8 q8, d17 93 vqadd.s16 q1, q8 110 vld1.16 {q8}, [r0, :128] 111 vqadd.s16 q0, q8 126 vld1.8 {q8}, [r0, :128] 155 vld1.16 {q8-q9}, [r0, :128] 157 vqadd.s16 q0, q8 178 vmovl.u8 q8, d24 [all …]
|
D | vorbisdsp_neon.S | 33 vcle.s32 q8, q12, #0 36 vand q2, q12, q8 37 vbic q3, q12, q8 42 vcle.s32 q8, q1, #0 47 vand q2, q1, q8 48 vbic q3, q1, q8 55 vcle.s32 q8, q12, #0 60 vand q2, q12, q8 61 vbic q3, q12, q8 73 vcle.s32 q8, q1, #0 [all …]
|
D | vc1dsp_neon.S | 65 @ vadd.i16 q0, q8, q10 71 @ vhadd.s16 q0, q8, q10 85 @ Trashes: r12 q8 q9 q10 q11 q12 q13 96 vmov.i16 q8, #\add @ t1 will accumulate here 102 vmla.i16 q8, q12, d0[0] @ t1 = 17 * (temp1) + 4 108 vhadd.s16 q0, q8, q10 @ dst[0] = (t1 + t3) >> 1 109 vhsub.s16 q3, q8, q10 @ dst[3] = (t1 - t3) >> 1 161 vshl.i16 q8, q1, #4 @ t1|t2 = 16 * (src[8]|src[40]) 169 vadd.i16 q8, q8, q2 @ t1|t2 += temp1|temp2 171 vmla.i16 q8, q1, d0[3] @ t1|t2 += 9 * (src[40]|src[56]) [all …]
|
D | h264dsp_neon.S | 44 vabd.u8 q6, q8, q0 @ abs(p0 - q0) 46 vabd.u8 q14, q9, q8 @ abs(p1 - p0) 56 vabd.u8 q4, q10, q8 @ abs(p2 - p0) 65 vrhadd.u8 q14, q8, q0 156 transpose_8x8 q3, q10, q9, q8, q0, q1, q2, q13 162 transpose_4x4 q4, q8, q0, q5 298 vmov q2, q8 299 vmov q3, q8 309 vmov q12, q8 311 vmov q13, q8 [all …]
|
D | hpeldsp_neon.S | 37 vld1.8 {q8}, [r12,:128], r2 38 vrhadd.u8 q0, q0, q8 90 vld1.8 {q8}, [r0,:128], r2 92 vrhadd.u8 q2, q2, q8 104 vld1.8 {q8}, [r0,:128], r2 106 vrhadd.u8 q2, q2, q8 125 vaddl.u8 q8, d0, d2 131 vadd.u16 q12, q8, q9 140 vld1.8 {q8}, [r0,:128] 141 vrhadd.u8 q14, q14, q8 [all …]
|
D | h264idct_neon.S | 32 vshr.s16 q8, q1, #1 47 vshr.s16 q8, q1, #1 190 vadd.i16 q0, q8, q12 194 vsub.i16 q1, q8, q12 201 vtrn.32 q8, q10 211 vadd.i16 q0, q8, q12 213 vsub.i16 q1, q8, q12 219 vadd.i16 q8, q0, q3 246 vsub.i16 q15, q8, q3 247 vadd.i16 q8, q8, q3 [all …]
|
D | fmtconvert_neon.S | 35 vcvt.f32.s32 q8, q2 39 vmul.f32 q10, q8, q0 44 vcvt.f32.s32 q8, q2 66 vdup.32 q8, d20[0] 69 vmul.f32 q0, q0, q8 71 vmul.f32 q1, q1, q8 84 vmul.f32 q0, q0, q8 85 vmul.f32 q1, q1, q8
|
D | vp3dsp_neon.S | 121 vadd.s16 q1, q8, q12 122 vsub.s16 q8, q8, q12 140 vadd.s16 q8, q8, q4 // F = (ip[0] - ip[4]) * C4 222 vadd.s16 q8, q8, q0 230 vsub.s16 q3, q8, q10 // Fd = F - Ad 231 vadd.s16 q10, q8, q10 // Add = F + Ad 234 vadd.s16 q8, q2, q11 // [0] = Gd + Cd 241 vtrn.16 q8, q9 251 vtrn.32 q8, q10 257 vadd.s16 q1, q8, q12 [all …]
|
D | sbrdsp_neon.S | 38 vld1.32 {q8}, [lr,:128]! 39 vadd.f32 q0, q0, q8 61 vmov.i32 q8, #1<<31 63 veor q1, q1, q8 67 veor q3, q3, q8 70 veor q1, q1, q8 73 veor q3, q3, q8 86 vmov.i32 q8, #1<<31 93 veor q0, q0, q8 99 veor q9, q9, q8 [all …]
|
D | rv34dsp_neon.S | 43 vsub.s32 q8, q10, q13 @ z0 - z3 46 vtrn.32 q3, q8 55 vshl.s32 q11, q8, #4 57 vshl.s32 q15, q8, #3 59 vadd.s32 q11, q11, q8 61 vsub.s32 q8, q15, q8 63 vadd.s32 q9, q9, q8 81 vtrn.32 q8, q9 89 vaddw.u8 q0, q8, d28
|
D | sbcdsp_neon.S | 101 vmull.s16 q8, d6, d10 110 vmlal.s16 q8, d6, d10 119 vmlal.s16 q8, d6, d10 128 vmlal.s16 q8, d6, d10 138 vmlal.s16 q8, d6, d10 160 vmull.s16 q8, d6, d0 167 vmlal.s16 q8, d6, d1 174 vmlal.s16 q8, d6, d2 181 vmlal.s16 q8, d6, d3 233 vabs.s32 q8, q8 [all …]
|
D | vp8dsp_neon.S | 40 vmov.i16 q8, #3 99 vadd.s16 q0, q8, q9 100 vsub.s16 q1, q8, q9 125 vadd.s16 q0, q8, q9 127 vsub.s16 q1, q8, q9 187 vrshr.s16 q8, q8, #3 @ dc >>= 3 191 vaddw.u8 q10, q8, d0 193 vaddw.u8 q0, q8, d1 195 vaddw.u8 q11, q8, d2 197 vaddw.u8 q1, q8, d3 [all …]
|
D | hevcdsp_qpel_neon.S | 89 vmull.s16 q8, d11, d17 // 5 * f1 101 vsub.s32 q14, q8 // g1 - a1 - 5 * f1 111 vmov.i32 q8, #11 116 vmul.s32 q11, q8 // 11 * (c0 + f0) 117 vmul.s32 q12, q8 // 11 * (c1 + f1) 118 vmov.i32 q8, #40 120 vmul.s32 q9, q8 // 40 * (d0 + e0) 121 vmul.s32 q10, q8 // 40 * (d1 + e1) 122 vaddl.s16 q8, d3, d13 // b1 + g1 126 vshl.s32 q8, #2 // 4*(b1+g1) [all …]
|
D | vp9mc_16bpp_neon.S | 38 vld1.16 {q8, q9}, [r2]! 39 vst1.16 {q8, q9}, [r0, :128]! 54 vld1.16 {q8, q9}, [r2]! 57 vrhadd.u16 q0, q0, q8 64 vld1.16 {q8, q9}, [r0, :128]! 66 vrhadd.u16 q8, q8, q12 71 vst1.16 {q8, q9}, [lr, :128]! 86 vld1.16 {q8, q9}, [r2]! 89 vrhadd.u16 q0, q0, q8
|
D | mpegvideo_neon.S | 45 vld1.16 {q8}, [r0,:128]! 48 vclt.s16 q11, q8, #0 49 vmul.s16 q10, q8, q15 53 vceq.s16 q9, q8, #0 56 vbif q8, q10, q9 59 vst1.16 {q8}, [r1,:128]!
|
/third_party/openh264/codec/encoder/core/arm/ |
D | reconstruct_neon.S | 323 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 329 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 347 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 353 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 370 vmov q8, q2 375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 376 vst1.s16 {q8}, [r0]! 387 vmov q8, q2 392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 393 vst1.s16 {q8}, [r0]! [all …]
|
D | pixel_neon.S | 40 vsubl.u8 q8, d0, d2 56 vadd.s16 q0, q8, q9 59 vsub.s16 q1, q8, q9 67 vadd.s16 q8, q10, q11 76 vadd.s16 q13, q8, q10 77 vsub.s16 q15, q8, q10 88 vadd.s16 q8, q12, q14 94 vabs.s16 q8, q8 109 vtrn.32 q8, q10 115 vmax.s16 q0, q8, q10 [all …]
|
/third_party/ffmpeg/libavresample/arm/ |
D | resample_neon.S | 130 veor.f32 q8, q8 156 vmlal.s32 q8, d0, d4[0] 159 vmlal.s32 q8, d0, d4 162 vmlal.s32 q8, d0, d4 166 vmull.s32 q8, d0, d4 170 veor.s64 q8, q8 174 vadd.s64 q8, q8, q9 176 vqrshrn.s64 d16, q8, #30 200 vmlal.s16 q8, d0, d4[0] 203 vmlal.s16 q8, d0, d4 [all …]
|
D | audio_convert_neon.S | 27 vcvt.s32.f32 q8, q0, #31 34 vqrshrn.s32 d4, q8, #16 43 vld1.32 {q8}, [r1,:128]! 44 vcvt.s32.f32 q8, q8, #31 52 vqrshrn.s32 d4, q8, #16 62 3: vqrshrn.s32 d4, q8, #16 72 vcvt.s32.f32 q8, q0, #31 85 vsri.32 q10, q8, #16 96 vld1.32 {q8}, [r1,:128]! 99 vcvt.s32.f32 q8, q8, #31 [all …]
|
/third_party/ffmpeg/libswresample/arm/ |
D | audio_convert_neon.S | 28 vcvt.s32.f32 q8, q0, #31 35 vqrshrn.s32 d4, q8, #16 44 vld1.32 {q8}, [r1,:128]! 45 vcvt.s32.f32 q8, q8, #31 53 vqrshrn.s32 d4, q8, #16 63 3: vqrshrn.s32 d4, q8, #16 74 vcvt.s32.f32 q8, q0, #31 87 vsri.32 q10, q8, #16 98 vld1.32 {q8}, [r1,:128]! 101 vcvt.s32.f32 q8, q8, #31 [all …]
|
/third_party/ffmpeg/libavutil/arm/ |
D | float_dsp_neon.S | 29 vmul.f32 q8, q0, q2 44 vmul.f32 q8, q0, q2 55 vmul.f32 q8, q0, q2 75 vld1.32 {q8}, [acc,:128]! 78 1: vmla.f32 q8, q0, q15 85 vst1.32 {q8}, [r0,:128]! 91 vld1.32 {q8}, [acc,:128]! 103 vld1.32 {q8}, [acc,:128]! 104 vmla.f32 q8, q0, q15 105 vst1.32 {q8}, [r0,:128]! [all …]
|
/third_party/openh264/codec/common/arm/ |
D | copy_mb_neon.S | 92 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 94 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 100 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 102 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 113 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 115 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 121 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 123 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 134 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 136 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
|
D | deblocking_neon.S | 199 vmax.s8 q8, q8, q15 200 vmin.s8 q8, q8, q14 201 vand.s8 q8, q8, q10 202 EXTRACT_DELTA_INTO_TWO_PART q8, q9 204 vqsub.u8 q2, q2, q8 207 vqadd.u8 q3, q3, q8 222 vld1.u8 {q8}, [r3], r1 257 DIFF_LUMA_EQ4_MASK q8,q10, q3, q4 340 vmax.s8 q8, q8, q15 341 vmin.s8 q8, q8, q14 [all …]
|
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 249 vmul.s16 q8, q8, q0 506 vqrshrn.s16 d16, q8, #2 513 vtrn.16 q8, q9 520 vadd.u8 q8, q8, q0 738 vmul.s16 q8, q8, q0 773 vsub.s16 q6, q8, q12 774 vadd.s16 q12, q8, q12 779 vadd.s16 q8, q12, q14 785 vsub.s16 q15, q8, q6 787 vadd.s16 q8, q8, q6 [all …]
|