/third_party/ffmpeg/libavresample/arm/ |
D | audio_convert_neon.S | 77 vld1.32 {q11}, [r3,:128]! 78 vcvt.s32.f32 q11, q11, #31 91 vsri.32 q11, q9, #16 94 vst1.16 {q11}, [r0,:128]! 104 vld1.32 {q11}, [r3,:128]! 105 vcvt.s32.f32 q11, q11, #31 117 vsri.32 q11, q9, #16 122 vst1.16 {q11}, [r0,:128]! 127 vsri.32 q11, q9, #16 128 vst1.16 {q10-q11},[r0,:128]! [all …]
|
/third_party/ffmpeg/libswresample/arm/ |
D | audio_convert_neon.S | 79 vld1.32 {q11}, [r3,:128]! 80 vcvt.s32.f32 q11, q11, #31 93 vsri.32 q11, q9, #16 96 vst1.16 {q11}, [r0,:128]! 106 vld1.32 {q11}, [r3,:128]! 107 vcvt.s32.f32 q11, q11, #31 119 vsri.32 q11, q9, #16 124 vst1.16 {q11}, [r0,:128]! 129 vsri.32 q11, q9, #16 130 vst1.16 {q10-q11},[r0,:128]! [all …]
|
/third_party/openh264/codec/encoder/core/arm/ |
D | reconstruct_neon.S | 323 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 329 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 347 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 353 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 372 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11 375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 389 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11 392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 405 NEWQUANT_COEF_EACH_16BITS q0, q8, d16, d17, d6, d7, q9, q10, q11 408 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 [all …]
|
D | pixel_neon.S | 49 vsubl.u8 q11, d5, d7 67 vadd.s16 q8, q10, q11 68 vsub.s16 q9, q10, q11 71 vsub.s16 q11, q14, q15 82 vsub.s16 q1, q9, q11 83 vadd.s16 q3, q9, q11 92 vabd.s16 q11, q13, q15 110 vtrn.32 q9, q11 116 vmax.s16 q1, q9, q11 144 vsubl.u8 q11, d6, d7 [all …]
|
/third_party/ffmpeg/libavcodec/arm/ |
D | rv34dsp_neon.S | 33 vmull.s16 q11, d28, d0 34 vmlsl.s16 q11, d30, d0 42 vadd.s32 q2, q11, q12 @ z1 + z2 44 vsub.s32 q3, q11, q12 @ z1 - z2 51 vsub.s32 q11, q1, q3 54 vmul.s32 q13, q11, d0[0] 55 vshl.s32 q11, q8, #4 59 vadd.s32 q11, q11, q8 62 vsub.s32 q12, q12, q11 103 vshl.s32 q11, q2, #1 [all …]
|
D | hevcdsp_deblock_neon.S | 36 vsubl.u8 q11, d18, d19 38 vadd.i16 q11, q3 41 vrshr.s16 q11, q11, #3 44 vmin.s16 q11, q11, q0 45 vmax.s16 q11, q11, q12 46 vaddw.u8 q1, q11, d2 47 vsub.i16 q2, q11 67 vmovl.u8 q11, d22 73 vadd.i16 q7, q9, q11 125 vabd.s16 q7, q8, q11 [all …]
|
D | vorbisdsp_neon.S | 34 vand q9, q11, q10 38 vadd.f32 q12, q11, q2 39 vsub.f32 q11, q11, q3 56 vand q9, q11, q10 62 vadd.f32 q12, q11, q2 63 vsub.f32 q11, q11, q3
|
D | vp8dsp_neon.S | 130 vtrn.32 q10, q11 195 vaddw.u8 q11, q8, d2 207 vqmovun.s16 d22, q11 244 vaddw.u8 q11, q8, d2 253 vqmovun.s16 d22, q11 258 vst1.8 {q11}, [r0,:128], r2 279 vqadd.u8 q11, q9, q10 @ (abs(P0-Q0)*2) + (abs(P1-Q1)/2) 281 vcle.u8 q8, q11, q14 @ (abs(P0-Q0)*2) + (abs(P1-Q1)/2) <= flim 287 vabd.u8 q11, q1, q2 @ abs(P2-P1) 291 vcle.u8 q11, q11, q15 @ abs(P2-P1) <= flim_I [all …]
|
D | vc1dsp_neon.S | 85 @ Trashes: r12 q8 q9 q10 q11 q12 q13 100 vmul.i16 q11, q3, d0[1] @ t4 = 22 * (src[3]) 106 vmls.i16 q11, q1, d1[0] @ t4 -= 10 * src[1] 110 vhsub.s16 q1, q9, q11 @ dst[1] = (t2 - t4) >> 1 111 vhadd.s16 q2, q9, q11 @ dst[2] = (t2 + t4) >> 1 175 vsub.i16 q11, q14, q15 @ t8|t7 = old t1|t2 - old t3|t4 184 vswp d22, d23 @ q11 = t7|t8 203 vadd.i16 q2, q15, q11 @ line[5,4] = t7|t8 + 1 208 vhadd.s16 q1, q9, q11 @ line[2,3] = (t3|t4 + t7|t8) >> 1 214 vhsub.s16 q2, q11, q9 @ line[5,4] = (t7|t8 - t3|t4) >> 1 [all …]
|
D | h264idct_neon.S | 203 vtrn.32 q9, q11 221 vsub.i16 q0, q13, q11 224 vadd.i16 q3, q13, q11 226 vsub.i16 q1, q1, q11 230 vshr.s16 q11, q11, #1 234 vsub.i16 q1, q1, q11 238 vshr.s16 q11, q1, #2 242 vsub.i16 qa, q11, qa 253 vadd.i16 q11, q14, q0 255 vtrn.16 q10, q11 [all …]
|
D | vp3dsp_neon.S | 171 vadd.s16 q3, q3, q11 // ip[3] * C3 173 vadd.s16 q1, q2, q11 // ip[3] * C5 174 vadd.s16 q11, q3, q4 // C = ip[3] * C3 + ip[5] * C5 191 vsub.s16 q1, q9, q11 // (A - C) 192 vadd.s16 q11, q9, q11 // Cd = A + C 234 vadd.s16 q8, q2, q11 // [0] = Gd + Cd 235 vsub.s16 q15, q2, q11 // [7] = Gd - Cd 238 vadd.s16 q11, q12, q13 // [3] = Ed + Dd 248 vtrn.16 q10, q11 252 vtrn.32 q9, q11 [all …]
|
D | simple_idct_neon.S | 52 vadd.i32 q11, q15, q7 105 vadd.i32 q11, q11, q7 115 vadd.i32 q11, q11, q7 120 1: vadd.i32 q3, q11, q9 130 vsub.i32 q11, q11, q9 139 vshrn.i32 d9, q11, #ROW_SHIFT 173 vadd.i32 q11, q11, q7 199 vadd.i32 q11, q11, q7 215 4: vaddhn.i32 d2, q11, q9 219 vsubhn.i32 d9, q11, q9
|
D | fft_neon.S | 60 vext.32 q11, q1, q1, #1 @ i2,r3,i3,r2 109 vld1.32 {d22-d25}, [r0,:128]! @ q11{r4,i4,r5,i5} q12{r6,i5,r7,i7} 124 vmul.f32 q1, q11, d2[1] 127 vadd.f32 q11, q12, q1 @ {t1a,t2a,t5,t6} 129 vzip.32 q10, q11 140 vsub.f32 q11, q9, q1 @ {r6,r7,i6,i7} 196 vsub.f32 q15, q11, q1 @ {r14,r15,i14,i15} 197 vadd.f32 q11, q11, q1 @ {r6,r7,i6,i7} 223 vrev64.32 q1, q11 224 vmul.f32 q11, q11, d4[1] [all …]
|
D | vp9mc_16bpp_neon.S | 40 vld1.16 {q10, q11}, [r2], r3 41 vst1.16 {q10, q11}, [r0, :128], r1 56 vld1.16 {q10, q11}, [r2]! 63 vrhadd.u16 q3, q3, q11 69 vld1.16 {q10, q11}, [r0, :128], r1 72 vrhadd.u16 q11, q11, q15 73 vst1.16 {q10, q11}, [lr, :128], r1 88 vld1.16 {q10, q11}, [r2], r3 94 vrhadd.u16 q3, q3, q11
|
D | h264dsp_neon.S | 42 vdup.8 q11, r2 @ alpha 50 vclt.u8 q6, q6, q11 @ < alpha 51 vdup.8 q11, r3 @ beta 53 vclt.u8 q14, q14, q11 @ < beta 54 vclt.u8 q15, q15, q11 @ < beta 59 vclt.u8 q4, q4, q11 @ < beta 61 vclt.u8 q5, q5, q11 @ < beta 72 vqsub.u8 q11, q9, q12 74 vmax.u8 q7, q7, q11 75 vqsub.u8 q11, q1, q12 [all …]
|
D | hevcdsp_qpel_neon.S | 48 vld1.8 {q11}, [r2], r3 83 vmull.s16 q11, d4, d17 // 10 * c0 90 vsub.s32 q9, q11 // 58 * d0 - 10 * c0 92 vshll.s16 q11, d2, #2 // 4 * b0 98 vadd.s32 q9, q11 // 58 * d0 - 10 * c0 + 17 * e0 + 4 * b0 114 vaddl.s16 q11, d4, d10 // c0 + f0 116 vmul.s32 q11, q8 // 11 * (c0 + f0) 127 vadd.s32 q11, q13 // 11 * (c0 + f0) + a0 + h0 131 vsub.s32 q9, q11 // 40 * (d0 + e0) + 4*(b0+g0) - (11 * (c0 + f0) + a0 + h0) 143 vmull.s16 q11, d10, d17 // 10 * c0 [all …]
|
D | hpeldsp_neon.S | 43 vld1.8 {q11}, [r12,:128], r2 44 vrhadd.u8 q3, q3, q11 128 vaddl.u8 q11, d5, d7 135 vadd.u16 q1 , q10, q11 151 vadd.u16 q0, q10, q11 160 vaddl.u8 q11, d3, d5 168 vadd.u16 q1 , q10, q11 181 vadd.u16 q0, q10, q11 285 NRND vmov.i16 q11, #1 297 NRND vadd.u16 q10, q10, q11 [all …]
|
D | h264cmc_neon.S | 43 vmov.u16 q11, #28 83 vadd.u16 q8, q8, q11 84 vadd.u16 q9, q9, q11 120 vadd.u16 q8, q8, q11 121 vadd.u16 q9, q9, q11 153 vadd.u16 q8, q8, q11 154 vadd.u16 q9, q9, q11 180 vadd.u16 q8, q8, q11 181 vadd.u16 q9, q9, q11 218 vmov.u16 q11, #28 [all …]
|
D | vp9mc_neon.S | 51 vld1.8 {q10, q11}, [r2], r3 57 vrhadd.u8 q3, q3, q11 304 vmovl.u8 q11, d24 317 vmul.s16 q3, q11, d0[0] 322 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 1, \size 323 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 2, \size 324 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, \idx1, \size 325 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 5, \size 326 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 6, \size 327 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 7, \size [all …]
|
/third_party/openh264/codec/common/arm/ |
D | copy_mb_neon.S | 92 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 94 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 100 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 102 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 113 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 115 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 121 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 123 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 134 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 136 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
|
D | mc_neon.S | 1061 UNPACK_2_16BITS_TO_ABC q9, q10, q11, q12, q13 1062 FILTER_3_IN_16BITS_TO_8BITS q11, q12, q13, d0 //output to q0[0] 1065 FILTER_6TAG_8BITS_TO_16BITS d2, d5, d8,d11, d14, d17,q11, q14, q15 // only 5 avail 1067 UNPACK_2_16BITS_TO_ABC q10, q11, q9, q12, q13 1079 UNPACK_2_16BITS_TO_ABC q9, q10, q11, q12, q13 1080 FILTER_3_IN_16BITS_TO_8BITS q11, q12, q13, d3 //output to d3 1083 FILTER_6TAG_8BITS_TO_16BITS d5, d8,d11, d14, d17, d2,q11, q14, q15 // only 5 avail 1085 UNPACK_2_16BITS_TO_ABC q10, q11, q9, q12, q13 1097 UNPACK_2_16BITS_TO_ABC q9, q10, q11, q12, q13 1098 FILTER_3_IN_16BITS_TO_8BITS q11, q12, q13, d6 //output to d6 [all …]
|
D | deblocking_neon.S | 156 vdup.u8 q11, r2 179 MASK_MATRIX q1, q2, q3, q4, q11, q9, q15 228 vld1.u8 {q11}, [r3] 232 MASK_MATRIX q10, q11, q12, q13, q5, q4, q6 237 vabd.u8 q0, q11, q12 240 vabd.u8 q1, q9, q11 259 DIFF_LUMA_EQ4_MASK q1,q11, q6, q4 281 vdup.u8 q11, r2 322 MASK_MATRIX q1, q2, q3, q4, q11, q9, q15 432 vswp q14, q11 [all …]
|
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 255 vmul.s16 q11, q11, q3 509 vqrshrn.s16 d19, q11, #2 522 vtrn.16 q10, q11 543 vadd.u8 q11, q11, q0 744 vmul.s16 q11, q11, q3 756 vsub.s16 q1, q11, q13 757 vadd.s16 q13, q11, q13 794 vsub.s16 q11, q12, q1 797 vtrn.16 q10, q11 799 vtrn.32 q9, q11 [all …]
|
/third_party/ffmpeg/libavutil/arm/ |
D | float_dsp_neon.S | 40 vmul.f32 q11, q1, q3 83 vld1.32 {q11}, [acc,:128]! 86 vmla.f32 q11, q3, q15 95 vst1.32 {q11}, [r0,:128]! 98 vst1.32 {q11}, [r0,:128]! 180 vrev64.32 q11, q11 190 vrev64.32 q11, q11 203 vmul.f32 q11, q1, q9 205 vadd.f32 q13, q3, q11 216 vmul.f32 q11, q1, q9
|
/third_party/openh264/codec/processing/src/arm/ |
D | vaa_calc_neon.S | 199 SAD_SD_MAD_8x16BYTES r0, r1, r4, q13, q11, q9 202 SAD_SD_MAD_CALC d26, d27, d16, q11, q9 216 vadd.u32 q11, q12 217 vadd.u32 q15, q11 264 SSD_MUL_SUM_16BYTES d4,d5, q8, q11 //q8 for l_sqiff reset for every 16x16 269 SSD_MUL_SUM_16BYTES d0,d1, q10, q11 //q10 for lsqsum reset for every 16x16 285 SSD_MUL_SUM_16BYTES d4,d5, q8, q11 //q8 for l_sqiff reset for every 16x16 289 SSD_MUL_SUM_16BYTES d0,d1, q10, q11 //q10 for lsqsum reset for every 16x16 306 SSD_MUL_SUM_16BYTES d4,d5, q8, q11 //q8 for l_sqiff reset for every 16x16 312 SSD_MUL_SUM_16BYTES d0,d1, q10, q11 //q10 for lsqsum reset for every 16x16 [all …]
|