/third_party/ffmpeg/libavcodec/arm/ |
D | rv34dsp_neon.S | 27 vshll.s16 q12, d29, #3 35 vsubw.s16 q12, q12, d29 @ z2 = block[i+4*1]*7 40 vsub.s32 q12, q12, q1 @ z2 = 7*block[i+4*1] - 17*block[i+4*3] 42 vadd.s32 q2, q11, q12 @ z1 + z2 44 vsub.s32 q3, q11, q12 @ z1 - z2 52 vshl.s32 q12, q2, #3 58 vsub.s32 q12, q12, q2 62 vsub.s32 q12, q12, q11 64 vadd.s32 q2, q13, q12 @ z1 + z2 66 vsub.s32 q3, q13, q12 @ z1 - z2 [all …]
|
D | vorbisdsp_neon.S | 33 vcle.s32 q8, q12, #0 35 veor q12, q12, q9 36 vand q2, q12, q8 37 vbic q3, q12, q8 38 vadd.f32 q12, q11, q2 55 vcle.s32 q8, q12, #0 57 veor q12, q12, q9 60 vand q2, q12, q8 61 vbic q3, q12, q8 62 vadd.f32 q12, q11, q2
|
D | h264dsp_neon.S | 43 vmovl.u8 q12, d24 45 vmovl.u16 q12, d24 47 vsli.16 q12, q12, #8 49 vsli.32 q12, q12, #16 52 vclt.s8 q7, q12, #0 64 vand q12, q12, q6 66 vsub.i8 q6, q12, q4 67 vqadd.u8 q7, q9, q12 72 vqsub.u8 q11, q9, q12 73 vqadd.u8 q2, q1, q12 [all …]
|
D | vp3dsp_neon.S | 121 vadd.s16 q1, q8, q12 122 vsub.s16 q8, q8, q12 139 vadd.s16 q12, q1, q3 // E = (ip[0] + ip[4]) * C4 221 vadd.s16 q12, q12, q0 227 vadd.s16 q2, q12, q15 // Gd = E + G 229 vsub.s16 q12, q12, q15 // Ed = E - G 238 vadd.s16 q11, q12, q13 // [3] = Ed + Dd 239 vsub.s16 q12, q12, q13 // [4] = Ed - Dd 249 vtrn.16 q12, q13 253 vtrn.32 q12, q14 [all …]
|
D | h264idct_neon.S | 190 vadd.i16 q0, q8, q12 194 vsub.i16 q1, q8, q12 202 vtrn.16 q12, q13 204 vtrn.32 q12, q2 211 vadd.i16 q0, q8, q12 213 vsub.i16 q1, q8, q12 218 vsub.i16 q12, q1, qa 251 vadd.i16 q10, q12, q1 254 vsub.i16 q13, q12, q1 256 vsub.i16 q12, q14, q0 [all …]
|
D | hevcdsp_idct_neon.S | 71 vmov.s16 q12, #0 74 clip10 q0, q1, q12, q13 106 vmov.s16 q12, #0 114 clip10 q0, q1, q12, q13 132 vmovl.u8 q12, d22 136 vqadd.s16 q2, q12 150 vmov.s16 q12, #0 163 clip10 q0, q1, q12, q13 164 clip10 q2, q3, q12, q13 177 vld1.8 {q12, q13}, [r0, :128] [all …]
|
D | vc1dsp_neon.S | 85 @ Trashes: r12 q8 q9 q10 q11 q12 q13 88 vadd.i16 q12, q0, q2 @ temp1 = src[0] + src[2] 102 vmla.i16 q8, q12, d0[0] @ t1 = 17 * (temp1) + 4 163 vshl.i16 q12, q3, #4 @ temp3a|temp4a = 16 * src[24]|src[56] 168 vsub.i16 q9, q13, q12 @ t3|t4 = - (temp3a|temp4a) + (temp3b|temp4b) 170 vmul.i16 q12, q3, d0[3] @ temp3|temp4 = 9 * src[8]|src[24] 235 @ Input columns: q8, q9, q10, q11, q12, q13, q14, q15 236 @ Output columns: q8, q9, q10, q11, q12, q13, q14, q15 248 vadd.i16 q10, q8, q12 @ temp1 = src[0] + src[32] 249 vsub.i16 q14, q8, q12 @ temp2 = src[0] - src[32] [all …]
|
D | simple_idct_neon.S | 54 vadd.i32 q12, q15, q8 106 vsub.i32 q12, q12, q7 116 vsub.i32 q12, q12, q8 121 vadd.i32 q4, q12, q10 135 vsub.i32 q12, q12, q10 138 vshrn.i32 d7, q12, #ROW_SHIFT 174 vsub.i32 q12, q12, q7 201 vsub.i32 q12, q12, q8 216 vaddhn.i32 d3, q12, q10 220 vsubhn.i32 d8, q12, q10
|
D | hevcdsp_qpel_neon.S | 84 vmull.s16 q12, d5, d17 // 10 * c1 91 vsub.s32 q10, q12 // 58 * d1 - 10 * c1 93 vshll.s16 q12, d3, #2 // 4 * b1 99 vadd.s32 q10, q12 // 58 * d1 - 10 * c1 + 17 * e1 + 4 * b1 115 vaddl.s16 q12, d5, d11 // c1 + f1 117 vmul.s32 q12, q8 // 11 * (c1 + f1) 128 vadd.s32 q12, q14 // 11 * (c1 + f1) + a1 + h1 132 vsub.s32 q10, q12 // 40 * (d1 + e1) + 4*(b1+g1) - (11 * (c1 + f1) + a1 + h1) 144 vmull.s16 q12, d11, d17 // 10 * c1 151 vsub.s32 q10, q12 // 58 * d1 - 10 * c1 [all …]
|
D | hpeldsp_neon.S | 131 vadd.u16 q12, q8, q9 133 NRND vadd.u16 q12, q12, q13 136 shrn d28, q12, #2 147 vadd.u16 q12, q8, q9 149 NRND vadd.u16 q12, q12, q13 152 shrn d30, q12, #2 165 vadd.u16 q12, q8, q9 166 NRND vadd.u16 q12, q12, q13 169 shrn d28, q12, #2 179 vadd.u16 q12, q8, q9 [all …]
|
D | vp8dsp_neon.S | 86 vmull.s16 q12, d1, d4[0] 90 vshrn.s32 d21, q12, #16 108 vmull.s16 q12, d1, d4[0] 114 vshrn.s32 d20, q12, #16 199 vaddw.u8 q12, q9, d4 211 vqmovun.s16 d24, q12 246 vaddw.u8 q12, q8, d4 255 vqmovun.s16 d24, q12 260 vst1.8 {q12}, [r0,:128], r2 284 vabd.u8 q12, q2, q3 @ abs(P1-P0) [all …]
|
D | hevcdsp_deblock_neon.S | 42 vneg.s16 q12, q0 45 vmax.s16 q11, q11, q12 68 vmovl.u8 q12, d24 74 vadd.i16 q6, q14, q12 126 vaba.s16 q7, q15, q12 132 vabd.s16 q7, q11, q12 157 vadd.i16 q2, q11, q12 196 vsub.i16 q4, q12 205 vadd.i16 q4, q12 208 vbit q12, q4, q5 [all …]
|
D | vp9mc_neon.S | 300 vld1.8 {q12}, [r7] 305 vmovl.u8 q12, d25 320 vmul.s16 q4, q12, d0[0] 322 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 1, \size 323 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 2, \size 324 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, \idx1, \size 325 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 5, \size 326 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 6, \size 327 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 7, \size 328 extmulqadd q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, \idx2, \size [all …]
|
D | vp6dsp_neon.S | 43 vsub.i16 q12, q1, q3 @ V-t 45 vsub.i16 q12, q12, q13 @ V-t-1 47 vcge.u16 q12, q12, q8 @ V-t-1 >= t-1 57 vbif q0, q13, q12
|
D | fft_neon.S | 86 vext.32 q13, q12, q12, #1 109 vld1.32 {d22-d25}, [r0,:128]! @ q11{r4,i4,r5,i5} q12{r6,i5,r7,i7} 126 vrev64.32 q12, q12 127 vadd.f32 q11, q12, q1 @ {t1a,t2a,t5,t6} 128 vld1.32 {d24-d27}, [r0,:128]! @ q12{r8,i8,r9,i9} q13{r10,i10,r11,i11} 141 vswp d25, d26 @ q12{r8,i8,i10,r11} q13{r9,i9,i11,r10} 144 vadd.f32 q0, q12, q13 @ {t1,t2,t5,t6} 147 vsub.f32 q13, q12, q13 @ {t3,t4,t7,t8} 154 vadd.f32 q12, q0, q13 @ {r8,i8,r9,i9} 159 vswp d25, d28 @ q12{r8,i8,r12,i12} q14{r9,i9,r13,i13} [all …]
|
D | hevcdsp_sao_neon.S | 54 vaddw.u8 q13, q12, d16 80 vaddw.u8 q13, q12, d16 135 vaddw.u8 q12, q11, d16 136 vqmovun.s16 d26, q12 168 vaddw.u8 q12, q11, d16 169 vqmovun.s16 d26, q12
|
/third_party/openh264/codec/encoder/core/arm/ |
D | pixel_neon.S | 52 vsubl.u8 q12, d0, d2 64 vadd.s16 q2, q12, q13 65 vsub.s16 q3, q12, q13 73 vadd.s16 q12, q0, q2 85 vtrn.16 q12, q14 88 vadd.s16 q8, q12, q14 89 vabd.s16 q10, q12, q14 100 vadd.s16 q12, q0, q2 106 vabs.s16 q12, q12 112 vtrn.32 q12, q14 [all …]
|
D | reconstruct_neon.S | 447 vmov q12, q2 448 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d28 449 vst1.s16 {q12}, [r1]! // then 1st 16 elem in d26 & d28 455 vmov q12, q2 456 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d29 457 vst1.s16 {q12}, [r1]! // then 2nd 16 elem in d27 & d29 467 vmov q12, q2 468 NEWQUANT_COEF_EACH_16BITS_MAX q1, q12, d24, d25, d6, d7, q9, q10, q11, d28 469 vst1.s16 {q12}, [r1]! // then 3rd 16 elem in d26 & d28 475 vmov q12, q2 [all …]
|
/third_party/openh264/codec/common/arm/ |
D | mc_neon.S | 45 vaddl.u8 q12, \arg0, \arg5 //q12=src[-2]+src[3] 47 vmla.u16 q12, q13, \arg7 //q12 += 20*(src[0]+src[1]), 2 cycles 49 vmls.s16 q12, q13, \arg8 //q12 -= 5*(src[-1]+src[2]), 2 cycles 50 vqrshrun.s16 \arg6, q12, #5 67 vaddl.u8 q12, \arg0, \arg5 //q12=src[-2]+src[3] 69 vmla.u16 q12, q13, \arg7 //q12 += 20*(src[0]+src[1]), 2 cycles 71 vmls.s16 q12, q13, \arg8 //q12 -= 5*(src[-1]+src[2]), 2 cycles 72 vqrshrun.s16 \arg6, q12, #5 80 vaddl.u8 q12, \arg0, \arg5 //q12=src[-2]+src[3] 82 vmla.u16 q12, q13, \arg7 //q12 += 20*(src[0]+src[1]), 2 cycles [all …]
|
D | deblocking_neon.S | 185 DIFF_LUMA_LT4_P1_Q1 q0, q1, q2, q3, q9, q15, q14, q10, q6, q12 190 vabs.s8 q12, q12 192 vadd.u8 q14,q14,q12 197 DIFF_LUMA_LT4_P0_Q0 d2, d4, d6, d8, d16, q12, q13 198 DIFF_LUMA_LT4_P0_Q0 d3, d5, d7, d9, d17, q12, q13 223 vld1.u8 {q12}, [r0], r1 232 MASK_MATRIX q10, q11, q12, q13, q5, q4, q6 237 vabd.u8 q0, q11, q12 244 vabd.u8 q2, q14,q12 267 DIFF_LUMA_EQ4_MASK q2, q12, q6, q4 [all …]
|
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 257 vmul.s16 q12, q12, q0 511 vqrshrn.s16 d20, q12, #2 746 vmul.s16 q12, q12, q0 773 vsub.s16 q6, q8, q12 774 vadd.s16 q12, q8, q12 779 vadd.s16 q8, q12, q14 781 vsub.s16 q12, q12, q14 794 vsub.s16 q11, q12, q1 796 vadd.s16 q12, q12, q1 798 vtrn.16 q12, q13 [all …]
|
/third_party/openh264/codec/processing/src/arm/ |
D | adaptive_quantization.S | 52 vmull.u8 q12, d27, d27 54 vaddl.u16 q12, d24, d25 55 vpadal.u16 q12, q11 //sqr 78 SQR_ADD_16BYTES d4, d5, q12
|
/third_party/libjpeg-turbo/simd/arm/aarch32/ |
D | jsimd_neon.S | 246 vmul.s16 q12, q12, q0 500 vqrshrn.s16 d20, q12, #2 735 vmul.s16 q12, q12, q0 762 vsub.s16 q6, q8, q12 763 vadd.s16 q12, q8, q12 768 vadd.s16 q8, q12, q14 770 vsub.s16 q12, q12, q14 783 vsub.s16 q11, q12, q1 785 vadd.s16 q12, q12, q1 787 vtrn.16 q12, q13 [all …]
|
/third_party/ffmpeg/libavresample/arm/ |
D | audio_convert_neon.S | 88 vld1.32 {q12}, [r3,:128]! 89 vcvt.s32.f32 q12, q12, #31 95 vsri.32 q12, q0, #16 98 vst1.16 {q12}, [r0,:128]! 115 vld1.32 {q12}, [r3,:128]! 116 vcvt.s32.f32 q12, q12, #31 121 vsri.32 q12, q0, #16 124 vst1.16 {q12-q13},[r0,:128]!
|
/third_party/ffmpeg/libswresample/arm/ |
D | audio_convert_neon.S | 90 vld1.32 {q12}, [r3,:128]! 91 vcvt.s32.f32 q12, q12, #31 97 vsri.32 q12, q0, #16 100 vst1.16 {q12}, [r0,:128]! 117 vld1.32 {q12}, [r3,:128]! 118 vcvt.s32.f32 q12, q12, #31 123 vsri.32 q12, q0, #16 126 vst1.16 {q12-q13},[r0,:128]!
|