/third_party/openh264/codec/common/arm/ |
D | mc_neon.S | 151 vmov.u16 q14, #0x0014 // 20 152 vshr.u16 q15, q14, #2 // 5 165 FILTER_6TAG_8BITS d0, d4, d6, d16, d18, d20, d2, q14, q15 167 FILTER_6TAG_8BITS d1, d5, d7, d17, d19, d21, d3, q14, q15 183 vmov.u16 q14, #0x0014 // 20 184 vshr.u16 q15, q14, #2 // 5 196 FILTER_6TAG_8BITS d0, d2, d3, d4, d5, d6, d1, q14, q15 212 vmov.u16 q14, #0x0014 // 20 213 vshr.u16 q15, q14, #2 // 5 231 FILTER_6TAG_8BITS d0, d4, d6, d7, d2, d5, d1, q14, q15 [all …]
|
D | deblocking_neon.S | 177 vcge.s8 q10, q14, #0 183 vsub.i8 q15,q15,q14 185 DIFF_LUMA_LT4_P1_Q1 q0, q1, q2, q3, q9, q15, q14, q10, q6, q12 188 DIFF_LUMA_LT4_P1_Q1 q5, q4, q3, q2, q9, q15, q14, q10, q7, q13 192 vadd.u8 q14,q14,q12 193 vadd.u8 q14,q14,q13 195 vsub.i8 q15,q15,q14 200 vmin.s8 q8, q8, q14 227 vld1.u8 {q14}, [r0], r1 244 vabd.u8 q2, q14,q12 [all …]
|
/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm32/ |
D | MatmulInt8Opt.S | 73 vmull.s8 q14, d0, d8 75 vmlal.s8 q14, d1, d9 77 vpadal.s16 q6, q14 79 vmull.s8 q14, d0, d10 81 vmlal.s8 q14, d1, d11 85 vpadal.s16 q7, q14 88 vmull.s8 q14, d0, d8 90 vmlal.s8 q14, d1, d9 92 vpadal.s16 q10, q14 94 vmull.s8 q14, d0, d10 [all …]
|
D | MatmulInt8.S | 71 vmull.s8 q14, d0, d8 75 vmlal.s8 q14, d1, d9 80 vpadal.s16 q6, q14 86 vmull.s8 q14, d0, d8 90 vmlal.s8 q14, d1, d9 95 vpadal.s16 q10, q14 146 vshl.s32 q14, q14, q9 153 vqrdmulh.s32 q14, q14, q8 160 vand q6, q7, q14 162 vqadd.s32 q14, q14, q6 [all …]
|
D | IndirectGemmInt16to32_8x4.S | 30 veor q14, q14, q14 119 vmlal.s16 q14, d8, d4[0] 121 vmlal.s16 q14, d9, d4[1] 123 vmlal.s16 q14, d10, d4[2] 125 vmlal.s16 q14, d11, d4[3] 139 vmlal.s16 q14, d12, d5[0] 141 vmlal.s16 q14, d13, d5[1] 143 vmlal.s16 q14, d14, d5[2] 145 vmlal.s16 q14, d15, d5[3] 208 vmlal.s16 q14, d8, d4[0] [all …]
|
D | PostFuncBiasReluC8.S | 44 vmov.i32 q14, #6 45 vcvt.f32.s32 q14, q14 83 vmin.f32 q0, q0, q14 84 vmin.f32 q1, q1, q14 85 vmin.f32 q2, q2, q14 86 vmin.f32 q3, q3, q14 87 vmin.f32 q8, q8, q14 88 vmin.f32 q9, q9, q14 89 vmin.f32 q10, q10, q14 90 vmin.f32 q11, q11, q14 [all …]
|
D | TiledC4MatmulFp32.S | 74 vmul.f32 q14, q4, d4[0] 79 vmla.f32 q14, q5, d4[1] 84 vmla.f32 q14, q6, d5[0] 89 vmla.f32 q14, q7, d5[1] 128 vmla.f32 q14, q4, d4[0] 133 vmla.f32 q14, q5, d4[1] 138 vmla.f32 q14, q6, d5[0] 144 vmla.f32 q14, q7, d5[1] 180 vmla.f32 q14, q4, d4[0] 185 vmla.f32 q14, q5, d4[1] [all …]
|
D | PostFuncBiasReluC4.S | 31 vmov.i32 q14, #6 32 vcvt.f32.s32 q14, q14 69 vmin.f32 q0, q0, q14 70 vmin.f32 q1, q1, q14 71 vmin.f32 q2, q2, q14 72 vmin.f32 q3, q3, q14 97 vmin.f32 q0, q0, q14 151 vmin.f32 q0, q0, q14 185 vmin.f32 q0, q0, q14 220 vmin.f32 q0, q0, q14
|
D | ConvDwFp32Center.S | 41 vmov.i32 q14, #6 42 vcvt.f32.s32 q14, q14 94 vmin.f32 q0, q0, q14 95 vmin.f32 q1, q1, q14 96 vmin.f32 q2, q2, q14 97 vmin.f32 q3, q3, q14 149 vmin.f32 q0, q0, q14
|
D | ConvDwInt8PostAlign4PerChannel.S | 57 vld1.32 {q14}, [r4]! 58 vqrdmulh.s32 q0, q0, q14 72 vld1.32 {q14}, [r4]! 73 vqrdmulh.s32 q1, q1, q14 96 vld1.32 {q14}, [r4]! 97 vqrdmulh.s32 q0, q0, q14
|
D | MatmulFp32.S | 72 veor q14, q14, q14 84 vmla.f32 q14, q1, d1[1] 102 vadd.f32 q14, q14, q0 122 vmin.f32 q14, q14, q2 133 vmax.f32 q14, q14, q3 315 vst1.32 {q14, q15}, [r2]! 325 vst1.32 {q14, q15}, [r2] 341 vst1.32 {q14, q15}, [r2]
|
D | MatmulFp32Opt.S | 85 vmul.f32 q14, q1, d1[1] 100 vmla.f32 q14, q1, d1[1] 117 vadd.f32 q14, q14, q0 137 vmin.f32 q14, q14, q2 148 vmax.f32 q14, q14, q3 351 vst1.32 {q14, q15}, [lr]! 362 vst1.32 {q14, q15}, [r2] 380 vst1.32 {q14, q15}, [r2]
|
/third_party/ffmpeg/libswscale/arm/ |
D | yuv2rgb_neon.S | 26 …vsub.u16 q14,q11 @ q14 = U * (1 << 3) - 128 * (1… 29 vqdmulh.s16 q9, q14, d1[1] @ q9 = U * u2g 32 vqdmulh.s16 q10,q14, d1[3] @ q10 = U * u2b 36 vadd.s16 q1, q14, \pre 51 vshll.u8 q14, d14, #3 @ q14 = Y * (1 << 3) 53 vsub.s16 q14, q12 @ q14 = (Y - y_offset) 55 …vqdmulh.s16 q14, q13 @ q14 = (Y - y_offset) * y_coeff 167 vshll.u8 q14, d2, #3 @ q14 = U * (1 << 3) 175 vshll.u8 q14, d3, #3 @ q14 = U * (1 << 3) 185 vshll.u8 q14, d2, #3 @ q14 = U * (1 << 3) [all …]
|
/third_party/openh264/codec/encoder/core/arm/ |
D | pixel_neon.S | 55 vsubl.u8 q14, d1, d3 70 vadd.s16 q10, q14, q15 71 vsub.s16 q11, q14, q15 74 vsub.s16 q14, q0, q2 85 vtrn.16 q12, q14 88 vadd.s16 q8, q12, q14 89 vabd.s16 q10, q12, q14 101 vabd.s16 q14, q0, q2 112 vtrn.32 q12, q14 117 vmax.s16 q2, q12, q14 [all …]
|
/third_party/ffmpeg/libavcodec/arm/ |
D | h264idct_neon.S | 188 qb .req q14 191 vld1.16 {q14-q15},[r1,:128] 195 vshr.s16 q3, q14, #1 196 vsub.i16 q2, q2, q14 199 qa .req q14 207 vshr.s16 q14, q10, #1 214 vsub.i16 q14, q14, q2 253 vadd.i16 q11, q14, q0 256 vsub.i16 q12, q14, q0 260 vadd.i16 q9, q10, q14 [all …]
|
D | aacpsdsp_neon.S | 181 vmov.f32 q14, #0.0 195 vmla.f32 q14, q8, q13 199 vmla.f32 q14, q1, q2 202 vmla.f32 q14, q10, q13 208 vmov.f32 q14, #0.0 210 vmla.f32 q14, q8, q13 218 vmla.f32 q14, q1, q2 221 vmla.f32 q14, q10, q13 234 vld1.32 {q14}, [r3] 238 vadd.f32 q1, q0, q14 [all …]
|
D | vc1dsp_neon.S | 137 vmov.i16 q14, #\add @ t1|t2 will accumulate here 146 vmla.i16 q14, q10, d0[0] @ t1|t2 = 12 * (temp1|temp2) + 64 158 @ q14 old t1|t2 175 vsub.i16 q11, q14, q15 @ t8|t7 = old t1|t2 - old t3|t4 176 vadd.i16 q10, q14, q15 @ t5|t6 = old t1|t2 + old t3|t4 235 @ Input columns: q8, q9, q10, q11, q12, q13, q14, q15 236 @ Output columns: q8, q9, q10, q11, q12, q13, q14, q15 243 vshl.i16 q3, q14, #3 @ temp4 = 16/2 * src[48] 245 vmla.i16 q1, q14, q0 @ t3 += 6/2 * src[48] 246 @ unused: q0, q10, q14 [all …]
|
D | simple_idct_neon.S | 58 vsub.i32 q14, q15, q7 108 vadd.i32 q14, q14, q7 118 vsub.i32 q14, q14, q7 125 vadd.i32 q8, q14, q6 129 vsub.i32 q14, q14, q6 133 vshrn.i32 d3, q14, #ROW_SHIFT 176 vadd.i32 q14, q14, q7 200 vsub.i32 q14, q14, q7 218 vaddhn.i32 d5, q14, q6 222 vsubhn.i32 d6, q14, q6
|
D | vp3dsp_neon.S | 211 vadd.s16 q3, q3, q14 // ip[6] * C2 213 vsub.s16 q14, q4, q3 // H = ip[2] * C6 - ip[6] * C2 232 vadd.s16 q4, q9, q14 // Hd = Bd + H 233 vsub.s16 q14, q9, q14 // Bdd = Bd - H 243 vadd.s16 q13, q3, q14 // [5] = Fd + Bdd 244 vsub.s16 q14, q3, q14 // [6] = Fd - Bdd 250 vtrn.16 q14, q15 253 vtrn.32 q12, q14 289 vqshrun.s16 d6, q14, #4 334 vshr.s16 q14, q14, #4 [all …]
|
D | h264dsp_neon.S | 46 vabd.u8 q14, q9, q8 @ abs(p1 - p0) 53 vclt.u8 q14, q14, q11 @ < beta 57 vand q6, q6, q14 65 vrhadd.u8 q14, q8, q0 68 vhadd.u8 q10, q10, q14 70 vhadd.u8 q14, q2, q14 76 vmin.u8 q14, q2, q14 78 vmax.u8 q14, q14, q11 91 vbsl q5, q14, q1 93 vmovl.u8 q14, d16 [all …]
|
D | hevcdsp_qpel_neon.S | 87 vmull.s16 q14, d9, d16 // 17 * e1 95 vadd.s32 q10, q14 // 58 * d1 - 10 * c1 + 17 * e1 97 vsubl.s16 q14, d13, d1 // g1 - a1 101 vsub.s32 q14, q8 // g1 - a1 - 5 * f1 103 vadd.s32 q10, q14 // 58 * d1 - 10 * c1 + 17 * e1 + 4 * b1 + g1 - a1 - 5 * f1 124 vaddl.s16 q14, d1, d15 // a1 + h1 128 vadd.s32 q12, q14 // 11 * (c1 + f1) + a1 + h1 147 vmull.s16 q14, d7, d16 // 17 * e1 155 vadd.s32 q10, q14 // 58 * d1 - 10 * c1 + 17 * e1 157 vsubl.s16 q14, d3, d15 // g1 - a1 [all …]
|
/third_party/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 259 vmul.s16 q14, q14, q2 515 vqrshrn.s16 d22, q14, #2 748 vmul.s16 q14, q14, q2 754 vsub.s16 q2, q10, q14 755 vadd.s16 q14, q10, q14 771 vsub.s16 q10, q10, q14 779 vadd.s16 q8, q12, q14 781 vsub.s16 q12, q12, q14 788 vadd.s16 q14, q5, q3 795 vtrn.16 q14, q15 [all …]
|
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 259 vmul.s16 q14, q14, q2 515 vqrshrn.s16 d22, q14, #2 748 vmul.s16 q14, q14, q2 754 vsub.s16 q2, q10, q14 755 vadd.s16 q14, q10, q14 771 vsub.s16 q10, q10, q14 779 vadd.s16 q8, q12, q14 781 vsub.s16 q12, q12, q14 788 vadd.s16 q14, q5, q3 795 vtrn.16 q14, q15 [all …]
|
/third_party/openssl/crypto/aes/asm/arm32/ |
D | bsaes-armv7.S | 1156 vldmia r9, {q14} @ reload IV 1158 veor q0, q0, q14 @ ^= IV 1165 vld1.8 {q14-q15}, [r0]! 1170 veor q5, q5, q14 1210 vldmia r9, {q14} @ reload IV 1212 veor q0, q0, q14 @ ^= IV 1233 vldmia r9,{q14} @ reload IV 1235 veor q0, q0, q14 @ ^= IV 1254 vldmia r9, {q14} @ reload IV 1256 veor q0, q0, q14 @ ^= IV [all …]
|
/third_party/pixman/pixman/ |
D | pixman-arm-neon-asm.S | 183 vshll.u8 q14, d16, #8 186 vsri.u16 q14, q8, #5 187 vsri.u16 q14, q9, #11 262 vshll.u8 q14, d16, #8 277 vsri.u16 q14, q8, #5 285 vsri.u16 q14, q9, #11 381 vshll.u8 q14, d16, #8 384 vsri.u16 q14, q8, #5 385 vsri.u16 q14, q9, #11 426 vshll.u8 q14, d2, #8 [all …]
|