/third_party/ffmpeg/libavcodec/arm/ |
D | h264cmc_neon.S | 65 vmull.u8 q8, d4, d0 66 vmlal.u8 q8, d5, d1 69 vmlal.u8 q8, d6, d2 72 vmlal.u8 q8, d7, d3 80 vrshrn.u16 d16, q8, #6 83 vadd.u16 q8, q8, q11 85 vshrn.u16 d16, q8, #6 91 vrhadd.u8 q8, q8, q10 110 vmull.u8 q8, d4, d0 111 vmlal.u8 q8, d6, d1 [all …]
|
D | hevcdsp_idct_neon.S | 50 vmovl.u8 q8, d4 52 vqadd.s16 q0, q0, q8 91 vmovl.u8 q8, d17 93 vqadd.s16 q1, q8 110 vld1.16 {q8}, [r0, :128] 111 vqadd.s16 q0, q8 126 vld1.8 {q8}, [r0, :128] 155 vld1.16 {q8-q9}, [r0, :128] 157 vqadd.s16 q0, q8 178 vmovl.u8 q8, d24 [all …]
|
D | vorbisdsp_neon.S | 33 vcle.s32 q8, q12, #0 36 vand q2, q12, q8 37 vbic q3, q12, q8 42 vcle.s32 q8, q1, #0 47 vand q2, q1, q8 48 vbic q3, q1, q8 55 vcle.s32 q8, q12, #0 60 vand q2, q12, q8 61 vbic q3, q12, q8 73 vcle.s32 q8, q1, #0 [all …]
|
D | vc1dsp_neon.S | 65 @ vadd.i16 q0, q8, q10 71 @ vhadd.s16 q0, q8, q10 85 @ Trashes: r12 q8 q9 q10 q11 q12 q13 96 vmov.i16 q8, #\add @ t1 will accumulate here 102 vmla.i16 q8, q12, d0[0] @ t1 = 17 * (temp1) + 4 108 vhadd.s16 q0, q8, q10 @ dst[0] = (t1 + t3) >> 1 109 vhsub.s16 q3, q8, q10 @ dst[3] = (t1 - t3) >> 1 161 vshl.i16 q8, q1, #4 @ t1|t2 = 16 * (src[8]|src[40]) 169 vadd.i16 q8, q8, q2 @ t1|t2 += temp1|temp2 171 vmla.i16 q8, q1, d0[3] @ t1|t2 += 9 * (src[40]|src[56]) [all …]
|
D | fmtconvert_neon.S | 35 vcvt.f32.s32 q8, q2 39 vmul.f32 q10, q8, q0 44 vcvt.f32.s32 q8, q2 66 vdup.32 q8, d20[0] 69 vmul.f32 q0, q0, q8 71 vmul.f32 q1, q1, q8 84 vmul.f32 q0, q0, q8 85 vmul.f32 q1, q1, q8
|
D | h264dsp_neon.S | 44 vabd.u8 q6, q8, q0 @ abs(p0 - q0) 46 vabd.u8 q14, q9, q8 @ abs(p1 - p0) 56 vabd.u8 q4, q10, q8 @ abs(p2 - p0) 65 vrhadd.u8 q14, q8, q0 156 transpose_8x8 q3, q10, q9, q8, q0, q1, q2, q13 162 transpose_4x4 q4, q8, q0, q5 298 vmov q2, q8 299 vmov q3, q8 309 vmov q12, q8 311 vmov q13, q8 [all …]
|
D | hpeldsp_neon.S | 37 vld1.8 {q8}, [r12,:128], r2 38 vrhadd.u8 q0, q0, q8 90 vld1.8 {q8}, [r0,:128], r2 92 vrhadd.u8 q2, q2, q8 104 vld1.8 {q8}, [r0,:128], r2 106 vrhadd.u8 q2, q2, q8 125 vaddl.u8 q8, d0, d2 131 vadd.u16 q12, q8, q9 140 vld1.8 {q8}, [r0,:128] 141 vrhadd.u8 q14, q14, q8 [all …]
|
D | h264idct_neon.S | 32 vshr.s16 q8, q1, #1 47 vshr.s16 q8, q1, #1 190 vadd.i16 q0, q8, q12 194 vsub.i16 q1, q8, q12 201 vtrn.32 q8, q10 211 vadd.i16 q0, q8, q12 213 vsub.i16 q1, q8, q12 219 vadd.i16 q8, q0, q3 246 vsub.i16 q15, q8, q3 247 vadd.i16 q8, q8, q3 [all …]
|
D | vp3dsp_neon.S | 121 vadd.s16 q1, q8, q12 122 vsub.s16 q8, q8, q12 140 vadd.s16 q8, q8, q4 // F = (ip[0] - ip[4]) * C4 222 vadd.s16 q8, q8, q0 230 vsub.s16 q3, q8, q10 // Fd = F - Ad 231 vadd.s16 q10, q8, q10 // Add = F + Ad 234 vadd.s16 q8, q2, q11 // [0] = Gd + Cd 241 vtrn.16 q8, q9 251 vtrn.32 q8, q10 257 vadd.s16 q1, q8, q12 [all …]
|
/third_party/openssl/crypto/aes/asm/arm32/ |
D | bsaes-armv7.S | 1157 vld1.8 {q8-q9}, [r0]! @ reload input 1160 veor q1, q1, q8 1211 vld1.8 {q8-q9}, [r0]! @ reload input 1214 veor q1, q1, q8 1234 vld1.8 {q8-q9}, [r0]! @ reload input 1237 veor q1, q1, q8 1255 vld1.8 {q8-q9}, [r0]! @ reload input 1258 veor q1, q1, q8 1273 vld1.8 {q8-q9}, [r0]! @ reload input 1276 veor q1, q1, q8 [all …]
|
/third_party/openh264/codec/encoder/core/arm/ |
D | reconstruct_neon.S | 323 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 329 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 347 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 353 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 370 vmov q8, q2 375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 376 vst1.s16 {q8}, [r0]! 387 vmov q8, q2 392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 393 vst1.s16 {q8}, [r0]! [all …]
|
/third_party/ffmpeg/libavresample/arm/ |
D | resample_neon.S | 130 veor.f32 q8, q8 156 vmlal.s32 q8, d0, d4[0] 159 vmlal.s32 q8, d0, d4 162 vmlal.s32 q8, d0, d4 166 vmull.s32 q8, d0, d4 170 veor.s64 q8, q8 174 vadd.s64 q8, q8, q9 176 vqrshrn.s64 d16, q8, #30 200 vmlal.s16 q8, d0, d4[0] 203 vmlal.s16 q8, d0, d4 [all …]
|
D | audio_convert_neon.S | 27 vcvt.s32.f32 q8, q0, #31 34 vqrshrn.s32 d4, q8, #16 43 vld1.32 {q8}, [r1,:128]! 44 vcvt.s32.f32 q8, q8, #31 52 vqrshrn.s32 d4, q8, #16 62 3: vqrshrn.s32 d4, q8, #16 72 vcvt.s32.f32 q8, q0, #31 85 vsri.32 q10, q8, #16 96 vld1.32 {q8}, [r1,:128]! 99 vcvt.s32.f32 q8, q8, #31 [all …]
|
/third_party/ffmpeg/libswresample/arm/ |
D | audio_convert_neon.S | 28 vcvt.s32.f32 q8, q0, #31 35 vqrshrn.s32 d4, q8, #16 44 vld1.32 {q8}, [r1,:128]! 45 vcvt.s32.f32 q8, q8, #31 53 vqrshrn.s32 d4, q8, #16 63 3: vqrshrn.s32 d4, q8, #16 74 vcvt.s32.f32 q8, q0, #31 87 vsri.32 q10, q8, #16 98 vld1.32 {q8}, [r1,:128]! 101 vcvt.s32.f32 q8, q8, #31 [all …]
|
/third_party/ffmpeg/libavutil/arm/ |
D | float_dsp_neon.S | 29 vmul.f32 q8, q0, q2 44 vmul.f32 q8, q0, q2 55 vmul.f32 q8, q0, q2 75 vld1.32 {q8}, [acc,:128]! 78 1: vmla.f32 q8, q0, q15 85 vst1.32 {q8}, [r0,:128]! 91 vld1.32 {q8}, [acc,:128]! 103 vld1.32 {q8}, [acc,:128]! 104 vmla.f32 q8, q0, q15 105 vst1.32 {q8}, [r0,:128]! [all …]
|
/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm32/ |
D | IndirectGemmInt8_2x4.S | 79 vpaddl.s16 q8, q6 115 vpadal.s16 q8, q6 173 vsub.i32 q8, q8, q0 179 vadd.i32 q8, q8, q2 201 vshl.s32 q8, q8, q3 204 vqrdmulh.s32 q8, q8, q4 207 vand q3, q5, q8 209 vqadd.s32 q8, q8, q3 210 vrshl.s32 q8, q8, q5 218 vadd.i32 q8, q8, q6 [all …]
|
D | WinogradTransRight.S | 77 vld1.32 {q8}, [r2] 79 vmla.f32 q8, q12, d0[0] 83 vmla.f32 q8, q12, d1[0] 87 vmla.f32 q8, q12, d2[0] 91 vmla.f32 q8, q12, d3[0] 93 vadd.f32 q9, q8, q9 125 vld1.32 {q8}, [r2] 127 vmla.f32 q8, q12, d0[0] 131 vmla.f32 q8, q12, d1[0] 135 vadd.f32 q9, q8, q9 [all …]
|
D | ConvDwFp32Row.S | 52 vld1.32 {q8, q9}, [r0]! 57 vmla.f32 q8, q0, q4 59 vst1.32 {q8, q9}, [r11]! 70 vld1.32 {q8, q9}, [r0]! 77 vmla.f32 q8, q0, q4 79 vst1.32 {q8, q9}, [r11]! 95 vld1.32 {q8}, [r0]! 96 vmla.f32 q8, q0, q4 97 vst1.32 {q8}, [r11]!
|
D | WinogradTransLeft.S | 81 vld1.32 {q8}, [r2] 83 vmla.f32 q8, q12, d0[0] 87 vmla.f32 q8, q12, d1[0] 91 vmla.f32 q8, q12, d2[0] 95 vmla.f32 q8, q12, d3[0] 97 vadd.f32 q9, q8, q9 129 vld1.32 {q8}, [r2] 131 vmla.f32 q8, q12, d0[0] 135 vmla.f32 q8, q12, d1[0] 139 vadd.f32 q9, q8, q9 [all …]
|
D | IndirectGemmInt16to32_8x4.S | 60 vmull.s16 q8, d8, d0[0] 64 vmlal.s16 q8, d9, d0[1] 68 vmlal.s16 q8, d10, d0[2] 70 vmlal.s16 q8, d11, d0[3] 89 vmlal.s16 q8, d12, d1[0] 91 vmlal.s16 q8, d13, d1[1] 93 vmlal.s16 q8, d14, d1[2] 95 vmlal.s16 q8, d15, d1[3] 149 vmlal.s16 q8, d8, d0[0] 151 vmlal.s16 q8, d9, d0[1] [all …]
|
D | TiledC4MatmulFp32.S | 49 vmul.f32 q8, q4, d0[0] 54 vmla.f32 q8, q5, d0[1] 59 vmla.f32 q8, q6, d1[0] 64 vmla.f32 q8, q7, d1[1] 99 vmla.f32 q8, q4, d0[0] 107 vmla.f32 q8, q5, d0[1] 113 vmla.f32 q8, q6, d1[0] 118 vmla.f32 q8, q7, d1[1] 150 vmla.f32 q8, q4, d0[0] 159 vmla.f32 q8, q5, d0[1] [all …]
|
/third_party/openssl/crypto/modes/asm/arm32/ |
D | ghashv8-armx.S | 18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 21 vand q10,q10,q8 24 vand q8,q8,q9 26 veor q12,q3,q8 @ twisted H 30 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing 32 veor q8,q8,q12 34 .byte 0xa0,0x2e,0xa0,0xf2 @ pmull q1,q8,q8 53 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed 124 vld1.64 {q8},[r2]! @ load [rotated] I[0] 127 vrev64.8 q8,q8 [all …]
|
/third_party/openh264/codec/common/arm/ |
D | copy_mb_neon.S | 92 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 94 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 100 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 102 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 113 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 115 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 121 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 123 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 134 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 136 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
|
D | deblocking_neon.S | 199 vmax.s8 q8, q8, q15 200 vmin.s8 q8, q8, q14 201 vand.s8 q8, q8, q10 202 EXTRACT_DELTA_INTO_TWO_PART q8, q9 204 vqsub.u8 q2, q2, q8 207 vqadd.u8 q3, q3, q8 222 vld1.u8 {q8}, [r3], r1 257 DIFF_LUMA_EQ4_MASK q8,q10, q3, q4 340 vmax.s8 q8, q8, q15 341 vmin.s8 q8, q8, q14 [all …]
|
/third_party/pixman/pixman/ |
D | pixman-arm-neon-asm.S | 184 vshll.u8 q8, d19, #8 186 vsri.u16 q14, q8, #5 264 vshll.u8 q8, d19, #8 277 vsri.u16 q14, q8, #5 382 vshll.u8 q8, d19, #8 384 vsri.u16 q14, q8, #5 425 vshll.u8 q8, d1, #8 431 vsri.u16 q14, q8, #5 436 vsri.u16 q14, q8, #5 445 vshll.u8 q8, d1, #8 [all …]
|