/third_party/openssl/crypto/modes/asm/arm32/ |
D | ghashv8-armx.S | 16 vshr.u64 q10,q11,#63 18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 19 vshr.u64 q10,q3,#63 21 vand q10,q10,q8 23 vext.8 q10,q10,q10,#8 25 vorr q3,q3,q10 @ H<<<=1 37 veor q10,q0,q2 39 veor q1,q1,q10 40 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 44 veor q0,q1,q10 [all …]
|
D | ghash-armv4.S | 424 vmull.p8 q10, d20, d6 @ J = A3*B 434 veor q10, q10, q0 @ N = I + J 446 vext.8 q10, q10, q10, #13 448 veor q10, q10, q11 450 veor q0, q0, q10 462 vmull.p8 q10, d20, d6 @ J = A3*B 472 veor q10, q10, q1 @ N = I + J 484 vext.8 q10, q10, q10, #13 486 veor q10, q10, q11 488 veor q1, q1, q10 [all …]
|
/third_party/ffmpeg/libavcodec/arm/ |
D | h264dsp_neon.S | 56 vabd.u8 q4, q10, q8 @ abs(p2 - p0) 68 vhadd.u8 q10, q10, q14 71 vmin.u8 q7, q7, q10 79 vmovl.u8 q10, d1 81 vsubw.u8 q10, q10, d17 83 vshl.i16 q10, q10, #2 85 vaddw.u8 q10, q10, d19 87 vsubw.u8 q10, q10, d3 89 vrshrn.i16 d5, q10, #3 156 transpose_8x8 q3, q10, q9, q8, q0, q1, q2, q13 [all …]
|
D | vc1dsp_neon.S | 65 @ vadd.i16 q0, q8, q10 71 @ vhadd.s16 q0, q8, q10 85 @ Trashes: r12 q8 q9 q10 q11 q12 q13 99 vmul.i16 q10, q1, d0[1] @ t3 = 22 * (src[1]) 105 vmla.i16 q10, q3, d1[0] @ t3 += 10 * src[3] 108 vhadd.s16 q0, q8, q10 @ dst[0] = (t1 + t3) >> 1 109 vhsub.s16 q3, q8, q10 @ dst[3] = (t1 - t3) >> 1 146 vmla.i16 q14, q10, d0[0] @ t1|t2 = 12 * (temp1|temp2) + 64 176 vadd.i16 q10, q14, q15 @ t5|t6 = old t1|t2 + old t3|t4 202 vadd.i16 q3, q15, q10 @ line[7,6] = t5|t6 + 1 [all …]
|
D | hpeldsp_neon.S | 41 vld1.8 {q10}, [r12,:128], r2 42 vrhadd.u8 q2, q2, q10 126 vaddl.u8 q10, d1, d3 135 vadd.u16 q1 , q10, q11 145 vaddl.u8 q10, d1, d31 151 vadd.u16 q0, q10, q11 168 vadd.u16 q1 , q10, q11 177 vaddl.u8 q10, d1, d31 181 vadd.u16 q0, q10, q11 295 vadd.u16 q10, q8, q9 [all …]
|
D | h264idct_neon.S | 189 vshr.s16 q2, q10, #1 197 vadd.i16 q3, q3, q10 201 vtrn.32 q8, q10 207 vshr.s16 q14, q10, #1 215 vadd.i16 q3, q3, q10 217 vadd.i16 q10, q1, qa 248 vadd.i16 q9, q10, q2 249 vsub.i16 q2, q10, q2 251 vadd.i16 q10, q12, q1 255 vtrn.16 q10, q11 [all …]
|
D | hevcdsp_sao_neon.S | 45 vshl.u16 q10, q11, #8 // q10: highIndex; q9: lowIndex; 46 vadd.u16 q10, q9 // combine high and low index; 51 vsub.u8 q10, q14 // Look-up with 8bit 71 vshl.u16 q10, q11, #8 // q10: highIndex; q9: lowIndex; 72 vadd.u16 q10, q9 // combine high and low index; 77 vsub.u8 q10, q14 // Look-up with 8bit 131 vshl.u16 q10, q7, #8 // highIndex 132 vadd.u16 q10, q6 // combine lowIndex and highIndex, offset_val 164 vshl.u16 q10, q7, #8 // highIndex 165 vadd.u16 q10, q6 // combine lowIndex and highIndex, offset_val
|
D | lossless_audiodsp_neon.S | 39 vmul.s16 q10, q10, q14 43 vadd.s16 q10, q8, q10 47 vst1.16 {q10}, [r12,:128]!
|
D | rv34dsp_neon.S | 31 vmull.s16 q10, d28, d0 32 vmlal.s16 q10, d30, d0 41 vadd.s32 q1, q10, q13 @ z0 + z3 43 vsub.s32 q8, q10, q13 @ z0 - z3 50 vadd.s32 q10, q1, q3 60 vmul.s32 q14, q10, d0[0] 104 vshl.s32 q10, q1, #1 108 vadd.s32 q10, q10, q1 111 vshrn.s32 d0, q10, #11 @ (z0 + z3)*3 >> 11
|
D | hevcdsp_qpel_neon.S | 81 vmull.s16 q10, d7, d16 // 58 * d1 91 vsub.s32 q10, q12 // 58 * d1 - 10 * c1 95 vadd.s32 q10, q14 // 58 * d1 - 10 * c1 + 17 * e1 99 vadd.s32 q10, q12 // 58 * d1 - 10 * c1 + 17 * e1 + 4 * b1 103 vadd.s32 q10, q14 // 58 * d1 - 10 * c1 + 17 * e1 + 4 * b1 + g1 - a1 - 5 * f1 105 vqshrn.s32 d17, q10, #6 113 vaddl.s16 q10, d7, d9 // d1 + e1 121 vmul.s32 q10, q8 // 40 * (d1 + e1) 130 vadd.s32 q10, q8 // 40 * (d1 + e1) + 4*(b1+g1) 132 vsub.s32 q10, q12 // 40 * (d1 + e1) + 4*(b1+g1) - (11 * (c1 + f1) + a1 + h1) [all …]
|
D | vp9mc_16bpp_neon.S | 40 vld1.16 {q10, q11}, [r2], r3 41 vst1.16 {q10, q11}, [r0, :128], r1 56 vld1.16 {q10, q11}, [r2]! 61 vrhadd.u16 q2, q2, q10 69 vld1.16 {q10, q11}, [r0, :128], r1 70 vrhadd.u16 q10, q10, q14 73 vst1.16 {q10, q11}, [lr, :128], r1 88 vld1.16 {q10, q11}, [r2], r3 92 vrhadd.u16 q2, q2, q10
|
/third_party/ffmpeg/libswresample/arm/ |
D | audio_convert_neon.S | 77 vld1.32 {q10}, [r3,:128]! 78 vcvt.s32.f32 q10, q10, #31 87 vsri.32 q10, q8, #16 94 vst1.16 {q10}, [r0,:128]! 104 vld1.32 {q10}, [r3,:128]! 105 vcvt.s32.f32 q10, q10, #31 112 2: vsri.32 q10, q8, #16 122 vst1.16 {q10}, [r0,:128]! 128 3: vsri.32 q10, q8, #16 130 vst1.16 {q10-q11},[r0,:128]! [all …]
|
/third_party/ffmpeg/libavresample/arm/ |
D | audio_convert_neon.S | 75 vld1.32 {q10}, [r3,:128]! 76 vcvt.s32.f32 q10, q10, #31 85 vsri.32 q10, q8, #16 92 vst1.16 {q10}, [r0,:128]! 102 vld1.32 {q10}, [r3,:128]! 103 vcvt.s32.f32 q10, q10, #31 110 2: vsri.32 q10, q8, #16 120 vst1.16 {q10}, [r0,:128]! 126 3: vsri.32 q10, q8, #16 128 vst1.16 {q10-q11},[r0,:128]! [all …]
|
/third_party/openssl/crypto/aes/asm/arm32/ |
D | bsaes-armv7.S | 1159 vld1.8 {q10-q11}, [r0]! 1163 veor q4, q4, q10 1213 vld1.8 {q10-q11}, [r0]! 1217 veor q4, q4, q10 1236 vld1.8 {q10-q11}, [r0]! 1240 veor q4, q4, q10 1257 vld1.8 {q10-q11}, [r0]! 1261 veor q4, q4, q10 1275 vld1.8 {q10}, [r0]! 1279 veor q4, q4, q10 [all …]
|
/third_party/openh264/codec/encoder/core/arm/ |
D | reconstruct_neon.S | 323 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 329 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 347 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 353 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 372 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11 375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 389 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11 392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 405 NEWQUANT_COEF_EACH_16BITS q0, q8, d16, d17, d6, d7, q9, q10, q11 408 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 [all …]
|
D | pixel_neon.S | 43 vsubl.u8 q10, d1, d3 67 vadd.s16 q8, q10, q11 68 vsub.s16 q9, q10, q11 70 vadd.s16 q10, q14, q15 76 vadd.s16 q13, q8, q10 77 vsub.s16 q15, q8, q10 89 vabd.s16 q10, q12, q14 109 vtrn.32 q8, q10 115 vmax.s16 q0, q8, q10 139 vsubl.u8 q10, d4, d5 [all …]
|
/third_party/openh264/codec/common/arm/ |
D | copy_mb_neon.S | 92 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 94 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 100 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 102 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 113 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 115 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 121 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 123 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 134 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 136 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
|
D | mc_neon.S | 163 vext.8 q10, q0, q1, #5 //q10=src[3] 262 vext.8 q10, q0, q1, #5 //q10=src[3] 361 vext.8 q10, q0, q1, #5 //q10=src[3] 469 vst1.u8 {q10}, [r2], r3 //write 1st 16Byte 475 vst1.u8 {q10}, [r2], r3 //write 2nd 16Byte 481 vst1.u8 {q10}, [r2], r3 //write 3rd 16Byte 487 vst1.u8 {q10}, [r2], r3 //write 4th 16Byte 493 vst1.u8 {q10}, [r2], r3 //write 5th 16Byte 499 vst1.u8 {q10}, [r2], r3 //write 6th 16Byte 505 vst1.u8 {q10}, [r2], r3 //write 7th 16Byte [all …]
|
/third_party/pixman/pixman/ |
D | pixman-arm-neon-asm.S | 167 vmull.u8 q10, d3, d6 170 vrshr.u16 q13, q10, #8 173 vraddhn.u16 d20, q10, q13 272 vmull.u8 q10, d3, d6 280 vrshr.u16 q13, q10, #8 287 vraddhn.u16 d20, q10, q13 365 vmull.u8 q10, d3, d6 368 vrshr.u16 q13, q10, #8 371 vraddhn.u16 d20, q10, q13 589 vmull.u8 q10, d24, d6 [all …]
|
/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm32/ |
D | IndirectGemmInt16to32_8x4.S | 74 vmull.s16 q10, d8, d4[0] 82 vmlal.s16 q10, d9, d4[1] 84 vmlal.s16 q10, d10, d4[2] 86 vmlal.s16 q10, d11, d4[3] 99 vmlal.s16 q10, d12, d5[0] 101 vmlal.s16 q10, d13, d5[1] 103 vmlal.s16 q10, d14, d5[2] 105 vmlal.s16 q10, d15, d5[3] 159 vmlal.s16 q10, d8, d4[0] 167 vmlal.s16 q10, d9, d4[1] [all …]
|
D | TiledC4MatmulFp32.S | 51 vmul.f32 q10, q4, d4[0] 56 vmla.f32 q10, q5, d4[1] 61 vmla.f32 q10, q6, d5[0] 66 vmla.f32 q10, q7, d5[1] 104 vmla.f32 q10, q4, d4[0] 110 vmla.f32 q10, q5, d4[1] 115 vmla.f32 q10, q6, d5[0] 120 vmla.f32 q10, q7, d5[1] 156 vmla.f32 q10, q4, d4[0] 162 vmla.f32 q10, q5, d4[1] [all …]
|
D | MatVecMulFp32.S | 54 veor q10, q10, q10 71 vmla.f32 q10, q8, q1 133 veor q10, q10, q10 144 vmla.f32 q10, q1, q0
|
D | ConvDwFp32Row.S | 63 vld1.32 {q10, q11}, [r0]! 64 vmla.f32 q10, q2, q6 66 vst1.32 {q10, q11}, [r11]! 83 vld1.32 {q10, q11}, [r0]! 84 vmla.f32 q10, q2, q6 86 vst1.32 {q10, q11}, [r11]!
|
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 253 vmul.s16 q10, q10, q2 508 vqrshrn.s16 d18, q10, #2 522 vtrn.16 q10, q11 534 vadd.u8 q10, q10, q0 742 vmul.s16 q10, q10, q2 754 vsub.s16 q2, q10, q14 755 vadd.s16 q14, q10, q14 764 vadd.s16 q10, q2, q4 771 vsub.s16 q10, q10, q14 776 vadd.s16 q5, q6, q10 [all …]
|
/third_party/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 253 vmul.s16 q10, q10, q2 508 vqrshrn.s16 d18, q10, #2 522 vtrn.16 q10, q11 534 vadd.u8 q10, q10, q0 742 vmul.s16 q10, q10, q2 754 vsub.s16 q2, q10, q14 755 vadd.s16 q14, q10, q14 764 vadd.s16 q10, q2, q4 771 vsub.s16 q10, q10, q14 776 vadd.s16 q5, q6, q10 [all …]
|