/third_party/ffmpeg/libswresample/arm/ |
D | audio_convert_neon.S | 79 vld1.32 {q11}, [r3,:128]! 80 vcvt.s32.f32 q11, q11, #31 93 vsri.32 q11, q9, #16 96 vst1.16 {q11}, [r0,:128]! 106 vld1.32 {q11}, [r3,:128]! 107 vcvt.s32.f32 q11, q11, #31 119 vsri.32 q11, q9, #16 124 vst1.16 {q11}, [r0,:128]! 129 vsri.32 q11, q9, #16 130 vst1.16 {q10-q11},[r0,:128]! [all …]
|
/third_party/ffmpeg/libavresample/arm/ |
D | audio_convert_neon.S | 77 vld1.32 {q11}, [r3,:128]! 78 vcvt.s32.f32 q11, q11, #31 91 vsri.32 q11, q9, #16 94 vst1.16 {q11}, [r0,:128]! 104 vld1.32 {q11}, [r3,:128]! 105 vcvt.s32.f32 q11, q11, #31 117 vsri.32 q11, q9, #16 122 vst1.16 {q11}, [r0,:128]! 127 vsri.32 q11, q9, #16 128 vst1.16 {q10-q11},[r0,:128]! [all …]
|
/third_party/openh264/codec/encoder/core/arm/ |
D | reconstruct_neon.S | 323 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 329 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 347 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 353 DCT_ROW_TRANSFORM_TOTAL_16BITS q0, q1, q2, q3, q8, q9, q10, q11 372 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11 375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 389 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11 392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 405 NEWQUANT_COEF_EACH_16BITS q0, q8, d16, d17, d6, d7, q9, q10, q11 408 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 [all …]
|
D | pixel_neon.S | 49 vsubl.u8 q11, d5, d7 67 vadd.s16 q8, q10, q11 68 vsub.s16 q9, q10, q11 71 vsub.s16 q11, q14, q15 82 vsub.s16 q1, q9, q11 83 vadd.s16 q3, q9, q11 92 vabd.s16 q11, q13, q15 110 vtrn.32 q9, q11 116 vmax.s16 q1, q9, q11 144 vsubl.u8 q11, d6, d7 [all …]
|
/third_party/ffmpeg/libavcodec/arm/ |
D | vorbisdsp_neon.S | 34 vand q9, q11, q10 38 vadd.f32 q12, q11, q2 39 vsub.f32 q11, q11, q3 56 vand q9, q11, q10 62 vadd.f32 q12, q11, q2 63 vsub.f32 q11, q11, q3
|
D | rv34dsp_neon.S | 33 vmull.s16 q11, d28, d0 34 vmlsl.s16 q11, d30, d0 42 vadd.s32 q2, q11, q12 @ z1 + z2 44 vsub.s32 q3, q11, q12 @ z1 - z2 51 vsub.s32 q11, q1, q3 54 vmul.s32 q13, q11, d0[0] 55 vshl.s32 q11, q8, #4 59 vadd.s32 q11, q11, q8 62 vsub.s32 q12, q12, q11 103 vshl.s32 q11, q2, #1 [all …]
|
D | hevcdsp_deblock_neon.S | 36 vsubl.u8 q11, d18, d19 38 vadd.i16 q11, q3 41 vrshr.s16 q11, q11, #3 44 vmin.s16 q11, q11, q0 45 vmax.s16 q11, q11, q12 46 vaddw.u8 q1, q11, d2 47 vsub.i16 q2, q11 67 vmovl.u8 q11, d22 73 vadd.i16 q7, q9, q11 125 vabd.s16 q7, q8, q11 [all …]
|
D | vp8dsp_neon.S | 130 vtrn.32 q10, q11 195 vaddw.u8 q11, q8, d2 207 vqmovun.s16 d22, q11 244 vaddw.u8 q11, q8, d2 253 vqmovun.s16 d22, q11 258 vst1.8 {q11}, [r0,:128], r2 279 vqadd.u8 q11, q9, q10 @ (abs(P0-Q0)*2) + (abs(P1-Q1)/2) 281 vcle.u8 q8, q11, q14 @ (abs(P0-Q0)*2) + (abs(P1-Q1)/2) <= flim 287 vabd.u8 q11, q1, q2 @ abs(P2-P1) 291 vcle.u8 q11, q11, q15 @ abs(P2-P1) <= flim_I [all …]
|
D | vc1dsp_neon.S | 85 @ Trashes: r12 q8 q9 q10 q11 q12 q13 100 vmul.i16 q11, q3, d0[1] @ t4 = 22 * (src[3]) 106 vmls.i16 q11, q1, d1[0] @ t4 -= 10 * src[1] 110 vhsub.s16 q1, q9, q11 @ dst[1] = (t2 - t4) >> 1 111 vhadd.s16 q2, q9, q11 @ dst[2] = (t2 + t4) >> 1 175 vsub.i16 q11, q14, q15 @ t8|t7 = old t1|t2 - old t3|t4 184 vswp d22, d23 @ q11 = t7|t8 203 vadd.i16 q2, q15, q11 @ line[5,4] = t7|t8 + 1 208 vhadd.s16 q1, q9, q11 @ line[2,3] = (t3|t4 + t7|t8) >> 1 214 vhsub.s16 q2, q11, q9 @ line[5,4] = (t7|t8 - t3|t4) >> 1 [all …]
|
D | h264idct_neon.S | 203 vtrn.32 q9, q11 221 vsub.i16 q0, q13, q11 224 vadd.i16 q3, q13, q11 226 vsub.i16 q1, q1, q11 230 vshr.s16 q11, q11, #1 234 vsub.i16 q1, q1, q11 238 vshr.s16 q11, q1, #2 242 vsub.i16 qa, q11, qa 253 vadd.i16 q11, q14, q0 255 vtrn.16 q10, q11 [all …]
|
D | vp3dsp_neon.S | 171 vadd.s16 q3, q3, q11 // ip[3] * C3 173 vadd.s16 q1, q2, q11 // ip[3] * C5 174 vadd.s16 q11, q3, q4 // C = ip[3] * C3 + ip[5] * C5 191 vsub.s16 q1, q9, q11 // (A - C) 192 vadd.s16 q11, q9, q11 // Cd = A + C 234 vadd.s16 q8, q2, q11 // [0] = Gd + Cd 235 vsub.s16 q15, q2, q11 // [7] = Gd - Cd 238 vadd.s16 q11, q12, q13 // [3] = Ed + Dd 248 vtrn.16 q10, q11 252 vtrn.32 q9, q11 [all …]
|
D | simple_idct_neon.S | 52 vadd.i32 q11, q15, q7 105 vadd.i32 q11, q11, q7 115 vadd.i32 q11, q11, q7 120 1: vadd.i32 q3, q11, q9 130 vsub.i32 q11, q11, q9 139 vshrn.i32 d9, q11, #ROW_SHIFT 173 vadd.i32 q11, q11, q7 199 vadd.i32 q11, q11, q7 215 4: vaddhn.i32 d2, q11, q9 219 vsubhn.i32 d9, q11, q9
|
D | vp9mc_16bpp_neon.S | 40 vld1.16 {q10, q11}, [r2], r3 41 vst1.16 {q10, q11}, [r0, :128], r1 56 vld1.16 {q10, q11}, [r2]! 63 vrhadd.u16 q3, q3, q11 69 vld1.16 {q10, q11}, [r0, :128], r1 72 vrhadd.u16 q11, q11, q15 73 vst1.16 {q10, q11}, [lr, :128], r1 88 vld1.16 {q10, q11}, [r2], r3 94 vrhadd.u16 q3, q3, q11
|
D | fft_neon.S | 60 vext.32 q11, q1, q1, #1 @ i2,r3,i3,r2 109 vld1.32 {d22-d25}, [r0,:128]! @ q11{r4,i4,r5,i5} q12{r6,i5,r7,i7} 124 vmul.f32 q1, q11, d2[1] 127 vadd.f32 q11, q12, q1 @ {t1a,t2a,t5,t6} 129 vzip.32 q10, q11 140 vsub.f32 q11, q9, q1 @ {r6,r7,i6,i7} 196 vsub.f32 q15, q11, q1 @ {r14,r15,i14,i15} 197 vadd.f32 q11, q11, q1 @ {r6,r7,i6,i7} 223 vrev64.32 q1, q11 224 vmul.f32 q11, q11, d4[1] [all …]
|
/third_party/openh264/codec/common/arm/ |
D | copy_mb_neon.S | 92 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 94 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 100 LOAD_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 102 STORE_ALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 113 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 115 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 121 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 123 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1 134 LOAD_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r2, r3 136 STORE_UNALIGNED_DATA_WITH_STRIDE q8, q9, q10, q11, r0, r1
|
D | mc_neon.S | 1061 UNPACK_2_16BITS_TO_ABC q9, q10, q11, q12, q13 1062 FILTER_3_IN_16BITS_TO_8BITS q11, q12, q13, d0 //output to q0[0] 1065 FILTER_6TAG_8BITS_TO_16BITS d2, d5, d8,d11, d14, d17,q11, q14, q15 // only 5 avail 1067 UNPACK_2_16BITS_TO_ABC q10, q11, q9, q12, q13 1079 UNPACK_2_16BITS_TO_ABC q9, q10, q11, q12, q13 1080 FILTER_3_IN_16BITS_TO_8BITS q11, q12, q13, d3 //output to d3 1083 FILTER_6TAG_8BITS_TO_16BITS d5, d8,d11, d14, d17, d2,q11, q14, q15 // only 5 avail 1085 UNPACK_2_16BITS_TO_ABC q10, q11, q9, q12, q13 1097 UNPACK_2_16BITS_TO_ABC q9, q10, q11, q12, q13 1098 FILTER_3_IN_16BITS_TO_8BITS q11, q12, q13, d6 //output to d6 [all …]
|
/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm32/ |
D | IndirectGemmInt16to32_8x4.S | 75 vmull.s16 q11, d8, d6[0] 83 vmlal.s16 q11, d9, d6[1] 85 vmlal.s16 q11, d10, d6[2] 87 vmlal.s16 q11, d11, d6[3] 100 vmlal.s16 q11, d12, d7[0] 102 vmlal.s16 q11, d13, d7[1] 104 vmlal.s16 q11, d14, d7[2] 106 vmlal.s16 q11, d15, d7[3] 160 vmlal.s16 q11, d8, d6[0] 168 vmlal.s16 q11, d9, d6[1] [all …]
|
D | TiledC4MatmulFp32.S | 52 vmul.f32 q11, q4, d6[0] 57 vmla.f32 q11, q5, d6[1] 62 vmla.f32 q11, q6, d7[0] 67 vmla.f32 q11, q7, d7[1] 105 vmla.f32 q11, q4, d6[0] 111 vmla.f32 q11, q5, d6[1] 116 vmla.f32 q11, q6, d7[0] 122 vmla.f32 q11, q7, d7[1] 157 vmla.f32 q11, q4, d6[0] 163 vmla.f32 q11, q5, d6[1] [all …]
|
D | ConvDwFp32Row.S | 63 vld1.32 {q10, q11}, [r0]! 65 vmla.f32 q11, q3, q7 66 vst1.32 {q10, q11}, [r11]! 83 vld1.32 {q10, q11}, [r0]! 85 vmla.f32 q11, q3, q7 86 vst1.32 {q10, q11}, [r11]!
|
/third_party/openssl/crypto/aes/asm/arm32/ |
D | bsaes-armv7.S | 1159 vld1.8 {q10-q11}, [r0]! 1164 veor q2, q2, q11 1213 vld1.8 {q10-q11}, [r0]! 1218 veor q2, q2, q11 1236 vld1.8 {q10-q11}, [r0]! 1241 veor q2, q2, q11 1257 vld1.8 {q10-q11}, [r0]! 1263 veor q2, q2, q11 1443 vld1.8 {q10-q11}, [r0]! 1448 veor q6, q11 [all …]
|
/third_party/openssl/crypto/modes/asm/arm32/ |
D | ghashv8-armx.S | 13 vmov.i8 q11,#0xe1 14 vshl.i64 q11,q11,#57 @ 0xc2.0 16 vshr.u64 q10,q11,#63 18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 40 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 47 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 62 vmov.i8 q11,#0xe1 64 vshl.u64 q11,q11,#57 79 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 86 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
/third_party/pixman/pixman/ |
D | pixman-arm-neon-asm.S | 168 vmull.u8 q11, d3, d7 171 vrshr.u16 q3, q11, #8 174 vraddhn.u16 d23, q11, q3 181 vqadd.u8 q9, q0, q11 257 vqadd.u8 q9, q0, q11 274 vmull.u8 q11, d3, d7 282 vrshr.u16 q3, q11, #8 288 vraddhn.u16 d23, q11, q3 366 vmull.u8 q11, d3, d7 369 vrshr.u16 q3, q11, #8 [all …]
|
/third_party/ffmpeg/libavutil/arm/ |
D | float_dsp_neon.S | 40 vmul.f32 q11, q1, q3 83 vld1.32 {q11}, [acc,:128]! 86 vmla.f32 q11, q3, q15 95 vst1.32 {q11}, [r0,:128]! 98 vst1.32 {q11}, [r0,:128]! 180 vrev64.32 q11, q11 190 vrev64.32 q11, q11 203 vmul.f32 q11, q1, q9 205 vadd.f32 q13, q3, q11 216 vmul.f32 q11, q1, q9
|
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 255 vmul.s16 q11, q11, q3 509 vqrshrn.s16 d19, q11, #2 522 vtrn.16 q10, q11 543 vadd.u8 q11, q11, q0 744 vmul.s16 q11, q11, q3 756 vsub.s16 q1, q11, q13 757 vadd.s16 q13, q11, q13 794 vsub.s16 q11, q12, q1 797 vtrn.16 q10, q11 799 vtrn.32 q9, q11 [all …]
|
/third_party/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 255 vmul.s16 q11, q11, q3 509 vqrshrn.s16 d19, q11, #2 522 vtrn.16 q10, q11 543 vadd.u8 q11, q11, q0 744 vmul.s16 q11, q11, q3 756 vsub.s16 q1, q11, q13 757 vadd.s16 q13, q11, q13 794 vsub.s16 q11, q12, q1 797 vtrn.16 q10, q11 799 vtrn.32 q9, q11 [all …]
|