/third_party/ffmpeg/libswresample/arm/ |
D | audio_convert_neon.S | 79 vld1.32 {q11}, [r3,:128]! 80 vcvt.s32.f32 q11, q11, #31 93 vsri.32 q11, q9, #16 96 vst1.16 {q11}, [r0,:128]! 106 vld1.32 {q11}, [r3,:128]! 107 vcvt.s32.f32 q11, q11, #31 119 vsri.32 q11, q9, #16 124 vst1.16 {q11}, [r0,:128]! 129 vsri.32 q11, q9, #16 130 vst1.16 {q10-q11},[r0,:128]! [all …]
|
/third_party/ffmpeg/libavresample/arm/ |
D | audio_convert_neon.S | 77 vld1.32 {q11}, [r3,:128]! 78 vcvt.s32.f32 q11, q11, #31 91 vsri.32 q11, q9, #16 94 vst1.16 {q11}, [r0,:128]! 104 vld1.32 {q11}, [r3,:128]! 105 vcvt.s32.f32 q11, q11, #31 117 vsri.32 q11, q9, #16 122 vst1.16 {q11}, [r0,:128]! 127 vsri.32 q11, q9, #16 128 vst1.16 {q10-q11},[r0,:128]! [all …]
|
/third_party/ffmpeg/libavcodec/arm/ |
D | vorbisdsp_neon.S | 34 vand q9, q11, q10 38 vadd.f32 q12, q11, q2 39 vsub.f32 q11, q11, q3 56 vand q9, q11, q10 62 vadd.f32 q12, q11, q2 63 vsub.f32 q11, q11, q3
|
D | rv34dsp_neon.S | 33 vmull.s16 q11, d28, d0 34 vmlsl.s16 q11, d30, d0 42 vadd.s32 q2, q11, q12 @ z1 + z2 44 vsub.s32 q3, q11, q12 @ z1 - z2 51 vsub.s32 q11, q1, q3 54 vmul.s32 q13, q11, d0[0] 55 vshl.s32 q11, q8, #4 59 vadd.s32 q11, q11, q8 62 vsub.s32 q12, q12, q11 103 vshl.s32 q11, q2, #1 [all …]
|
D | hevcdsp_deblock_neon.S | 36 vsubl.u8 q11, d18, d19 38 vadd.i16 q11, q3 41 vrshr.s16 q11, q11, #3 44 vmin.s16 q11, q11, q0 45 vmax.s16 q11, q11, q12 46 vaddw.u8 q1, q11, d2 47 vsub.i16 q2, q11 67 vmovl.u8 q11, d22 73 vadd.i16 q7, q9, q11 125 vabd.s16 q7, q8, q11 [all …]
|
D | vp8dsp_neon.S | 130 vtrn.32 q10, q11 195 vaddw.u8 q11, q8, d2 207 vqmovun.s16 d22, q11 244 vaddw.u8 q11, q8, d2 253 vqmovun.s16 d22, q11 258 vst1.8 {q11}, [r0,:128], r2 279 vqadd.u8 q11, q9, q10 @ (abs(P0-Q0)*2) + (abs(P1-Q1)/2) 281 vcle.u8 q8, q11, q14 @ (abs(P0-Q0)*2) + (abs(P1-Q1)/2) <= flim 287 vabd.u8 q11, q1, q2 @ abs(P2-P1) 291 vcle.u8 q11, q11, q15 @ abs(P2-P1) <= flim_I [all …]
|
D | vc1dsp_neon.S | 85 @ Trashes: r12 q8 q9 q10 q11 q12 q13 100 vmul.i16 q11, q3, d0[1] @ t4 = 22 * (src[3]) 106 vmls.i16 q11, q1, d1[0] @ t4 -= 10 * src[1] 110 vhsub.s16 q1, q9, q11 @ dst[1] = (t2 - t4) >> 1 111 vhadd.s16 q2, q9, q11 @ dst[2] = (t2 + t4) >> 1 175 vsub.i16 q11, q14, q15 @ t8|t7 = old t1|t2 - old t3|t4 184 vswp d22, d23 @ q11 = t7|t8 203 vadd.i16 q2, q15, q11 @ line[5,4] = t7|t8 + 1 208 vhadd.s16 q1, q9, q11 @ line[2,3] = (t3|t4 + t7|t8) >> 1 214 vhsub.s16 q2, q11, q9 @ line[5,4] = (t7|t8 - t3|t4) >> 1 [all …]
|
D | h264idct_neon.S | 203 vtrn.32 q9, q11 221 vsub.i16 q0, q13, q11 224 vadd.i16 q3, q13, q11 226 vsub.i16 q1, q1, q11 230 vshr.s16 q11, q11, #1 234 vsub.i16 q1, q1, q11 238 vshr.s16 q11, q1, #2 242 vsub.i16 qa, q11, qa 253 vadd.i16 q11, q14, q0 255 vtrn.16 q10, q11 [all …]
|
D | simple_idct_neon.S | 52 vadd.i32 q11, q15, q7 105 vadd.i32 q11, q11, q7 115 vadd.i32 q11, q11, q7 120 1: vadd.i32 q3, q11, q9 130 vsub.i32 q11, q11, q9 139 vshrn.i32 d9, q11, #ROW_SHIFT 173 vadd.i32 q11, q11, q7 199 vadd.i32 q11, q11, q7 215 4: vaddhn.i32 d2, q11, q9 219 vsubhn.i32 d9, q11, q9
|
D | vp3dsp_neon.S | 171 vadd.s16 q3, q3, q11 // ip[3] * C3 173 vadd.s16 q1, q2, q11 // ip[3] * C5 174 vadd.s16 q11, q3, q4 // C = ip[3] * C3 + ip[5] * C5 191 vsub.s16 q1, q9, q11 // (A - C) 192 vadd.s16 q11, q9, q11 // Cd = A + C 234 vadd.s16 q8, q2, q11 // [0] = Gd + Cd 235 vsub.s16 q15, q2, q11 // [7] = Gd - Cd 238 vadd.s16 q11, q12, q13 // [3] = Ed + Dd 248 vtrn.16 q10, q11 252 vtrn.32 q9, q11 [all …]
|
D | vp9mc_16bpp_neon.S | 40 vld1.16 {q10, q11}, [r2], r3 41 vst1.16 {q10, q11}, [r0, :128], r1 56 vld1.16 {q10, q11}, [r2]! 63 vrhadd.u16 q3, q3, q11 69 vld1.16 {q10, q11}, [r0, :128], r1 72 vrhadd.u16 q11, q11, q15 73 vst1.16 {q10, q11}, [lr, :128], r1 88 vld1.16 {q10, q11}, [r2], r3 94 vrhadd.u16 q3, q3, q11
|
D | fft_neon.S | 60 vext.32 q11, q1, q1, #1 @ i2,r3,i3,r2 109 vld1.32 {d22-d25}, [r0,:128]! @ q11{r4,i4,r5,i5} q12{r6,i5,r7,i7} 124 vmul.f32 q1, q11, d2[1] 127 vadd.f32 q11, q12, q1 @ {t1a,t2a,t5,t6} 129 vzip.32 q10, q11 140 vsub.f32 q11, q9, q1 @ {r6,r7,i6,i7} 196 vsub.f32 q15, q11, q1 @ {r14,r15,i14,i15} 197 vadd.f32 q11, q11, q1 @ {r6,r7,i6,i7} 223 vrev64.32 q1, q11 224 vmul.f32 q11, q11, d4[1] [all …]
|
D | mdct_fixed_neon.S | 54 vmull.s16 q11, d0, d17 55 vmlal.s16 q11, d4, d16 61 vshrn.s32 d1, q11, #15 123 vmull.s16 q11, d2, d6 124 vmlal.s16 q11, d3, d7 131 vshrn.s32 d0, q11, #15 182 vmull.s16 q11, d2, d7 183 vmlsl.s16 q11, d3, d6 186 vst2.32 {q10,q11},[r7,:128]!
|
D | h264dsp_neon.S | 42 vdup.8 q11, r2 @ alpha 50 vclt.u8 q6, q6, q11 @ < alpha 51 vdup.8 q11, r3 @ beta 53 vclt.u8 q14, q14, q11 @ < beta 54 vclt.u8 q15, q15, q11 @ < beta 59 vclt.u8 q4, q4, q11 @ < beta 61 vclt.u8 q5, q5, q11 @ < beta 72 vqsub.u8 q11, q9, q12 74 vmax.u8 q7, q7, q11 75 vqsub.u8 q11, q1, q12 [all …]
|
D | hevcdsp_qpel_neon.S | 48 vld1.8 {q11}, [r2], r3 83 vmull.s16 q11, d4, d17 // 10 * c0 90 vsub.s32 q9, q11 // 58 * d0 - 10 * c0 92 vshll.s16 q11, d2, #2 // 4 * b0 98 vadd.s32 q9, q11 // 58 * d0 - 10 * c0 + 17 * e0 + 4 * b0 114 vaddl.s16 q11, d4, d10 // c0 + f0 116 vmul.s32 q11, q8 // 11 * (c0 + f0) 127 vadd.s32 q11, q13 // 11 * (c0 + f0) + a0 + h0 131 vsub.s32 q9, q11 // 40 * (d0 + e0) + 4*(b0+g0) - (11 * (c0 + f0) + a0 + h0) 143 vmull.s16 q11, d10, d17 // 10 * c0 [all …]
|
/third_party/openssl/crypto/modes/asm/arm32/ |
D | ghashv8-armx.S | 13 vmov.i8 q11,#0xe1 14 vshl.i64 q11,q11,#57 @ 0xc2.0 16 vshr.u64 q10,q11,#63 18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 40 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 47 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 62 vmov.i8 q11,#0xe1 64 vshl.u64 q11,q11,#57 79 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 86 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
D | ghash-armv4.S | 421 vmull.p8 q11, d26, d22 @ G = A*B2 426 veor q9, q9, q11 @ M = G + H 433 vmull.p8 q11, d26, d22 @ K = A*B4 445 vext.8 q11, q11, q11, #12 448 veor q10, q10, q11 459 vmull.p8 q11, d28, d22 @ G = A*B2 464 veor q9, q9, q11 @ M = G + H 471 vmull.p8 q11, d28, d22 @ K = A*B4 483 vext.8 q11, q11, q11, #12 486 veor q10, q10, q11 [all …]
|
/third_party/boringssl/ios-arm/crypto/fipsmodule/ |
D | ghashv8-armx32.S | 29 vmov.i8 q11,#0xe1 30 vshl.i64 q11,q11,#57 @ 0xc2.0 32 vshr.u64 q10,q11,#63 34 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 56 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 63 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 82 vmov.i8 q11,#0xe1 84 vshl.u64 q11,q11,#57 99 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 106 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
D | ghash-armv4.S | 457 vmull.p8 q11, d26, d22 @ G = A*B2 462 veor q9, q9, q11 @ M = G + H 469 vmull.p8 q11, d26, d22 @ K = A*B4 481 vext.8 q11, q11, q11, #12 484 veor q10, q10, q11 495 vmull.p8 q11, d28, d22 @ G = A*B2 500 veor q9, q9, q11 @ M = G + H 507 vmull.p8 q11, d28, d22 @ K = A*B4 519 vext.8 q11, q11, q11, #12 522 veor q10, q10, q11 [all …]
|
/third_party/openssl/crypto/aes/asm/arm32/ |
D | bsaes-armv7.S | 1159 vld1.8 {q10-q11}, [r0]! 1164 veor q2, q2, q11 1213 vld1.8 {q10-q11}, [r0]! 1218 veor q2, q2, q11 1236 vld1.8 {q10-q11}, [r0]! 1241 veor q2, q2, q11 1257 vld1.8 {q10-q11}, [r0]! 1263 veor q2, q2, q11 1443 vld1.8 {q10-q11}, [r0]! 1448 veor q6, q11 [all …]
|
/third_party/boringssl/linux-arm/crypto/fipsmodule/ |
D | ghashv8-armx32.S | 28 vmov.i8 q11,#0xe1 29 vshl.i64 q11,q11,#57 @ 0xc2.0 31 vshr.u64 q10,q11,#63 33 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 55 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 62 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 79 vmov.i8 q11,#0xe1 81 vshl.u64 q11,q11,#57 96 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 103 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
/third_party/pixman/pixman/ |
D | pixman-arm-neon-asm.S | 168 vmull.u8 q11, d3, d7 171 vrshr.u16 q3, q11, #8 174 vraddhn.u16 d23, q11, q3 181 vqadd.u8 q9, q0, q11 257 vqadd.u8 q9, q0, q11 274 vmull.u8 q11, d3, d7 282 vrshr.u16 q3, q11, #8 288 vraddhn.u16 d23, q11, q3 366 vmull.u8 q11, d3, d7 369 vrshr.u16 q3, q11, #8 [all …]
|
/third_party/ffmpeg/libavutil/arm/ |
D | float_dsp_neon.S | 40 vmul.f32 q11, q1, q3 83 vld1.32 {q11}, [acc,:128]! 86 vmla.f32 q11, q3, q15 95 vst1.32 {q11}, [r0,:128]! 98 vst1.32 {q11}, [r0,:128]! 180 vrev64.32 q11, q11 190 vrev64.32 q11, q11 203 vmul.f32 q11, q1, q9 205 vadd.f32 q13, q3, q11 216 vmul.f32 q11, q1, q9
|
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 255 vmul.s16 q11, q11, q3 509 vqrshrn.s16 d19, q11, #2 522 vtrn.16 q10, q11 543 vadd.u8 q11, q11, q0 744 vmul.s16 q11, q11, q3 756 vsub.s16 q1, q11, q13 757 vadd.s16 q13, q11, q13 794 vsub.s16 q11, q12, q1 797 vtrn.16 q10, q11 799 vtrn.32 q9, q11 [all …]
|
/third_party/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 114 vshr.u64 q11,q11,#3 125 vand q11,q11,q3 135 vadd.i64 q11,q11,q13 137 vadd.i64 q15,q11,q0 153 vsub.i64 q11,q11,q13 192 vadd.i64 q0,q11,q8 274 veor q9,q11,q12 282 veor q11,q11,q9 298 vadd.i32 q6,q11,q12 300 vsub.i32 q4,q11,q12 [all …]
|