/third_party/openssl/crypto/bn/asm/arm32/ |
D | armv4-gf2m.S | 169 vmov d26, r2, r1 175 vext.8 d2, d26, d26, #1 @ A1 178 vmull.p8 q0, d26, d0 @ E = A*B1 179 vext.8 d4, d26, d26, #2 @ A2 182 vmull.p8 q8, d26, d16 @ G = A*B2 183 vext.8 d6, d26, d26, #3 @ A3 188 vmull.p8 q0, d26, d0 @ I = A*B3 194 vmull.p8 q8, d26, d16 @ K = A*B4 205 vmull.p8 q0, d26, d27 @ D = A*B
|
/third_party/ffmpeg/libavcodec/arm/ |
D | vp9itxfm_16bpp_neon.S | 838 butterfly d8, d26, d20, d26 @ d8 = t2a, d26 = t5 858 butterfly d21, d26, d26, d8 @ d21 = out[5], d26 = out[10] 866 mbutterfly d26, d22, d3[0], d3[1], q4, q5 @ d26 = t5a, d22 = t6a 874 butterfly d10, d26, d18, d26 @ d10 = t4, d26 = t5 881 mbutterfly0 d22, d26, d22, d26, d18, d30, q9, q15 @ d22 = t6a, d26 = t5a 891 mbutterfly_h2 d26, d22, d3[0], d3[1], q4, q5 @ d26 = t5a, d22 = t6a 899 butterfly d10, d26, d18, d26 @ d10 = t4, d26 = t5 906 mbutterfly0 d22, d26, d22, d26, d18, d30, q9, q15 @ d22 = t6a, d26 = t5a 937 mbutterfly0 d22, d26, d11, d10, d18, d30, q9, q15 953 mbutterfly_l q3, q2, d21, d26, d3[1], d3[0] @ q3 = t11, q2 = t10 [all …]
|
D | vp9lpf_neon.S | 89 vsubl.u8 q5, d20, d26 @ p1 - q1 136 vmovl.u8 q6, d26 @ q1 165 vabd.u8 \tmp1, d25, d26 @ abs(q1 - q2) 166 vabd.u8 \tmp2, d26, d27 @ abs(q2 - q3) 194 vabd.u8 \tmp2, d26, d24 @ abs(q2 - q0) 309 vaddl.u8 \tmpq4, d23, d26 332 vaddl.u8 \tmpq2, d26, d27 349 vbit d26, \tmp6, d6 366 @ If this part is skipped, the output is read from d21-d26 (which is the input 383 vaddl.u8 q7, d19, d26 [all …]
|
D | hevcdsp_deblock_neon.S | 69 vmovl.u8 q13, d26 284 vqmovun.s16 d26, q13 299 vld1.8 {d26}, [r0], r1 303 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30 305 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30 311 vst1.8 {d26}, [r0], r1 329 vld1.8 {d26}, [r0], r1 339 vst1.8 {d26}, [r0], r1
|
D | hevcdsp_sao_neon.S | 136 vqmovun.s16 d26, q12 137 vst1.8 d26, [r0], r2 169 vqmovun.s16 d26, q12 170 vst1.32 d26[0], [r0], r2
|
D | fft_neon.S | 69 vmul.f32 d26, d17, d28 @ -a2r*w,a2i*w 82 vadd.f32 d24, d24, d26 @ a2r+a2i,a2i-a2r t1,t2 90 vsub.f32 d4, d26, d27 113 vsub.f32 d19, d26, d27 141 vswp d25, d26 @ q12{r8,i8,i10,r11} q13{r9,i9,i11,r10} 152 vswp d1, d26 @ q0{t1,t2,t3,t4} q13{t6,t5,t7,t8} 190 vadd.f32 d0, d30, d26 193 vsub.f32 d3, d30, d26 200 vst2.32 {d26-d27},[r0,:128], r1
|
D | h264dsp_neon.S | 146 vld1.8 {d26}, [r0], r1 190 vabd.u8 d26, d16, d0 @ abs(p0 - q0) 198 vclt.u8 d26, d26, d22 @ < alpha 206 vand d26, d26, d28 208 vand d26, d26, d30 210 vand d4, d4, d26
|
D | h264qpel_neon.S | 252 vld1.8 {d26}, [r1], r3 264 lowpass_8 d26, d27, d28, d29, d26, d28 265 transpose_8x8 d8, d10, d12, d14, d22, d24, d26, d28 281 vrhadd.u8 d26, d26, d27 293 vst1.8 {d26}, [r0,:64], r2 328 vld1.8 {d26}, [r1], r3 340 lowpass_8 d26, d27, d28, d29, d26, d27 341 transpose_8x8 d8, d9, d12, d13, d22, d23, d26, d27 423 swap4 d17, d19, d21, d31, d24, d26, d28, d22 436 lowpass_8.16 q5, q13, d10, d11, d26, d27, d9
|
D | rdft_neon.S | 47 vdup.32 d26, r8 61 veor d5, d26, d5 97 veor d5, d26, d5
|
D | vp9itxfm_neon.S | 832 vst1.16 {d26}, [r0,:64]! 991 …q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30… 1006 vst1.16 {d26}, [r0,:64]! 1051 …q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30…
|
/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm82_aarch32_fp16/ |
D | Matmul12x8Fp16.S | 391 STORE_12x1 d26[0] 405 STORE_C1 d26[0], #10 420 STORE_12x2 d26[0] 434 STORE_C2 d26[0], #10 449 STORE_12x3 d26[0], d26[2] 463 STORE_C3 d26[0], d26[2], #10 478 STORE_12x4 d26 492 STORE_C4 d26, #10 507 STORE_12x5 d26, d27[0] 521 STORE_C5 d26, d27[0], #10 [all …]
|
D | MatVecMulFp16.S | 129 vld1.16 {d26}, [r3]! 130 vadd.f16 d30, d30, d26 146 vmax.f16 d30, d30, d26 219 vmov.i16 d26, #6 220 vcvt.f16.s16 d26, d26 221 vmin.f16 d30, d30, d26
|
D | TiledC4MatmulFp16.S | 62 vmla.f16 d26, d8, d6[0] 63 vmla.f16 d26, d9, d6[1] 64 vmla.f16 d26, d10, d6[2] 65 vmla.f16 d26, d11, d6[3]
|
/third_party/openh264/codec/processing/src/arm/ |
D | adaptive_quantization.S | 53 vmull.u8 q11, d26, d26 57 vaddl.u8 q13, d26, d27 //sum 90 vadd.u16 d0, d26, d27 //sum
|
/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm32/ |
D | MatVecMulFp32.S | 78 vpadd.f32 d26, d18, d20 82 vadd.f32 d30, d26, d27 177 vmov.i32 d26, #6 178 vcvt.f32.s32 d26, d26 179 vmin.f32 d30, d30, d26
|
D | MatmulInt8Opt.S | 115 vpadd.i32 d26, d26, d27 120 vpadd.i32 d31, d24, d26 125 vld1.32 {d26}, [r12]! 126 vadd.i32 d28, d28, d26 127 vadd.i32 d29, d29, d26 128 vadd.i32 d30, d30, d26 129 vadd.i32 d31, d31, d26 178 vmul.s32 d26, d22, d19 182 vsub.s32 d30, d30, d26
|
D | MatmulInt8.S | 110 vpadd.i32 d7, d26, d27 120 vld1.32 {d26}, [r9]! 121 vadd.i32 d28, d28, d26 122 vadd.i32 d29, d29, d26 123 vadd.i32 d30, d30, d26 124 vadd.i32 d31, d31, d26 172 vld1.32 {d24, d25, d26, d27}, [r6]! 175 vsub.s32 d30, d30, d26
|
D | PreSum4x16Int8Peroc.S | 97 vdup.32 d1, d26[0] 98 vdup.32 d2, d26[1]
|
/third_party/openh264/codec/encoder/core/arm/ |
D | intra_pred_sad_3_opt_neon.S | 287 vabal.u8 q10, d26, d2 288 vabal.u8 q10, d26, d3 356 vdup.8 d26, d1[4] 357 vtrn.32 d27, d26 359 vdup.8 d26, d0[4] 361 vtrn.32 d26, d25 //Save to "d27, d26" 436 vabal.u8 q9, d26, d0 549 HDM_TRANSFORM_4X4_L0 d6, d8, d26, d22, d14, d11, d10, d28, d30 568 HDM_TRANSFORM_4X4_L0 d6, d8, d26, d23, d18, d11, d10, d28, d30 652 vmov.i32 d26, #0//Save the SATD of H [all …]
|
D | reconstruct_neon.S | 445 NEWQUANT_COEF_EACH_16BITS_MAX q0, q8, d16, d17, d6, d7, q9, q10, q11, d26 465 NEWQUANT_COEF_EACH_16BITS_MAX q0, q8, d16, d17, d6, d7, q9, q10, q11, d26 717 vld1.u64 {d26}, [r2], r3 749 vmovl.u8 q8,d26 751 vqmovun.s16 d26,q2 752 vst1.u8 {d26},[r0],r1 763 vld1.u64 {d26}, [r2], r3 795 vmovl.u8 q8,d26 797 vqmovun.s16 d26,q2 798 vst1.u8 {d26},[r0],r1
|
/third_party/openssl/crypto/modes/asm/arm32/ |
D | ghash-armv4.S | 362 vshr.u64 d26,d6,#63 366 vorr d7,d26 @ H<<<=1 380 vldmia r1,{d26-d27} @ load twisted H 386 veor d28,d26,d27 @ Karatsuba pre-processing 398 vldmia r1,{d26-d27} @ load twisted H 404 veor d28,d26,d27 @ Karatsuba pre-processing 414 vext.8 d16, d26, d26, #1 @ A1 417 vmull.p8 q0, d26, d0 @ E = A*B1 418 vext.8 d18, d26, d26, #2 @ A2 421 vmull.p8 q11, d26, d22 @ G = A*B2 [all …]
|
/third_party/ffmpeg/libavcodec/ |
D | faanidct.c | 54 FLOAT s04, d04, s17, d17, s26, d26, s53, d53; in p8idct() local 75 d26 = temp[2*x + i] - temp[6*x + i]; in p8idct() 76 d26*= 2*A4; in p8idct() 77 d26-= s26; in p8idct() 84 os16= d04 + d26; in p8idct() 85 os25= d04 - d26; in p8idct()
|
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 225 ROW5L .req d26 252 vld1.16 {d24, d25, d26, d27}, [COEF_BLOCK, :128]! 741 vld1.16 {d24, d25, d26, d27}, [COEF_BLOCK, :128]! 804 vswp d26, d19 1043 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE, :128]! 1057 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29 1058 transpose_4x4 d26, d27, d28, d29 1064 vqmovun.s16 d26, q13 1078 vst1.32 {d26[0]}, [TMP1]! 1080 vst1.32 {d26[1]}, [TMP2]! [all …]
|
/third_party/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 225 ROW5L .req d26 252 vld1.16 {d24, d25, d26, d27}, [COEF_BLOCK, :128]! 741 vld1.16 {d24, d25, d26, d27}, [COEF_BLOCK, :128]! 804 vswp d26, d19 1043 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE, :128]! 1057 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29 1058 transpose_4x4 d26, d27, d28, d29 1064 vqmovun.s16 d26, q13 1078 vst1.32 {d26[0]}, [TMP1]! 1080 vst1.32 {d26[1]}, [TMP2]! [all …]
|
/third_party/openssl/crypto/poly1305/asm/arm32/ |
D | poly1305-armv4.S | 791 vadd.i32 d26,d26,d16 832 vmlal.u32 q8,d26,d0[0] 841 vmlal.u32 q9,d26,d1[0] 846 vmlal.u32 q5,d26,d4[0] 854 vmlal.u32 q6,d26,d6[0] 862 vmlal.u32 q7,d26,d8[0] 864 vld4.32 {d20,d22,d24,d26},[r1] @ inp[0:1] 936 vadd.i32 d27,d26,d16 948 vadd.i32 d26,d26,d16 999 vmlal.u32 q8,d26,d0 [all …]
|