/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/bn/ |
D | armv4-mont.S | 218 vld1.32 {d28[0]}, [r2,:32]! 630 vmlal.u32 q10,d28,d2[0] 631 vmlal.u32 q11,d28,d2[1] 632 vmlal.u32 q12,d28,d3[0] 633 vmlal.u32 q13,d28,d3[1] 634 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1] 644 vmlal.u32 q7,d28,d0[0] 646 vmlal.u32 q8,d28,d0[1] 648 vmlal.u32 q9,d28,d1[0] 673 vmlal.u32 q11,d28,d1[1] [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/bn/ |
D | armv4-mont.S | 218 vld1.32 {d28[0]}, [r2,:32]! 630 vmlal.u32 q10,d28,d2[0] 631 vmlal.u32 q11,d28,d2[1] 632 vmlal.u32 q12,d28,d3[0] 633 vmlal.u32 q13,d28,d3[1] 634 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1] 644 vmlal.u32 q7,d28,d0[0] 646 vmlal.u32 q8,d28,d0[1] 648 vmlal.u32 q9,d28,d1[0] 673 vmlal.u32 q11,d28,d1[1] [all …]
|
/third_party/ffmpeg/libavcodec/arm/ |
D | rv34dsp_neon.S | 31 vmull.s16 q10, d28, d0 33 vmull.s16 q11, d28, d0 79 vld1.32 {d28[]}, [r0,:32], r1 82 vld1.32 {d28[1]}, [r0,:32], r1 87 vtrn.32 d28, d29 89 vaddw.u8 q0, q8, d28 91 vqmovun.s16 d28, q0 93 vst1.32 {d28[0]}, [r3,:32], r1 94 vst1.32 {d28[1]}, [r3,:32], r1 125 vld1.32 {d28[]}, [r0,:32], r1 [all …]
|
D | vp6dsp_neon.S | 31 vadd.i16 d29, d28, d28 33 vadd.i16 d28, d28, d30 35 vadd.i16 d28, d28, d29 37 vrshr.s16 d28, d28, #3 41 vabs.s16 d30, d28 42 vshr.s16 d29, d28, #15 58 vbif d28, d16, d31 64 vsub.i16 d30, d30, d28
|
D | vp9itxfm_16bpp_neon.S | 839 butterfly d9, d10, d28, d10 @ d9 = t3a, d10 = t4 840 butterfly d20, d28, d16, d24 @ d20 = t8a, d28 = t11a 846 mbutterfly0 d29, d28, d29, d28, d16, d30, q8, q15 @ d29 = t12, d28 = t11 849 vswp d28, d27 @ d28 = t12, d27 = t11 855 butterfly d19, d28, d9, d28 @ d19 = out[3], d28 = out[12] 864 mbutterfly d20, d28, d1[0], d1[1], q4, q5 @ d20 = t2a, d28 = t3a 872 butterfly d8, d28, d16, d28 @ d8 = t0, d28 = t3 889 mbutterfly_h1 d20, d28, d1[0], d1[1], q4, q5 @ d20 = t2a, d28 = t3a 897 butterfly d8, d28, d16, d28 @ d8 = t0, d28 = t3 927 vrshrn.s64 d28, q11, #14 [all …]
|
D | vp9itxfm_neon.S | 825 vst1.16 {d28}, [r0,:64]! 838 vmov d28, d16 938 @ For all-zero slices in pass 1, set d28-d31 to zero, for the in-register 989 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31 991 … q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31 999 vst1.16 {d28}, [r0,:64]! 1049 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31 1051 … q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31
|
D | hevcdsp_deblock_neon.S | 70 vmovl.u8 q14, d28 285 vqmovun.s16 d28, q14 300 vld1.8 {d28}, [r0], r1 303 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30 305 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30 312 vst1.8 {d28}, [r0], r1 330 vld1.8 {d28}, [r0], r1 340 vst1.8 {d28}, [r0]
|
D | fft_neon.S | 62 vmov d28, r3, r2 66 vrev64.32 d29, d28 69 vmul.f32 d26, d17, d28 @ -a2r*w,a2i*w 130 vld1.32 {d28-d31}, [r0,:128] @ q14{r12,i12,r13,i13} q15{r14,i14,r15,i15} 159 vswp d25, d28 @ q12{r8,i8,r12,i12} q14{r9,i9,r13,i13} 167 vadd.f32 d0, d28, d24 170 vsub.f32 d3, d28, d24 187 vst2.32 {d28-d29},[r0,:128]
|
D | vp9mc_neon.S | 226 vmla_lane \dst1d, d28, \offset 345 vld1.8 {d28}, [r0,:64] 347 vrhadd.u8 d2, d2, d28 350 @ We only need d28[0], but [] is faster on some cores 351 vld1.32 {d28[]}, [r0,:32] 353 vrhadd.u8 d2, d2, d28 637 vld1.32 {d28[]}, [r2], r3 647 vext.8 d8, d8, d28, #4 651 vext.8 d28, d28, d30, #4 653 vmovl.u8 q13, d28
|
D | h264dsp_neon.S | 192 vabd.u8 d28, d18, d16 @ abs(p1 - p0) 202 vclt.u8 d28, d28, d22 @ < beta 206 vand d26, d26, d28 310 vld1.8 {d28-d29},[r0,:128], r2 312 \macd q12, d0, d28 452 vld1.8 {d28-d29},[r0,:128], r1 453 vmull.u8 q12, d0, d28
|
D | h264qpel_neon.S | 192 vld1.8 {d28}, [r3], r2 253 vld1.8 {d28}, [r1], r3 264 lowpass_8 d26, d27, d28, d29, d26, d28 265 transpose_8x8 d8, d10, d12, d14, d22, d24, d26, d28 283 vrhadd.u8 d28, d28, d29 294 vst1.8 {d28}, [r0,:64], r2 329 vld1.8 {d28}, [r1], r3 340 lowpass_8 d26, d27, d28, d29, d26, d27 423 swap4 d17, d19, d21, d31, d24, d26, d28, d22 437 lowpass_8.16 q6, q14, d12, d13, d28, d29, d10
|
/third_party/openh264/codec/encoder/core/arm/ |
D | intra_pred_sad_3_opt_neon.S | 103 GET_8BYTE_DATA_L0 d28, r7, r1 109 vaddl.u8 q1, d28, d29 132 vshll.u8 q0, d28, #2 247 GET_8BYTE_DATA_L0 d28, r4, r1 253 vaddl.u8 q1, d28, d29 336 GET_8BYTE_DATA_L0 d28, r6, r1 492 GET_8BYTE_DATA_L0 d28, r6, r1 508 vshll.u8 q0, d28, #2 538 vmov.i32 d28, #0//Save the SATD of DC_BOTH 549 HDM_TRANSFORM_4X4_L0 d6, d8, d26, d22, d14, d11, d10, d28, d30 [all …]
|
/third_party/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"}, 103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"}, 107 {{F64, d28, d29, d29}, false, al, "F64 d28 d29 d29", "F64_d28_d29_d29"}, 108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"}, 123 {{F64, d24, d16, d28}, false, al, "F64 d24 d16 d28", "F64_d24_d16_d28"}, 127 {{F64, d29, d3, d28}, false, al, "F64 d29 d3 d28", "F64_d29_d3_d28"}, 143 {{F64, d31, d28, d16}, false, al, "F64 d31 d28 d16", "F64_d31_d28_d16"}, 148 {{F32, d4, d24, d28}, false, al, "F32 d4 d24 d28", "F32_d4_d24_d28"}, 161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"}, 172 {{F32, d8, d28, d1}, false, al, "F32 d8 d28 d1", "F32_d8_d28_d1"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"}, 103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"}, 107 {{F64, d28, d29, d29}, false, al, "F64 d28 d29 d29", "F64_d28_d29_d29"}, 108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"}, 123 {{F64, d24, d16, d28}, false, al, "F64 d24 d16 d28", "F64_d24_d16_d28"}, 127 {{F64, d29, d3, d28}, false, al, "F64 d29 d3 d28", "F64_d29_d3_d28"}, 143 {{F64, d31, d28, d16}, false, al, "F64 d31 d28 d16", "F64_d31_d28_d16"}, 148 {{F32, d4, d24, d28}, false, al, "F32 d4 d24 d28", "F32_d4_d24_d28"}, 161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"}, 172 {{F32, d8, d28, d1}, false, al, "F32 d8 d28 d1", "F32_d8_d28_d1"}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 392 {{F64, d31, d28, d30}, 432 {{F64, d28, d10, d8}, 437 {{F64, d8, d28, d11}, 477 {{F64, d28, d17, d14}, 507 {{F64, d6, d28, d7}, 542 {{F64, d28, d15, d11}, 597 {{F64, d17, d28, d8}, 667 {{F64, d31, d4, d28}, 677 {{F64, d28, d14, d1}, 752 {{F64, d28, d13, d21}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 392 {{F64, d31, d28, d30}, 432 {{F64, d28, d10, d8}, 437 {{F64, d8, d28, d11}, 477 {{F64, d28, d17, d14}, 507 {{F64, d6, d28, d7}, 542 {{F64, d28, d15, d11}, 597 {{F64, d17, d28, d8}, 667 {{F64, d31, d4, d28}, 677 {{F64, d28, d14, d1}, 752 {{F64, d28, d13, d21}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"}, 134 {{F32, d14, d29, d28}, false, al, "F32 d14 d29 d28", "F32_d14_d29_d28"}, 136 {{F32, d28, d21, d9}, false, al, "F32 d28 d21 d9", "F32_d28_d21_d9"}, 139 {{F32, d19, d28, d20}, false, al, "F32 d19 d28 d20", "F32_d19_d28_d20"}, 163 {{F32, d3, d19, d28}, false, al, "F32 d3 d19 d28", "F32_d3_d19_d28"}, 167 {{F32, d18, d28, d11}, false, al, "F32 d18 d28 d11", "F32_d18_d28_d11"}, 200 {{F32, d26, d28, d30}, false, al, "F32 d26 d28 d30", "F32_d26_d28_d30"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"}, 134 {{F32, d14, d29, d28}, false, al, "F32 d14 d29 d28", "F32_d14_d29_d28"}, 136 {{F32, d28, d21, d9}, false, al, "F32 d28 d21 d9", "F32_d28_d21_d9"}, 139 {{F32, d19, d28, d20}, false, al, "F32 d19 d28 d20", "F32_d19_d28_d20"}, 163 {{F32, d3, d19, d28}, false, al, "F32 d3 d19 d28", "F32_d3_d19_d28"}, 167 {{F32, d18, d28, d11}, false, al, "F32 d18 d28 d11", "F32_d18_d28_d11"}, 200 {{F32, d26, d28, d30}, false, al, "F32 d26 d28 d30", "F32_d26_d28_d30"},
|
/third_party/openh264/codec/processing/src/arm/ |
D | adaptive_quantization.S | 59 vaddl.u8 q10, d28, d29 //sum_cur 62 vmull.u8 q8, d28, d28
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/ |
D | ghash-armv4.S | 387 veor d28,d26,d27 @ Karatsuba pre-processing 405 veor d28,d26,d27 @ Karatsuba pre-processing 453 vext.8 d16, d28, d28, #1 @ A1 456 vmull.p8 q1, d28, d2 @ E = A*B1 457 vext.8 d18, d28, d28, #2 @ A2 460 vmull.p8 q11, d28, d22 @ G = A*B2 461 vext.8 d20, d28, d28, #3 @ A3 466 vmull.p8 q1, d28, d2 @ I = A*B3 472 vmull.p8 q11, d28, d22 @ K = A*B4 483 vmull.p8 q1, d28, d6 @ D = A*B
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/ |
D | ghash-armv4.S | 387 veor d28,d26,d27 @ Karatsuba pre-processing 405 veor d28,d26,d27 @ Karatsuba pre-processing 453 vext.8 d16, d28, d28, #1 @ A1 456 vmull.p8 q1, d28, d2 @ E = A*B1 457 vext.8 d18, d28, d28, #2 @ A2 460 vmull.p8 q11, d28, d22 @ G = A*B2 461 vext.8 d20, d28, d28, #3 @ A3 466 vmull.p8 q1, d28, d2 @ I = A*B3 472 vmull.p8 q11, d28, d22 @ K = A*B4 483 vmull.p8 q1, d28, d6 @ D = A*B
|
/third_party/openh264/codec/common/arm/ |
D | deblocking_neon.S | 171 vdup.s8 d28, d31[0] 175 vtrn.32 d28, d30 263 DIFF_LUMA_EQ4_P2P1P0 d30, d28, d26, d24, d22, d20, d4, d6 314 vdup.s8 d28, d31[0] 318 vtrn.32 d28, d30 394 vld1.u8 {d28}, [r3], r1 403 vtrn.u32 d24, d28 414 vtrn.u16 d28, d30 423 vtrn.u8 d28, d29 428 vswp d21, d28 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/ |
D | poly1305-armv4.S | 790 vadd.i32 d28,d28,d18 827 vmlal.u32 q9,d28,d0[0] 833 vmlal.u32 q5,d28,d2[0] 841 vmlal.u32 q6,d28,d4[0] 848 vmlal.u32 q8,d28,d8[0] 850 vmlal.u32 q7,d28,d6[0] 931 vadd.i32 d29,d28,d18 945 vadd.i32 d28,d28,d18 994 vmlal.u32 q9,d28,d0 996 vmlal.u32 q5,d28,d2 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/ |
D | poly1305-armv4.S | 790 vadd.i32 d28,d28,d18 827 vmlal.u32 q9,d28,d0[0] 833 vmlal.u32 q5,d28,d2[0] 841 vmlal.u32 q6,d28,d4[0] 848 vmlal.u32 q8,d28,d8[0] 850 vmlal.u32 q7,d28,d6[0] 931 vadd.i32 d29,d28,d18 945 vadd.i32 d28,d28,d18 994 vmlal.u32 q9,d28,d0 996 vmlal.u32 q5,d28,d2 [all …]
|
/third_party/vixl/test/aarch64/ |
D | test-assembler-fp-aarch64.cc | 446 __ Fmov(d28, kFP64NegativeInfinity); in TEST() 463 __ Fadd(d11, d28, d31); in TEST() 464 __ Fadd(d12, d27, d28); in TEST() 465 __ Fadd(d13, d28, d27); in TEST() 538 __ Fmov(d28, kFP64NegativeInfinity); in TEST() 555 __ Fsub(d11, d31, d28); in TEST() 557 __ Fsub(d13, d28, d28); in TEST() 629 __ Fmov(d28, kFP64NegativeInfinity); in TEST() 646 __ Fmul(d11, d28, d30); in TEST() 648 __ Fmul(d13, d29, d28); in TEST() [all …]
|