/external/XNNPACK/scripts/ |
D | generate-qs8-vadd.sh | 8 tools/xngen src/qs8-vadd/scalar.c.in -D BATCH_TILE=1 -D DATATYPE=QS8 -o src/qs8-vadd/gen/minmax-sca… 9 tools/xngen src/qs8-vadd/scalar.c.in -D BATCH_TILE=2 -D DATATYPE=QS8 -o src/qs8-vadd/gen/minmax-sca… 10 tools/xngen src/qs8-vadd/scalar.c.in -D BATCH_TILE=4 -D DATATYPE=QS8 -o src/qs8-vadd/gen/minmax-sca… 12 tools/xngen src/qs8-vadd/scalar.c.in -D BATCH_TILE=1 -D DATATYPE=QU8 -o src/qu8-vadd/gen/minmax-sca… 13 tools/xngen src/qs8-vadd/scalar.c.in -D BATCH_TILE=2 -D DATATYPE=QU8 -o src/qu8-vadd/gen/minmax-sca… 14 tools/xngen src/qs8-vadd/scalar.c.in -D BATCH_TILE=4 -D DATATYPE=QU8 -o src/qu8-vadd/gen/minmax-sca… 25 tools/xngen src/qs8-vadd/wasmsimd.c.in -D BATCH_TILE=8 -D DATATYPE=QS8 -o src/qs8-vadd/gen/minmax-… 26 tools/xngen src/qs8-vadd/wasmsimd.c.in -D BATCH_TILE=16 -D DATATYPE=QS8 -o src/qs8-vadd/gen/minmax-… 27 tools/xngen src/qs8-vadd/wasmsimd.c.in -D BATCH_TILE=24 -D DATATYPE=QS8 -o src/qs8-vadd/gen/minmax-… 28 tools/xngen src/qs8-vadd/wasmsimd.c.in -D BATCH_TILE=32 -D DATATYPE=QS8 -o src/qs8-vadd/gen/minmax-… [all …]
|
/external/llvm/test/MC/ARM/ |
D | pr22395.s | 15 vadd.f32 s1, s2, s3 16 @ CHECK: vadd.f32 s1, s2, s3 20 vadd.f32 s1, s2, s3 21 @ CHECK: vadd.f32 s1, s2, s3 25 vadd.f32 s1, s2, s3 26 @ CHECK: vadd.f32 s1, s2, s3 30 vadd.f32 s1, s2, s3 31 @ CHECK: vadd.f32 s1, s2, s3 35 vadd.f32 s1, s2, s3 36 @ CHECK: vadd.f32 s1, s2, s3 [all …]
|
D | neon-add-encoding.s | 4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2] 5 vadd.i8 d16, d17, d16 6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2] 7 vadd.i16 d16, d17, d16 8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2] 9 vadd.i64 d16, d17, d16 10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2] 11 vadd.i32 d16, d17, d16 12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2] 13 vadd.f32 d16, d16, d17 [all …]
|
D | d16.s | 7 @ D16-NEXT: vadd.f64 d1, d2, d16 8 vadd.f64 d1, d2, d16 11 @ D16-NEXT: vadd.f64 d1, d17, d6 12 vadd.f64 d1, d17, d6 15 @ D16-NEXT: vadd.f64 d19, d7, d6 16 vadd.f64 d19, d7, d6
|
/external/cronet/third_party/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 128 vadd.i64 q12,q4,q1 129 vadd.i64 q13,q10,q1 132 vadd.i64 q5,q5,q12 134 vadd.i64 q14,q5,q0 135 vadd.i64 q11,q11,q13 137 vadd.i64 q15,q11,q0 142 vadd.i64 q6,q6,q12 144 vadd.i64 q14,q6,q1 145 vadd.i64 q2,q2,q13 149 vadd.i64 q14,q2,q1 [all …]
|
/external/rust/crates/ring/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 126 vadd.i64 q12,q4,q1 127 vadd.i64 q13,q10,q1 130 vadd.i64 q5,q5,q12 132 vadd.i64 q14,q5,q0 133 vadd.i64 q11,q11,q13 135 vadd.i64 q15,q11,q0 140 vadd.i64 q6,q6,q12 142 vadd.i64 q14,q6,q1 143 vadd.i64 q2,q2,q13 147 vadd.i64 q14,q2,q1 [all …]
|
/external/rust/crates/quiche/deps/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 128 vadd.i64 q12,q4,q1 129 vadd.i64 q13,q10,q1 132 vadd.i64 q5,q5,q12 134 vadd.i64 q14,q5,q0 135 vadd.i64 q11,q11,q13 137 vadd.i64 q15,q11,q0 142 vadd.i64 q6,q6,q12 144 vadd.i64 q14,q6,q1 145 vadd.i64 q2,q2,q13 149 vadd.i64 q14,q2,q1 [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 128 vadd.i64 q12,q4,q1 129 vadd.i64 q13,q10,q1 132 vadd.i64 q5,q5,q12 134 vadd.i64 q14,q5,q0 135 vadd.i64 q11,q11,q13 137 vadd.i64 q15,q11,q0 142 vadd.i64 q6,q6,q12 144 vadd.i64 q14,q6,q1 145 vadd.i64 q2,q2,q13 149 vadd.i64 q14,q2,q1 [all …]
|
/external/libpng/arm/ |
D | filter_neon.S | 70 vadd.u8 d0, d3, d4 71 vadd.u8 d1, d0, d5 72 vadd.u8 d2, d1, d6 73 vadd.u8 d3, d2, d7 90 vadd.u8 d0, d3, d22 92 vadd.u8 d1, d0, d5 96 vadd.u8 d2, d1, d6 98 vadd.u8 d3, d2, d7 112 vadd.u8 q0, q0, q1 127 vadd.u8 d0, d0, d4 [all …]
|
/external/libvpx/vpx_dsp/arm/ |
D | intrapred_neon_asm.asm | 315 vadd.s16 q1, q1, q3 316 vadd.s16 q2, q2, q3 327 vadd.s16 q1, q1, q3 328 vadd.s16 q2, q2, q3 364 vadd.s16 q0, q3, q0 365 vadd.s16 q1, q3, q1 370 vadd.s16 q8, q3, q8 371 vadd.s16 q9, q3, q9 386 vadd.s16 q0, q3, q0 387 vadd.s16 q1, q3, q1 [all …]
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
D | intrapred_neon_asm.asm.S | 331 vadd.s16 q1, q1, q3 332 vadd.s16 q2, q2, q3 343 vadd.s16 q1, q1, q3 344 vadd.s16 q2, q2, q3 380 vadd.s16 q0, q3, q0 381 vadd.s16 q1, q3, q1 386 vadd.s16 q8, q3, q8 387 vadd.s16 q9, q3, q9 402 vadd.s16 q0, q3, q0 403 vadd.s16 q1, q3, q1 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | big-endian-vector-callee.ll | 7 ; SOFT: vadd.f64 [[REG]] 8 ; HARD: vadd.f64 d{{[0-9]+}}, d0 20 ; SOFT: vadd.i64 [[REG]] 21 ; HARD: vadd.i64 d{{[0-9]+}}, d0 90 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 92 ; HARD: vadd.f64 d0 98 ; SOFT: vadd.i64 [[REG]] 99 ; HARD: vadd.i64 d{{[0-9]+}}, d0 104 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 106 ; HARD: vadd.f64 d0 [all …]
|
D | saxpy10-a9.ll | 19 ; CHECK-NEXT: vadd 20 ; CHECK-NEXT: vadd 23 ; CHECK-NEXT: vadd 24 ; CHECK-NEXT: vadd 27 ; CHECK-NEXT: vadd 28 ; CHECK-NEXT: vadd 32 ; CHECK-NEXT: vadd 34 ; CHECK-NEXT: vadd 37 ; CHECK-NEXT: vadd 39 ; CHECK-NEXT: vadd [all …]
|
D | fmacs.ll | 17 ; A8: vadd.f32 33 ; A8: vadd.f64 49 ; A8: vadd.f32 62 ; A8: vadd.f32 63 ; A8: vadd.f32 87 ; A8: vadd.f32 88 ; A8: vadd.f32 93 ; A9: vadd.f32 98 ; HARD: vadd.f32 s0, s4, s0
|
D | fadds.ll | 26 ; VFP2: vadd.f32 s 29 ; NFP1: vadd.f32 d 31 ; NFP0: vadd.f32 s 34 ; CORTEXA8: vadd.f32 s 36 ; CORTEXA8U: vadd.f32 d 38 ; CORTEXA9: vadd.f32 s
|
D | big-endian-vector-caller.ll | 7 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 9 ; HARD: vadd.f64 d0 23 ; SOFT: vadd.i64 [[REG:d[0-9]+]] 25 ; HARD: vadd.i64 d0 112 ; SOFT: vadd.f64 [[REG]] 113 ; HARD: vadd.f64 {{d[0-9]+}}, d0 119 ; SOFT: vadd.i64 [[REG:d[0-9]+]] 121 ; HARD: vadd.i64 d0 129 ; SOFT: vadd.f64 [[REG]] 130 ; HARD: vadd.f64 {{d[0-9]+}}, d0 [all …]
|
/external/libaom/av1/encoder/arm/neon/ |
D | ml_neon.c | 36 float32x4_t vadd = zero; in nn_propagate_8to1() local 46 vadd = vmlaq_f32(vadd, inputs_h, weights_h); in nn_propagate_8to1() 47 vadd = vmlaq_f32(vadd, inputs_l, weights_l); in nn_propagate_8to1() 50 total += vaddvq_f32(vadd); in nn_propagate_8to1() 52 float32x2_t vadd_lo = vadd_f32(vget_low_f32(vadd), vget_high_f32(vadd)); in nn_propagate_8to1() 65 float32x4_t vadd = vdupq_n_f32(0); in nn_propagate_xto1() local 77 vadd = vmlaq_f32(vadd, inputs_h, weights_h); in nn_propagate_xto1() 78 vadd = vmlaq_f32(vadd, inputs_l, weights_l); in nn_propagate_xto1() 84 total += vaddvq_f32(vadd); in nn_propagate_xto1() 87 float32x2_t vadd_lo = vadd_f32(vget_low_f32(vadd), vget_high_f32(vadd)); in nn_propagate_xto1() [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 256 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7) 259 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 261 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 267 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 270 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 324 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7) 327 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 329 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_11_to_17.s | 312 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 314 vadd.s8 d9, d8, d2 @ref_main_idx + 1 (row 0) 319 vadd.s8 d4, d8, d2 @ref_main_idx (row 1) 320 vadd.s8 d5, d9, d2 @ref_main_idx + 1 (row 1) 327 vadd.s8 d8, d8, d3 @ref_main_idx (row 2) 328 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 2) 337 vadd.s8 d4, d4, d3 @ref_main_idx (row 3) 338 vadd.s8 d5, d5, d3 @ref_main_idx + 1 (row 3) 348 vadd.s8 d8, d8, d3 @ref_main_idx (row 4) 349 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 4) [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 308 vadd.u8 d27,d27,d29 311 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 313 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 318 vadd.s8 d4, d8, d29 @ref_main_idx (row 1) 319 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 329 vadd.s8 d8, d8, d29 @ref_main_idx (row 2) 330 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) 339 vadd.s8 d4, d4, d29 @ref_main_idx (row 3) 340 vadd.s8 d5, d5, d29 @ref_main_idx + 1 (row 3) 350 vadd.s8 d8, d8, d29 @ref_main_idx (row 4) [all …]
|
/external/llvm/test/MC/Hexagon/ |
D | v60-alu.s | 26 #CHECK: 1caacf90 { v17:16.w = vadd(v15.h,{{ *}}v10.h) } 27 v17:16.w=vadd(v15.h,v10.h) 44 #CHECK: 1cbad95c { v29:28.h = vadd(v25.ub,{{ *}}v26.ub) } 45 v29:28.h=vadd(v25.ub,v26.ub) 47 #CHECK: 1ca1dc64 { v5:4.w = vadd(v28.uh,{{ *}}v1.uh) } 48 v5:4.w=vadd(v28.uh,v1.uh) 68 #CHECK: 1c4dc78b { v11.w = vadd(v7.w,{{ *}}v13.w):sat } 69 v11.w=vadd(v7.w,v13.w):sat 77 #CHECK: 1c76dc98 { v25:24.b = vadd(v29:28.b,{{ *}}v23:22.b) } 78 v25:24.b=vadd(v29:28.b,v23:22.b) [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neon-add-encoding.s.cs | 2 0xa0,0x08,0x41,0xf2 = vadd.i8 d16, d17, d16 3 0xa0,0x08,0x51,0xf2 = vadd.i16 d16, d17, d16 4 0xa0,0x08,0x71,0xf2 = vadd.i64 d16, d17, d16 5 0xa0,0x08,0x61,0xf2 = vadd.i32 d16, d17, d16 6 0xa1,0x0d,0x40,0xf2 = vadd.f32 d16, d16, d17 7 0xe2,0x0d,0x40,0xf2 = vadd.f32 q8, q8, q9 106 0x05,0x68,0x06,0xf2 = vadd.i8 d6, d6, d5 107 0x01,0x78,0x17,0xf2 = vadd.i16 d7, d7, d1 108 0x02,0x88,0x28,0xf2 = vadd.i32 d8, d8, d2 109 0x03,0x98,0x39,0xf2 = vadd.i64 d9, d9, d3 [all …]
|
/external/libavc/common/arm/ |
D | ih264_intra_pred_chroma_a9q.s | 125 vadd.u16 d12, d4, d5 126 vadd.u16 d13, d2, d3 127 vadd.u16 d15, d6, d7 128 vadd.u16 d14, d0, d1 148 vadd.u16 d0, d2, d3 149 vadd.u16 d1, d4, d5 161 vadd.u16 d0, d2, d3 162 vadd.u16 d1, d4, d5 465 vadd.s16 q6, q0, q6 466 vadd.s16 q8, q0, q8 [all …]
|
/external/ComputeLibrary/src/core/NEON/wrapper/intrinsics/ |
D | add.h | 34 inline vtype vadd(const vtype &a, const vtype &b) \ 39 VADD_IMPL(uint8x8_t, uint8x8_t, vadd, u8) 40 VADD_IMPL(int8x8_t, int8x8_t, vadd, s8) 41 VADD_IMPL(uint16x4_t, uint16x4_t, vadd, u16) 42 VADD_IMPL(int16x4_t, int16x4_t, vadd, s16) 43 VADD_IMPL(uint32x2_t, uint32x2_t, vadd, u32) 44 VADD_IMPL(int32x2_t, int32x2_t, vadd, s32) 45 VADD_IMPL(uint64x1_t, uint64x1_t, vadd, u64) 46 VADD_IMPL(int64x1_t, int64x1_t, vadd, s64) 47 VADD_IMPL(float32x2_t, float32x2_t, vadd, f32) [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 503 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 511 vadd.s32 q7, q5, q3 @// a0 = c0 + d0(part of r0,r7) 514 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6) 516 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) 519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 522 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1) 525 vadd.s32 q13, q5, q15 @// a3 + b3(part of r3) 583 vadd.s32 q7, q10, q3 @// a0 = c0 + d0(part of r0,r7) 586 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6) 588 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) [all …]
|