/external/llvm/test/MC/ARM/ |
D | pr22395.s | 15 vadd.f32 s1, s2, s3 16 @ CHECK: vadd.f32 s1, s2, s3 20 vadd.f32 s1, s2, s3 21 @ CHECK: vadd.f32 s1, s2, s3 25 vadd.f32 s1, s2, s3 26 @ CHECK: vadd.f32 s1, s2, s3 30 vadd.f32 s1, s2, s3 31 @ CHECK: vadd.f32 s1, s2, s3 35 vadd.f32 s1, s2, s3 36 @ CHECK: vadd.f32 s1, s2, s3 [all …]
|
D | neon-add-encoding.s | 4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2] 5 vadd.i8 d16, d17, d16 6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2] 7 vadd.i16 d16, d17, d16 8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2] 9 vadd.i64 d16, d17, d16 10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2] 11 vadd.i32 d16, d17, d16 12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2] 13 vadd.f32 d16, d16, d17 [all …]
|
D | d16.s | 7 @ D16-NEXT: vadd.f64 d1, d2, d16 8 vadd.f64 d1, d2, d16 11 @ D16-NEXT: vadd.f64 d1, d17, d6 12 vadd.f64 d1, d17, d6 15 @ D16-NEXT: vadd.f64 d19, d7, d6 16 vadd.f64 d19, d7, d6
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 118 vadd.i64 q12,q4,q1 119 vadd.i64 q13,q10,q1 122 vadd.i64 q5,q5,q12 124 vadd.i64 q14,q5,q0 125 vadd.i64 q11,q11,q13 127 vadd.i64 q15,q11,q0 132 vadd.i64 q6,q6,q12 134 vadd.i64 q14,q6,q1 135 vadd.i64 q2,q2,q13 139 vadd.i64 q14,q2,q1 [all …]
|
/external/pdfium/third_party/libpng16/arm/ |
D | filter_neon.S | 70 vadd.u8 d0, d3, d4 71 vadd.u8 d1, d0, d5 72 vadd.u8 d2, d1, d6 73 vadd.u8 d3, d2, d7 90 vadd.u8 d0, d3, d22 92 vadd.u8 d1, d0, d5 96 vadd.u8 d2, d1, d6 98 vadd.u8 d3, d2, d7 112 vadd.u8 q0, q0, q1 127 vadd.u8 d0, d0, d4 [all …]
|
/external/libpng/arm/ |
D | filter_neon.S | 70 vadd.u8 d0, d3, d4 71 vadd.u8 d1, d0, d5 72 vadd.u8 d2, d1, d6 73 vadd.u8 d3, d2, d7 90 vadd.u8 d0, d3, d22 92 vadd.u8 d1, d0, d5 96 vadd.u8 d2, d1, d6 98 vadd.u8 d3, d2, d7 112 vadd.u8 q0, q0, q1 127 vadd.u8 d0, d0, d4 [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | intrapred_neon_asm.asm | 315 vadd.s16 q1, q1, q3 316 vadd.s16 q2, q2, q3 327 vadd.s16 q1, q1, q3 328 vadd.s16 q2, q2, q3 364 vadd.s16 q0, q3, q0 365 vadd.s16 q1, q3, q1 370 vadd.s16 q8, q3, q8 371 vadd.s16 q9, q3, q9 386 vadd.s16 q0, q3, q0 387 vadd.s16 q1, q3, q1 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | big-endian-vector-callee.ll | 7 ; SOFT: vadd.f64 [[REG]] 8 ; HARD: vadd.f64 d{{[0-9]+}}, d0 20 ; SOFT: vadd.i64 [[REG]] 21 ; HARD: vadd.i64 d{{[0-9]+}}, d0 90 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 92 ; HARD: vadd.f64 d0 98 ; SOFT: vadd.i64 [[REG]] 99 ; HARD: vadd.i64 d{{[0-9]+}}, d0 104 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 106 ; HARD: vadd.f64 d0 [all …]
|
D | saxpy10-a9.ll | 19 ; CHECK-NEXT: vadd 20 ; CHECK-NEXT: vadd 23 ; CHECK-NEXT: vadd 24 ; CHECK-NEXT: vadd 27 ; CHECK-NEXT: vadd 28 ; CHECK-NEXT: vadd 32 ; CHECK-NEXT: vadd 34 ; CHECK-NEXT: vadd 37 ; CHECK-NEXT: vadd 39 ; CHECK-NEXT: vadd [all …]
|
D | fmacs.ll | 17 ; A8: vadd.f32 33 ; A8: vadd.f64 49 ; A8: vadd.f32 62 ; A8: vadd.f32 63 ; A8: vadd.f32 87 ; A8: vadd.f32 88 ; A8: vadd.f32 93 ; A9: vadd.f32 98 ; HARD: vadd.f32 s0, s4, s0
|
D | big-endian-vector-caller.ll | 7 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 9 ; HARD: vadd.f64 d0 23 ; SOFT: vadd.i64 [[REG:d[0-9]+]] 25 ; HARD: vadd.i64 d0 112 ; SOFT: vadd.f64 [[REG]] 113 ; HARD: vadd.f64 {{d[0-9]+}}, d0 119 ; SOFT: vadd.i64 [[REG:d[0-9]+]] 121 ; HARD: vadd.i64 d0 129 ; SOFT: vadd.f64 [[REG]] 130 ; HARD: vadd.f64 {{d[0-9]+}}, d0 [all …]
|
D | fadds.ll | 26 ; VFP2: vadd.f32 s 29 ; NFP1: vadd.f32 d 31 ; NFP0: vadd.f32 s 34 ; CORTEXA8: vadd.f32 s 36 ; CORTEXA8U: vadd.f32 d 38 ; CORTEXA9: vadd.f32 s
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 256 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7) 259 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 261 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 267 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 270 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 324 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7) 327 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 329 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_11_to_17.s | 312 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 314 vadd.s8 d9, d8, d2 @ref_main_idx + 1 (row 0) 319 vadd.s8 d4, d8, d2 @ref_main_idx (row 1) 320 vadd.s8 d5, d9, d2 @ref_main_idx + 1 (row 1) 327 vadd.s8 d8, d8, d3 @ref_main_idx (row 2) 328 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 2) 337 vadd.s8 d4, d4, d3 @ref_main_idx (row 3) 338 vadd.s8 d5, d5, d3 @ref_main_idx + 1 (row 3) 348 vadd.s8 d8, d8, d3 @ref_main_idx (row 4) 349 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 4) [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 308 vadd.u8 d27,d27,d29 311 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 313 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 318 vadd.s8 d4, d8, d29 @ref_main_idx (row 1) 319 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 329 vadd.s8 d8, d8, d29 @ref_main_idx (row 2) 330 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) 339 vadd.s8 d4, d4, d29 @ref_main_idx (row 3) 340 vadd.s8 d5, d5, d29 @ref_main_idx + 1 (row 3) 350 vadd.s8 d8, d8, d29 @ref_main_idx (row 4) [all …]
|
/external/llvm/test/MC/Hexagon/ |
D | v60-alu.s | 26 #CHECK: 1caacf90 { v17:16.w = vadd(v15.h,{{ *}}v10.h) } 27 v17:16.w=vadd(v15.h,v10.h) 44 #CHECK: 1cbad95c { v29:28.h = vadd(v25.ub,{{ *}}v26.ub) } 45 v29:28.h=vadd(v25.ub,v26.ub) 47 #CHECK: 1ca1dc64 { v5:4.w = vadd(v28.uh,{{ *}}v1.uh) } 48 v5:4.w=vadd(v28.uh,v1.uh) 68 #CHECK: 1c4dc78b { v11.w = vadd(v7.w,{{ *}}v13.w):sat } 69 v11.w=vadd(v7.w,v13.w):sat 77 #CHECK: 1c76dc98 { v25:24.b = vadd(v29:28.b,{{ *}}v23:22.b) } 78 v25:24.b=vadd(v29:28.b,v23:22.b) [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neon-add-encoding.s.cs | 2 0xa0,0x08,0x41,0xf2 = vadd.i8 d16, d17, d16 3 0xa0,0x08,0x51,0xf2 = vadd.i16 d16, d17, d16 4 0xa0,0x08,0x71,0xf2 = vadd.i64 d16, d17, d16 5 0xa0,0x08,0x61,0xf2 = vadd.i32 d16, d17, d16 6 0xa1,0x0d,0x40,0xf2 = vadd.f32 d16, d16, d17 7 0xe2,0x0d,0x40,0xf2 = vadd.f32 q8, q8, q9 106 0x05,0x68,0x06,0xf2 = vadd.i8 d6, d6, d5 107 0x01,0x78,0x17,0xf2 = vadd.i16 d7, d7, d1 108 0x02,0x88,0x28,0xf2 = vadd.i32 d8, d8, d2 109 0x03,0x98,0x39,0xf2 = vadd.i64 d9, d9, d3 [all …]
|
/external/libavc/common/arm/ |
D | ih264_intra_pred_chroma_a9q.s | 125 vadd.u16 d12, d4, d5 126 vadd.u16 d13, d2, d3 127 vadd.u16 d15, d6, d7 128 vadd.u16 d14, d0, d1 148 vadd.u16 d0, d2, d3 149 vadd.u16 d1, d4, d5 161 vadd.u16 d0, d2, d3 162 vadd.u16 d1, d4, d5 465 vadd.s16 q6, q0, q6 466 vadd.s16 q8, q0, q8 [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 503 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 511 vadd.s32 q7, q5, q3 @// a0 = c0 + d0(part of r0,r7) 514 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6) 516 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) 519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 522 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1) 525 vadd.s32 q13, q5, q15 @// a3 + b3(part of r3) 583 vadd.s32 q7, q10, q3 @// a0 = c0 + d0(part of r0,r7) 586 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6) 588 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) [all …]
|
D | icv_variance_a9.s | 82 vadd.u16 q2, q2, q3 84 vadd.u16 d4, d4, d5 99 vadd.u32 q10, q10, q11 100 vadd.u32 q11, q12, q13 101 vadd.u32 q10, q10, q11 102 vadd.u32 d20, d20, d21
|
/external/swiftshader/third_party/subzero/tests_lit/assembler/arm32/ |
D | add-vec.ll | 1 ; Show that we know how to translate vadd vector instructions. 35 ; ASM: vadd.f32 q10, q10, q11 37 ; IASM-NOT: vadd.f32 50 ; ASM: vadd.i32 q10, q10, q11 52 ; IASM-NOT: vadd.i32 65 ; ASM: vadd.i16 q10, q10, q11 67 ; IASM-NOT: vadd.i16 80 ; ASM: vadd.i8 q10, q10, q11 82 ; IASM-NOT: vadd.i8
|
/external/libjpeg-turbo/simd/ |
D | jsimd_arm_neon.S | 266 vadd.s16 d4, ROW7L, ROW3L 267 vadd.s16 d5, ROW5L, ROW1L 287 vadd.s32 q1, q3, q2 290 vadd.s32 q1, q1, q6 310 vadd.s32 q1, q3, q5 322 vadd.s32 q2, q5, q6 325 vadd.s32 q6, q2, q7 328 vadd.s32 q5, q1, q4 342 vadd.s16 d10, ROW7R, ROW3R 343 vadd.s16 d8, ROW5R, ROW1R [all …]
|
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | fmacs.ll | 17 ; A8: vadd.f32 33 ; A8: vadd.f64 49 ; A8: vadd.f32 62 ; A8: vadd.f32 63 ; A8: vadd.f32 87 ; A8: vadd.f32 88 ; A8: vadd.f32 93 ; A9: vadd.f32 98 ; HARD: vadd.f32 s0, s4, s0
|
D | fadds.ll | 13 ; VFP2: vadd.f32 s0, s1, s0 16 ; NFP1: vadd.f32 d0, d1, d0 18 ; NFP0: vadd.f32 s0, s1, s0 21 ; CORTEXA8: vadd.f32 d0, d1, d0 23 ; CORTEXA9: vadd.f32 s{{.}}, s{{.}}, s{{.}}
|
/external/boringssl/src/crypto/poly1305/ |
D | poly1305_arm_asm.S | 260 # asm 1: vadd.i32 >5y12=reg128#12,<5y12=reg128#12,<y12=reg128#2 261 # asm 2: vadd.i32 >5y12=q11,<5y12=q11,<y12=q1 262 vadd.i32 q11,q11,q1 265 # asm 1: vadd.i32 >5y34=reg128#13,<5y34=reg128#13,<y34=reg128#3 266 # asm 2: vadd.i32 >5y34=q12,<5y34=q12,<y34=q2 267 vadd.i32 q12,q12,q2 285 # asm 1: vadd.i32 >5z12=reg128#14,<5z12=reg128#14,<z12=reg128#5 286 # asm 2: vadd.i32 >5z12=q13,<5z12=q13,<z12=q4 287 vadd.i32 q13,q13,q4 290 # asm 1: vadd.i32 >5z34=reg128#15,<5z34=reg128#15,<z34=reg128#6 [all …]
|