/external/chromium_org/third_party/openmax_dl/dl/sp/src/arm/armv7/ |
D | armSP_FFT_CToC_FC32_Radix8_fs_unsafe_s.S | 144 vadd.f32 x0r,x0r,x2r @// u0 145 vadd.f32 x0i,x0i,x2i 147 vadd.f32 sr, x2r, x2r 148 vadd.f32 si, x2i, x2i 155 vadd.f32 x1r,x1r,x3r @// u4 156 vadd.f32 x1i,x1i,x3i 158 vadd.f32 sr, x3r, x3r 159 vadd.f32 si, x3i, x3i 178 vadd.f32 x0r,x0r,x2r @// u2 179 vadd.f32 x0i,x0i,x2i [all …]
|
D | armSP_FFT_CToC_FC32_Radix4_fs_unsafe_s.S | 129 vadd.f32 x0r,x0r,x2r @// x0 = x0 + x2 130 vadd.f32 x0i,x0i,x2i 132 vadd.f32 sr, x2r, x2r 133 vadd.f32 si, x2i, x2i 137 vadd.f32 x1r,x1r,x3r @// x1 = x1 + x3 138 vadd.f32 x1i,x1i,x3i 140 vadd.f32 sr, x3r, x3r 141 vadd.f32 si, x3i, x3i 149 vadd.f32 x0r,x0r,x1r @// x0 = x0 + x1 150 vadd.f32 x0i,x0i,x1i [all …]
|
D | armSP_FFT_CToC_FC32_Radix4_unsafe_s.S | 215 vadd.f32 x0r,x0r,x2r @// x0 = x0 + x2 (u0) 216 vadd.f32 x0i,x0i,x2i 218 vadd.f32 sr, x2r, x2r 219 vadd.f32 si, x2i, x2i 223 vadd.f32 x1r,x1r,x3r @// x1 = x1/2 + x3/2 (u2/2) 224 vadd.f32 x1i,x1i,x3i 226 vadd.f32 sr, x3r, x3r 227 vadd.f32 si, x3i, x3i 238 vadd.f32 sr, x1r, x1r 239 vadd.f32 si, x1i, x1i [all …]
|
/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/ |
D | sha512-armv4.S | 458 vadd.i64 d16,d30 @ h+=Maj from the past 473 vadd.i64 d27,d29,d23 476 vadd.i64 d27,d26 478 vadd.i64 d28,d0 483 vadd.i64 d27,d28 486 vadd.i64 d19,d27 487 vadd.i64 d30,d27 488 @ vadd.i64 d23,d30 495 vadd.i64 d23,d30 @ h+=Maj from the past 510 vadd.i64 d27,d29,d22 [all …]
|
/external/openssl/crypto/sha/asm/ |
D | sha512-armv4.S | 463 vadd.i64 d27,d28,d23 469 vadd.i64 d27,d24 471 vadd.i64 d27,d29 477 vadd.i64 d27,d0 484 vadd.i64 d23,d27 485 vadd.i64 d19,d27 486 vadd.i64 d23,d30 500 vadd.i64 d27,d28,d22 506 vadd.i64 d27,d24 508 vadd.i64 d27,d29 [all …]
|
/external/libpng/arm/ |
D | filter_neon.S | 63 vadd.u8 d0, d3, d4 64 vadd.u8 d1, d0, d5 65 vadd.u8 d2, d1, d6 66 vadd.u8 d3, d2, d7 83 vadd.u8 d0, d3, d22 85 vadd.u8 d1, d0, d5 89 vadd.u8 d2, d1, d6 91 vadd.u8 d3, d2, d7 105 vadd.u8 q0, q0, q1 120 vadd.u8 d0, d0, d4 [all …]
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
D | vp9_reconintra_neon.asm | 316 vadd.s16 q1, q1, q3 317 vadd.s16 q2, q2, q3 328 vadd.s16 q1, q1, q3 329 vadd.s16 q2, q2, q3 366 vadd.s16 q0, q3, q0 367 vadd.s16 q1, q3, q1 372 vadd.s16 q8, q3, q8 373 vadd.s16 q9, q3, q9 388 vadd.s16 q0, q3, q0 389 vadd.s16 q1, q3, q1 [all …]
|
D | vp9_idct32x32_add_neon.asm | 272 vadd.s32 q11, q12, q11 273 vadd.s32 q10, q10, q15 481 vadd.s16 q4, q0, q1 483 vadd.s16 q6, q2, q3 517 vadd.s16 q3, q3, q2 519 vadd.s16 q2, q1, q0 537 vadd.s16 q8, q4, q2 538 vadd.s16 q9, q5, q0 539 vadd.s16 q10, q7, q1 540 vadd.s16 q15, q6, q3 [all …]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_reconintra_neon.asm | 316 vadd.s16 q1, q1, q3 317 vadd.s16 q2, q2, q3 328 vadd.s16 q1, q1, q3 329 vadd.s16 q2, q2, q3 366 vadd.s16 q0, q3, q0 367 vadd.s16 q1, q3, q1 372 vadd.s16 q8, q3, q8 373 vadd.s16 q9, q3, q9 388 vadd.s16 q0, q3, q0 389 vadd.s16 q1, q3, q1 [all …]
|
D | vp9_idct32x32_add_neon.asm | 272 vadd.s32 q11, q12, q11 273 vadd.s32 q10, q10, q15 481 vadd.s16 q4, q0, q1 483 vadd.s16 q6, q2, q3 517 vadd.s16 q3, q3, q2 519 vadd.s16 q2, q1, q0 537 vadd.s16 q8, q4, q2 538 vadd.s16 q9, q5, q0 539 vadd.s16 q10, q7, q1 540 vadd.s16 q15, q6, q3 [all …]
|
D | vp9_idct16x16_add_neon.asm | 166 vadd.s32 q3, q2, q0 167 vadd.s32 q12, q11, q1 207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5]; 209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7]; 216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3]; 217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2]; 236 vadd.s32 q9, q9, q11 237 vadd.s32 q10, q10, q12 248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7]; 249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6]; [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | saxpy10-a9.ll | 18 ; CHECK-NEXT: vadd 19 ; CHECK-NEXT: vadd 23 ; CHECK-NEXT: vadd 26 ; CHECK-NEXT: vadd 27 ; CHECK-NEXT: vadd 30 ; CHECK-NEXT: vadd 31 ; CHECK-NEXT: vadd 34 ; CHECK-NEXT: vadd 36 ; CHECK-NEXT: vadd 39 ; CHECK-NEXT: vadd [all …]
|
D | big-endian-vector-callee.ll | 7 ; SOFT: vadd.f64 [[REG]] 8 ; HARD: vadd.f64 d{{[0-9]+}}, d0 20 ; SOFT: vadd.i64 [[REG]] 21 ; HARD: vadd.i64 d{{[0-9]+}}, d0 90 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 92 ; HARD: vadd.f64 d0 98 ; SOFT: vadd.i64 [[REG]] 99 ; HARD: vadd.i64 d{{[0-9]+}}, d0 104 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 106 ; HARD: vadd.f64 d0 [all …]
|
D | fadds.ll | 26 ; VFP2: vadd.f32 s 29 ; NFP1: vadd.f32 d 31 ; NFP0: vadd.f32 s 34 ; CORTEXA8: vadd.f32 s 36 ; CORTEXA8U: vadd.f32 d 38 ; CORTEXA9: vadd.f32 s
|
D | fmacs.ll | 17 ; A8: vadd.f32 33 ; A8: vadd.f64 49 ; A8: vadd.f32 62 ; A8: vadd.f32 63 ; A8: vadd.f32 87 ; A8: vadd.f32 88 ; A8: vadd.f32 93 ; A9: vadd.f32 98 ; HARD: vadd.f32 s0, s4, s0
|
D | big-endian-vector-caller.ll | 7 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 9 ; HARD: vadd.f64 d0 23 ; SOFT: vadd.i64 [[REG:d[0-9]+]] 25 ; HARD: vadd.i64 d0 112 ; SOFT: vadd.f64 [[REG]] 113 ; HARD: vadd.f64 {{d[0-9]+}}, d0 119 ; SOFT: vadd.i64 [[REG:d[0-9]+]] 121 ; HARD: vadd.i64 d0 129 ; SOFT: vadd.f64 [[REG]] 130 ; HARD: vadd.f64 {{d[0-9]+}}, d0 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 250 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7) 253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7) 321 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 323 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_11_to_17.s | 309 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 311 vadd.s8 d9, d8, d2 @ref_main_idx + 1 (row 0) 316 vadd.s8 d4, d8, d2 @ref_main_idx (row 1) 317 vadd.s8 d5, d9, d2 @ref_main_idx + 1 (row 1) 324 vadd.s8 d8, d8, d3 @ref_main_idx (row 2) 325 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 2) 334 vadd.s8 d4, d4, d3 @ref_main_idx (row 3) 335 vadd.s8 d5, d5, d3 @ref_main_idx + 1 (row 3) 345 vadd.s8 d8, d8, d3 @ref_main_idx (row 4) 346 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 4) [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 304 vadd.u8 d27,d27,d29 307 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 309 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 314 vadd.s8 d4, d8, d29 @ref_main_idx (row 1) 315 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 325 vadd.s8 d8, d8, d29 @ref_main_idx (row 2) 326 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) 335 vadd.s8 d4, d4, d29 @ref_main_idx (row 3) 336 vadd.s8 d5, d5, d29 @ref_main_idx + 1 (row 3) 346 vadd.s8 d8, d8, d29 @ref_main_idx (row 4) [all …]
|
/external/chromium_org/third_party/libjpeg_turbo/simd/ |
D | jsimd_arm_neon.S | 261 vadd.s16 d4, ROW7L, ROW3L 262 vadd.s16 d5, ROW5L, ROW1L 282 vadd.s32 q1, q3, q2 285 vadd.s32 q1, q1, q6 305 vadd.s32 q1, q3, q5 317 vadd.s32 q2, q5, q6 320 vadd.s32 q6, q2, q7 323 vadd.s32 q5, q1, q4 336 vadd.s16 d10, ROW7R, ROW3R 337 vadd.s16 d8, ROW5R, ROW1R [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-add-encoding.s | 4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2] 5 vadd.i8 d16, d17, d16 6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2] 7 vadd.i16 d16, d17, d16 8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2] 9 vadd.i64 d16, d17, d16 10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2] 11 vadd.i32 d16, d17, d16 12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2] 13 vadd.f32 d16, d16, d17 [all …]
|
/external/chromium_org/third_party/boringssl/src/crypto/chacha/ |
D | chacha_vec_arm.S | 134 vadd.i32 q8, q10, q9 199 vadd.i32 q4, q4, q0 201 vadd.i32 q2, q2, q3 212 vadd.i32 q1, q1, q5 213 vadd.i32 q15, q15, q8 235 vadd.i32 q4, q4, q7 237 vadd.i32 q2, q2, q6 262 vadd.i32 q1, q1, q3 263 vadd.i32 q15, q15, q14 298 vadd.i32 q4, q4, q5 [all …]
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | vp8_shortwalsh4x4_neon.asm | 40 vadd.s16 d4, d0, d2 ; ip[0] + ip[2] 41 vadd.s16 d5, d1, d3 ; ip[1] + ip[3] 51 vadd.s16 d0, d4, d5 ; a1 + d1 54 vadd.s16 d1, d7, d6 ; op[1] = b1 + c1 70 vadd.s32 q0, q8, q9 ; a2 = a1 + d1 71 vadd.s32 q1, q11, q10 ; b2 = b1 + c1 86 vadd.s32 q8, q0, q15 ; a2 + 3 87 vadd.s32 q9, q1, q15 ; b2 + 3 88 vadd.s32 q10, q2, q15 ; c2 + 3 89 vadd.s32 q11, q3, q15 ; d2 + 3
|
D | vp8_mse16x16_neon.asm | 62 vadd.u32 q7, q7, q8 63 vadd.u32 q9, q9, q10 67 vadd.u32 q10, q7, q9 69 vadd.u64 d0, d2, d3 104 vadd.u32 q7, q7, q8 105 vadd.u32 q9, q9, q10 106 vadd.u32 q9, q7, q9 109 vadd.u64 d0, d2, d3
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | iwalsh_neon.asm | 25 vadd.s16 d4, d0, d3 ;a = [0] + [12] 26 vadd.s16 d6, d1, d2 ;b = [4] + [8] 30 vadd.s16 q0, q2, q3 ; a+b d+c 45 vadd.s16 d4, d0, d3 ;a = [0] + [3] 46 vadd.s16 d6, d1, d2 ;b = [1] + [2] 52 vadd.s16 q0, q2, q3 ; a+b d+c 55 vadd.i16 q0, q0, q8 ;e/f += 3 56 vadd.i16 q1, q1, q8 ;g/h += 3
|