Home
last modified time | relevance | path

Searched refs:vadd (Results 1 – 25 of 145) sorted by relevance

123456

/external/chromium_org/third_party/openmax_dl/dl/sp/src/arm/armv7/
DarmSP_FFT_CToC_FC32_Radix8_fs_unsafe_s.S144 vadd.f32 x0r,x0r,x2r @// u0
145 vadd.f32 x0i,x0i,x2i
147 vadd.f32 sr, x2r, x2r
148 vadd.f32 si, x2i, x2i
155 vadd.f32 x1r,x1r,x3r @// u4
156 vadd.f32 x1i,x1i,x3i
158 vadd.f32 sr, x3r, x3r
159 vadd.f32 si, x3i, x3i
178 vadd.f32 x0r,x0r,x2r @// u2
179 vadd.f32 x0i,x0i,x2i
[all …]
DarmSP_FFT_CToC_FC32_Radix4_fs_unsafe_s.S129 vadd.f32 x0r,x0r,x2r @// x0 = x0 + x2
130 vadd.f32 x0i,x0i,x2i
132 vadd.f32 sr, x2r, x2r
133 vadd.f32 si, x2i, x2i
137 vadd.f32 x1r,x1r,x3r @// x1 = x1 + x3
138 vadd.f32 x1i,x1i,x3i
140 vadd.f32 sr, x3r, x3r
141 vadd.f32 si, x3i, x3i
149 vadd.f32 x0r,x0r,x1r @// x0 = x0 + x1
150 vadd.f32 x0i,x0i,x1i
[all …]
DarmSP_FFT_CToC_FC32_Radix4_unsafe_s.S215 vadd.f32 x0r,x0r,x2r @// x0 = x0 + x2 (u0)
216 vadd.f32 x0i,x0i,x2i
218 vadd.f32 sr, x2r, x2r
219 vadd.f32 si, x2i, x2i
223 vadd.f32 x1r,x1r,x3r @// x1 = x1/2 + x3/2 (u2/2)
224 vadd.f32 x1i,x1i,x3i
226 vadd.f32 sr, x3r, x3r
227 vadd.f32 si, x3i, x3i
238 vadd.f32 sr, x1r, x1r
239 vadd.f32 si, x1i, x1i
[all …]
/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/
Dsha512-armv4.S458 vadd.i64 d16,d30 @ h+=Maj from the past
473 vadd.i64 d27,d29,d23
476 vadd.i64 d27,d26
478 vadd.i64 d28,d0
483 vadd.i64 d27,d28
486 vadd.i64 d19,d27
487 vadd.i64 d30,d27
488 @ vadd.i64 d23,d30
495 vadd.i64 d23,d30 @ h+=Maj from the past
510 vadd.i64 d27,d29,d22
[all …]
/external/openssl/crypto/sha/asm/
Dsha512-armv4.S463 vadd.i64 d27,d28,d23
469 vadd.i64 d27,d24
471 vadd.i64 d27,d29
477 vadd.i64 d27,d0
484 vadd.i64 d23,d27
485 vadd.i64 d19,d27
486 vadd.i64 d23,d30
500 vadd.i64 d27,d28,d22
506 vadd.i64 d27,d24
508 vadd.i64 d27,d29
[all …]
/external/libpng/arm/
Dfilter_neon.S63 vadd.u8 d0, d3, d4
64 vadd.u8 d1, d0, d5
65 vadd.u8 d2, d1, d6
66 vadd.u8 d3, d2, d7
83 vadd.u8 d0, d3, d22
85 vadd.u8 d1, d0, d5
89 vadd.u8 d2, d1, d6
91 vadd.u8 d3, d2, d7
105 vadd.u8 q0, q0, q1
120 vadd.u8 d0, d0, d4
[all …]
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
Dvp9_reconintra_neon.asm316 vadd.s16 q1, q1, q3
317 vadd.s16 q2, q2, q3
328 vadd.s16 q1, q1, q3
329 vadd.s16 q2, q2, q3
366 vadd.s16 q0, q3, q0
367 vadd.s16 q1, q3, q1
372 vadd.s16 q8, q3, q8
373 vadd.s16 q9, q3, q9
388 vadd.s16 q0, q3, q0
389 vadd.s16 q1, q3, q1
[all …]
Dvp9_idct32x32_add_neon.asm272 vadd.s32 q11, q12, q11
273 vadd.s32 q10, q10, q15
481 vadd.s16 q4, q0, q1
483 vadd.s16 q6, q2, q3
517 vadd.s16 q3, q3, q2
519 vadd.s16 q2, q1, q0
537 vadd.s16 q8, q4, q2
538 vadd.s16 q9, q5, q0
539 vadd.s16 q10, q7, q1
540 vadd.s16 q15, q6, q3
[all …]
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_reconintra_neon.asm316 vadd.s16 q1, q1, q3
317 vadd.s16 q2, q2, q3
328 vadd.s16 q1, q1, q3
329 vadd.s16 q2, q2, q3
366 vadd.s16 q0, q3, q0
367 vadd.s16 q1, q3, q1
372 vadd.s16 q8, q3, q8
373 vadd.s16 q9, q3, q9
388 vadd.s16 q0, q3, q0
389 vadd.s16 q1, q3, q1
[all …]
Dvp9_idct32x32_add_neon.asm272 vadd.s32 q11, q12, q11
273 vadd.s32 q10, q10, q15
481 vadd.s16 q4, q0, q1
483 vadd.s16 q6, q2, q3
517 vadd.s16 q3, q3, q2
519 vadd.s16 q2, q1, q0
537 vadd.s16 q8, q4, q2
538 vadd.s16 q9, q5, q0
539 vadd.s16 q10, q7, q1
540 vadd.s16 q15, q6, q3
[all …]
Dvp9_idct16x16_add_neon.asm166 vadd.s32 q3, q2, q0
167 vadd.s32 q12, q11, q1
207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5];
209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7];
216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3];
217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2];
236 vadd.s32 q9, q9, q11
237 vadd.s32 q10, q10, q12
248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7];
249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6];
[all …]
/external/llvm/test/CodeGen/ARM/
Dsaxpy10-a9.ll18 ; CHECK-NEXT: vadd
19 ; CHECK-NEXT: vadd
23 ; CHECK-NEXT: vadd
26 ; CHECK-NEXT: vadd
27 ; CHECK-NEXT: vadd
30 ; CHECK-NEXT: vadd
31 ; CHECK-NEXT: vadd
34 ; CHECK-NEXT: vadd
36 ; CHECK-NEXT: vadd
39 ; CHECK-NEXT: vadd
[all …]
Dbig-endian-vector-callee.ll7 ; SOFT: vadd.f64 [[REG]]
8 ; HARD: vadd.f64 d{{[0-9]+}}, d0
20 ; SOFT: vadd.i64 [[REG]]
21 ; HARD: vadd.i64 d{{[0-9]+}}, d0
90 ; SOFT: vadd.f64 [[REG:d[0-9]+]]
92 ; HARD: vadd.f64 d0
98 ; SOFT: vadd.i64 [[REG]]
99 ; HARD: vadd.i64 d{{[0-9]+}}, d0
104 ; SOFT: vadd.f64 [[REG:d[0-9]+]]
106 ; HARD: vadd.f64 d0
[all …]
Dfadds.ll26 ; VFP2: vadd.f32 s
29 ; NFP1: vadd.f32 d
31 ; NFP0: vadd.f32 s
34 ; CORTEXA8: vadd.f32 s
36 ; CORTEXA8U: vadd.f32 d
38 ; CORTEXA9: vadd.f32 s
Dfmacs.ll17 ; A8: vadd.f32
33 ; A8: vadd.f64
49 ; A8: vadd.f32
62 ; A8: vadd.f32
63 ; A8: vadd.f32
87 ; A8: vadd.f32
88 ; A8: vadd.f32
93 ; A9: vadd.f32
98 ; HARD: vadd.f32 s0, s4, s0
Dbig-endian-vector-caller.ll7 ; SOFT: vadd.f64 [[REG:d[0-9]+]]
9 ; HARD: vadd.f64 d0
23 ; SOFT: vadd.i64 [[REG:d[0-9]+]]
25 ; HARD: vadd.i64 d0
112 ; SOFT: vadd.f64 [[REG]]
113 ; HARD: vadd.f64 {{d[0-9]+}}, d0
119 ; SOFT: vadd.i64 [[REG:d[0-9]+]]
121 ; HARD: vadd.i64 d0
129 ; SOFT: vadd.f64 [[REG]]
130 ; HARD: vadd.f64 {{d[0-9]+}}, d0
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
250 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7)
253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7)
321 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
323 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
[all …]
Dihevc_intra_pred_filters_luma_mode_11_to_17.s309 vadd.s8 d8, d8, d27 @ref_main_idx (add row)
311 vadd.s8 d9, d8, d2 @ref_main_idx + 1 (row 0)
316 vadd.s8 d4, d8, d2 @ref_main_idx (row 1)
317 vadd.s8 d5, d9, d2 @ref_main_idx + 1 (row 1)
324 vadd.s8 d8, d8, d3 @ref_main_idx (row 2)
325 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 2)
334 vadd.s8 d4, d4, d3 @ref_main_idx (row 3)
335 vadd.s8 d5, d5, d3 @ref_main_idx + 1 (row 3)
345 vadd.s8 d8, d8, d3 @ref_main_idx (row 4)
346 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 4)
[all …]
Dihevc_intra_pred_filters_chroma_mode_11_to_17.s304 vadd.u8 d27,d27,d29
307 vadd.s8 d8, d8, d27 @ref_main_idx (add row)
309 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0)
314 vadd.s8 d4, d8, d29 @ref_main_idx (row 1)
315 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1)
325 vadd.s8 d8, d8, d29 @ref_main_idx (row 2)
326 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2)
335 vadd.s8 d4, d4, d29 @ref_main_idx (row 3)
336 vadd.s8 d5, d5, d29 @ref_main_idx + 1 (row 3)
346 vadd.s8 d8, d8, d29 @ref_main_idx (row 4)
[all …]
/external/chromium_org/third_party/libjpeg_turbo/simd/
Djsimd_arm_neon.S261 vadd.s16 d4, ROW7L, ROW3L
262 vadd.s16 d5, ROW5L, ROW1L
282 vadd.s32 q1, q3, q2
285 vadd.s32 q1, q1, q6
305 vadd.s32 q1, q3, q5
317 vadd.s32 q2, q5, q6
320 vadd.s32 q6, q2, q7
323 vadd.s32 q5, q1, q4
336 vadd.s16 d10, ROW7R, ROW3R
337 vadd.s16 d8, ROW5R, ROW1R
[all …]
/external/llvm/test/MC/ARM/
Dneon-add-encoding.s4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2]
5 vadd.i8 d16, d17, d16
6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2]
7 vadd.i16 d16, d17, d16
8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2]
9 vadd.i64 d16, d17, d16
10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2]
11 vadd.i32 d16, d17, d16
12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2]
13 vadd.f32 d16, d16, d17
[all …]
/external/chromium_org/third_party/boringssl/src/crypto/chacha/
Dchacha_vec_arm.S134 vadd.i32 q8, q10, q9
199 vadd.i32 q4, q4, q0
201 vadd.i32 q2, q2, q3
212 vadd.i32 q1, q1, q5
213 vadd.i32 q15, q15, q8
235 vadd.i32 q4, q4, q7
237 vadd.i32 q2, q2, q6
262 vadd.i32 q1, q1, q3
263 vadd.i32 q15, q15, q14
298 vadd.i32 q4, q4, q5
[all …]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dvp8_shortwalsh4x4_neon.asm40 vadd.s16 d4, d0, d2 ; ip[0] + ip[2]
41 vadd.s16 d5, d1, d3 ; ip[1] + ip[3]
51 vadd.s16 d0, d4, d5 ; a1 + d1
54 vadd.s16 d1, d7, d6 ; op[1] = b1 + c1
70 vadd.s32 q0, q8, q9 ; a2 = a1 + d1
71 vadd.s32 q1, q11, q10 ; b2 = b1 + c1
86 vadd.s32 q8, q0, q15 ; a2 + 3
87 vadd.s32 q9, q1, q15 ; b2 + 3
88 vadd.s32 q10, q2, q15 ; c2 + 3
89 vadd.s32 q11, q3, q15 ; d2 + 3
Dvp8_mse16x16_neon.asm62 vadd.u32 q7, q7, q8
63 vadd.u32 q9, q9, q10
67 vadd.u32 q10, q7, q9
69 vadd.u64 d0, d2, d3
104 vadd.u32 q7, q7, q8
105 vadd.u32 q9, q9, q10
106 vadd.u32 q9, q7, q9
109 vadd.u64 d0, d2, d3
/external/libvpx/libvpx/vp8/common/arm/neon/
Diwalsh_neon.asm25 vadd.s16 d4, d0, d3 ;a = [0] + [12]
26 vadd.s16 d6, d1, d2 ;b = [4] + [8]
30 vadd.s16 q0, q2, q3 ; a+b d+c
45 vadd.s16 d4, d0, d3 ;a = [0] + [3]
46 vadd.s16 d6, d1, d2 ;b = [1] + [2]
52 vadd.s16 q0, q2, q3 ; a+b d+c
55 vadd.i16 q0, q0, q8 ;e/f += 3
56 vadd.i16 q1, q1, q8 ;g/h += 3

123456