Home
last modified time | relevance | path

Searched refs:vsub (Results 1 – 25 of 161) sorted by relevance

1234567

/external/llvm/test/MC/ARM/
Dneon-sub-encoding.s3 vsub.i8 d16, d17, d16
4 vsub.i16 d16, d17, d16
5 vsub.i32 d16, d17, d16
6 vsub.i64 d16, d17, d16
7 vsub.f32 d16, d16, d17
8 vsub.i8 q8, q8, q9
9 vsub.i16 q8, q8, q9
10 vsub.i32 q8, q8, q9
11 vsub.i64 q8, q8, q9
12 vsub.f32 q8, q8, q9
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
Dneon-sub-encoding.s3 vsub.i8 d16, d17, d16
4 vsub.i16 d16, d17, d16
5 vsub.i32 d16, d17, d16
6 vsub.i64 d16, d17, d16
7 vsub.f32 d16, d16, d17
8 vsub.i8 q8, q8, q9
9 vsub.i16 q8, q8, q9
10 vsub.i32 q8, q8, q9
11 vsub.i64 q8, q8, q9
12 vsub.f32 q8, q8, q9
[all …]
/external/capstone/suite/MC/ARM/
Dneon-sub-encoding.s.cs2 0xa0,0x08,0x41,0xf3 = vsub.i8 d16, d17, d16
3 0xa0,0x08,0x51,0xf3 = vsub.i16 d16, d17, d16
4 0xa0,0x08,0x61,0xf3 = vsub.i32 d16, d17, d16
5 0xa0,0x08,0x71,0xf3 = vsub.i64 d16, d17, d16
6 0xa1,0x0d,0x60,0xf2 = vsub.f32 d16, d16, d17
7 0xe2,0x08,0x40,0xf3 = vsub.i8 q8, q8, q9
8 0xe2,0x08,0x50,0xf3 = vsub.i16 q8, q8, q9
9 0xe2,0x08,0x60,0xf3 = vsub.i32 q8, q8, q9
10 0xe2,0x08,0x70,0xf3 = vsub.i64 q8, q8, q9
11 0xe2,0x0d,0x60,0xf2 = vsub.f32 q8, q8, q9
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
257 vsub.s32 q5,q5,q3 @// a3 = c0 - d0(part of r3,r4)
258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
262 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
268 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6)
271 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4)
325 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4)
326 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
330 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
[all …]
Dihevc_intra_pred_luma_mode_3_to_9.s201 vsub.s8 d8, d8, d2 @ref_main_idx (sub row)
202 vsub.s8 d8, d26, d8 @ref_main_idx (row 0)
204 vsub.s8 d9, d8, d2 @ref_main_idx + 1 (row 0)
206 vsub.s8 d7, d28, d6 @32-fract
209 vsub.s8 d4, d8, d2 @ref_main_idx (row 1)
210 vsub.s8 d5, d9, d2 @ref_main_idx + 1 (row 1)
217 vsub.s8 d8, d8, d3 @ref_main_idx (row 2)
218 vsub.s8 d9, d9, d3 @ref_main_idx + 1 (row 2)
227 vsub.s8 d4, d4, d3 @ref_main_idx (row 3)
228 vsub.s8 d5, d5, d3 @ref_main_idx + 1 (row 3)
[all …]
Dihevc_intra_pred_chroma_mode_3_to_9.s197 vsub.s8 d8, d8, d27 @ref_main_idx (sub row)
198 vsub.s8 d8, d26, d8 @ref_main_idx (row 0)
200 vsub.s8 d9, d8, d29 @ref_main_idx + 1 (row 0)
202 vsub.s8 d7, d28, d6 @32-fract
205 vsub.s8 d4, d8, d29 @ref_main_idx (row 1)
206 vsub.s8 d5, d9, d29 @ref_main_idx + 1 (row 1)
215 vsub.s8 d8, d8, d29 @ref_main_idx (row 2)
216 vsub.s8 d9, d9, d29 @ref_main_idx + 1 (row 2)
225 vsub.s8 d4, d4, d29 @ref_main_idx (row 3)
226 vsub.s8 d5, d5, d29 @ref_main_idx + 1 (row 3)
[all …]
Dihevc_intra_pred_luma_planar.s187 vsub.s8 d9, d2, d8 @(1-8)[nt-1-col]
204 vsub.s8 d6, d6, d7 @(1)
218 vsub.s8 d6, d6, d7 @(2)
235 vsub.s8 d6, d6, d7 @(3)
252 vsub.s8 d6, d6, d7 @(4)
268 vsub.s8 d6, d6, d7 @(5)
285 vsub.s8 d6, d6, d7 @(6)
302 vsub.s8 d6, d6, d7 @(7)
339 vsub.s8 d9, d2, d8 @(1n)(1-8)[nt-1-col]
342 vsub.s8 d6, d2, d5
[all …]
Dihevc_intra_pred_filters_chroma_mode_19_to_25.s284 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract)
294 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
308 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
327 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
342 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract)
358 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
374 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
405 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
422 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract)
439 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
[all …]
/external/llvm/test/MC/Hexagon/
Dv60-alu.s29 #CHECK: 1cb4cabe { v31:30.h = vsub(v10.ub,{{ *}}v20.ub) }
30 v31:30.h=vsub(v10.ub,v20.ub)
32 #CHECK: 1cb8cada { v27:26.w = vsub(v10.uh,{{ *}}v24.uh) }
33 v27:26.w=vsub(v10.uh,v24.uh)
35 #CHECK: 1cbcdbe8 { v9:8.w = vsub(v27.h,{{ *}}v28.h) }
36 v9:8.w=vsub(v27.h,v28.h)
38 #CHECK: 1caeca00 { v1:0.h = vsub(v11:10.h,{{ *}}v15:14.h):sat }
39 v1:0.h=vsub(v11:10.h,v15:14.h):sat
41 #CHECK: 1ca8c43e { v31:30.w = vsub(v5:4.w,{{ *}}v9:8.w):sat }
42 v31:30.w=vsub(v5:4.w,v9:8.w):sat
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/Hexagon/
Dv60-alu.s29 #CHECK: 1cb4cabe { v31:30.h = vsub(v10.ub,{{ *}}v20.ub) }
30 v31:30.h=vsub(v10.ub,v20.ub)
32 #CHECK: 1cb8cada { v27:26.w = vsub(v10.uh,{{ *}}v24.uh) }
33 v27:26.w=vsub(v10.uh,v24.uh)
35 #CHECK: 1cbcdbe8 { v9:8.w = vsub(v27.h,{{ *}}v28.h) }
36 v9:8.w=vsub(v27.h,v28.h)
38 #CHECK: 1caeca00 { v1:0.h = vsub(v11:10.h,{{ *}}v15:14.h):sat }
39 v1:0.h=vsub(v11:10.h,v15:14.h):sat
41 #CHECK: 1ca8c43e { v31:30.w = vsub(v5:4.w,{{ *}}v9:8.w):sat }
42 v31:30.w=vsub(v5:4.w,v9:8.w):sat
[all …]
/external/swiftshader/third_party/subzero/tests_lit/assembler/arm32/
Dsub-vec.ll1 ; Show that we know how to translate vsub vector instructions.
35 ; ASM: vsub.f32 q10, q10, q11
37 ; IASM-NOT: vsub.f32
50 ; ASM: vsub.i32 q10, q10, q11
52 ; IASM-NOT: vsub.i32
65 ; ASM: vsub.i16 q10, q10, q11
67 ; IASM-NOT: vsub.i16
80 ; ASM: vsub.i8 q10, q10, q11
82 ; IASM-NOT: vsub.i8
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/
Dfnmscs.ll35 ; A8U: vsub.f32 d{{[0-9]}}, d{{[0-9]}}, d{{[0-9]}}
39 ; A8: vsub.f32 s{{[0-9]}}, s{{[0-9]}}, s{{[0-9]}}
59 ; A8U: vsub.f32 d{{[0-9]}}, d{{[0-9]}}, d{{[0-9]}}
63 ; A8: vsub.f32 s{{[0-9]}}, s{{[0-9]}}, s{{[0-9]}}
83 ; A8U: vsub.f64 d
87 ; A8: vsub.f64 d
107 ; A8U: vsub.f64 d
111 ; A8: vsub.f64 d
131 ; A8U: vsub.f64 d
135 ; A8: vsub.f64 d
[all …]
Dfsubs.ll22 ; VFP2: vsub.f32 s
23 ; NFP1U: vsub.f32 d
24 ; NFP1: vsub.f32 s
25 ; NFP0: vsub.f32 s
/external/libmpeg2/common/arm/
Dimpeg2_idct.s504 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
512 vsub.s32 q5, q5, q3 @// a3 = c0 - d0(part of r3,r4)
513 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
517 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7)
520 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
523 vsub.s32 q9, q9, q13 @// a1 - b1(part of r6)
526 vsub.s32 q15, q5, q15 @// a3 - b3(part of r4)
584 vsub.s32 q5, q10, q3 @// a3 = c0 - d0(part of r3,r4)
585 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
589 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7)
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/Hexagon/autohvx/
Dvdd0.ll4 ; CHECK: v1:0.w = vsub(v1:0.w,v1:0.w)
10 ; CHECK: v1:0.w = vsub(v1:0.w,v1:0.w)
16 ; CHECK: v1:0.w = vsub(v1:0.w,v1:0.w)
22 ; CHECK: v1:0.w = vsub(v1:0.w,v1:0.w)
28 ; CHECK: v1:0.w = vsub(v1:0.w,v1:0.w)
34 ; CHECK: v1:0.w = vsub(v1:0.w,v1:0.w)
Dbitcount-128b.ll36 ; CHECK: v0.b = vsub(v[[V36]].b,v[[V33]].b)
64 ; CHECK: v[[V65:[0-9]+]].b = vsub(v0.b,v[[V63]].b)
71 ; CHECK: v[[V6C:[0-9]+]].b = vsub(v[[V6B]].b,v[[V64]].b)
72 ; CHECK: v0.b = vsub(v[[V64]].b,v[[V6C]].b)
86 ; CHECK: v[[V75:[0-9]+]].h = vsub(v0.h,v[[V73]].h)
90 ; CHECK: v0.h = vsub(v[[V74]].h,v[[V77]].h)
102 ; CHECK: v[[V85:[0-9]+]].w = vsub(v0.w,v[[V83]].w)
106 ; CHECK: v0.w = vsub(v[[V84]].w,v[[V87]].w)
Dbitcount-64b.ll36 ; CHECK: v0.b = vsub(v[[V36]].b,v[[V33]].b)
64 ; CHECK: v[[V65:[0-9]+]].b = vsub(v0.b,v[[V63]].b)
71 ; CHECK: v[[V6C:[0-9]+]].b = vsub(v[[V6B]].b,v[[V64]].b)
72 ; CHECK: v0.b = vsub(v[[V64]].b,v[[V6C]].b)
86 ; CHECK: v[[V75:[0-9]+]].h = vsub(v0.h,v[[V73]].h)
90 ; CHECK: v0.h = vsub(v[[V74]].h,v[[V77]].h)
102 ; CHECK: v[[V85:[0-9]+]].w = vsub(v0.w,v[[V83]].w)
106 ; CHECK: v0.w = vsub(v[[V84]].w,v[[V87]].w)
/external/llvm/test/CodeGen/ARM/
Dfnmscs.ll29 ; A8U: vsub.f32 d{{[0-9]}}, d{{[0-9]}}, d{{[0-9]}}
33 ; A8: vsub.f32 s{{[0-9]}}, s{{[0-9]}}, s{{[0-9]}}
50 ; A8U: vsub.f32 d{{[0-9]}}, d{{[0-9]}}, d{{[0-9]}}
54 ; A8: vsub.f32 s{{[0-9]}}, s{{[0-9]}}, s{{[0-9]}}
71 ; A8U: vsub.f64 d
75 ; A8: vsub.f64 d
92 ; A8U: vsub.f64 d
96 ; A8: vsub.f64 d
Dfsubs.ll22 ; VFP2: vsub.f32 s
23 ; NFP1U: vsub.f32 d
24 ; NFP1: vsub.f32 s
25 ; NFP0: vsub.f32 s
Dcttz_vector.ll55 ; CHECK: vsub.i8 [[D1]], [[D1]], [[D2]]
70 ; CHECK: vsub.i8 [[Q1]], [[Q1]], [[Q2]]
101 ; CHECK: vsub.i16 [[D1]], [[D1]], [[D2]]
117 ; CHECK: vsub.i16 [[Q1]], [[Q1]], [[Q2]]
141 ; CHECK: vsub.i32 [[D1]], [[D1]], [[D2]]
158 ; CHECK: vsub.i32 [[Q1]], [[Q1]], [[Q2]]
174 ; CHECK: vsub.i64 [[D2]], [[D2]], [[D1]]
193 ; CHECK: vsub.i64 [[Q2]], [[Q2]], [[Q1:q[0-9]+]]
239 ; CHECK: vsub.i8 [[D1]], [[D1]], [[D2]]
254 ; CHECK: vsub.i8 [[Q1]], [[Q1]], [[Q2]]
[all …]
/external/libjpeg-turbo/simd/arm/
Djsimd_neon.S297 vsub.s32 q1, q1, q6
302 vsub.s32 q1, q1, q6
306 vsub.s32 q3, q3, q2
312 vsub.s32 q3, q3, q5
324 vsub.s32 q1, q5, q6
327 vsub.s32 q2, q2, q7
330 vsub.s32 q3, q1, q4
371 vsub.s32 q1, q1, q6
374 vsub.s32 q1, q1, q6
377 vsub.s32 q3, q3, q2
[all …]
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S138 vsub.i64 q4,q4,q12
140 vsub.i64 q10,q10,q13
146 vsub.i64 q5,q5,q12
153 vsub.i64 q11,q11,q13
155 vsub.i64 q6,q6,q12
164 vsub.i64 q2,q2,q13
166 vsub.i64 q7,q7,q12
177 vsub.i64 q7,q8,q12
186 vsub.i64 q0,q9,q0
188 vsub.i64 q3,q3,q10
[all …]
/external/libavc/common/arm/
Dih264_resi_trans_quant_a9.s145 vsub.s16 d10, d2, d4 @x2 = x5-x6
146 vsub.s16 d11, d0, d6 @x3 = x4-x7
152 vsub.s16 d16, d8, d9 @x6 = x0 - x1;
154 vsub.s16 d17, d11, d12 @x7 = x3 - U_SHIFT(x2,1,shft);
166 vsub.s16 d20, d15, d16 @x2 = x5-x6
167 vsub.s16 d21, d14, d17 @x3 = x4-x7
175 vsub.s16 d26, d18, d19 @x7 = x0 - x1;
177 vsub.s16 d27, d21, d22 @x8 = x3 - U_SHIFT(x2,1,shft);
234 vsub.u8 d26, d25, d24 @I invert current nnz
340 vsub.s16 d10, d2, d4 @x2 = x5-x6
[all …]
Dih264_iquant_itrans_recon_a9.s170 vsub.s16 d5, d0, d2 @x1 = q0 - q1;
175 vsub.s16 d6, d8, d3 @x2 = (q0 >> 1) - q1;
181 vsub.s16 q6, q2, q3 @x0-x3 and x1-x2 combined
195 vsub.s16 d15, d10, d12 @x1 = q0 - q1;
200 vsub.s16 d16, d18, d13 @x2 = (q0 >> 1) - q1;
206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
344 vsub.s16 d5, d0, d2 @x1 = q0 - q1;
349 vsub.s16 d6, d8, d3 @x2 = (q0 >> 1) - q1;
355 vsub.s16 q6, q2, q3 @x0-x3 and x1-x2 combined
370 vsub.s16 d15, d10, d12 @x1 = q0 - q1;
[all …]
/external/igt-gpu-tools/lib/
Digt_fb.c102 uint8_t vsub; member
110 .hsub = 1, .vsub = 1,
118 .hsub = 1, .vsub = 1,
126 .hsub = 1, .vsub = 1,
134 .hsub = 1, .vsub = 1,
142 .hsub = 1, .vsub = 1,
150 .hsub = 1, .vsub = 1,
158 .hsub = 1, .vsub = 1,
165 .hsub = 1, .vsub = 1,
173 .hsub = 1, .vsub = 1,
[all …]

1234567