Home
last modified time | relevance | path

Searched refs:q10 (Results 1 – 25 of 139) sorted by relevance

123456

/external/boringssl/ios-arm/crypto/fipsmodule/
Daesv8-armx32.S54 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
61 veor q10,q10,q1
64 veor q3,q3,q10
73 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
79 veor q10,q10,q1
82 veor q3,q3,q10
88 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
94 veor q10,q10,q1
96 veor q3,q3,q10
106 vmov.i8 q10,#8 @ borrow q10
[all …]
Dghashv8-armx32.S18 vshr.u64 q10,q11,#63
20 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
21 vshr.u64 q10,q3,#63
23 vand q10,q10,q8
25 vext.8 q10,q10,q10,#8
27 vorr q3,q3,q10 @ H<<<=1
39 veor q10,q0,q2
41 veor q1,q1,q10
42 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
46 veor q0,q1,q10
[all …]
Dbsaes-armv7.S1173 vld1.8 {q10,q11}, [r0]!
1177 veor q4, q4, q10
1227 vld1.8 {q10,q11}, [r0]!
1231 veor q4, q4, q10
1250 vld1.8 {q10,q11}, [r0]!
1254 veor q4, q4, q10
1271 vld1.8 {q10,q11}, [r0]!
1275 veor q4, q4, q10
1289 vld1.8 {q10}, [r0]!
1293 veor q4, q4, q10
[all …]
Dghash-armv4.S444 vmull.p8 q10, d20, d6 @ J = A3*B
454 veor q10, q10, q0 @ N = I + J
466 vext.8 q10, q10, q10, #13
468 veor q10, q10, q11
470 veor q0, q0, q10
482 vmull.p8 q10, d20, d6 @ J = A3*B
492 veor q10, q10, q1 @ N = I + J
504 vext.8 q10, q10, q10, #13
506 veor q10, q10, q11
508 veor q1, q1, q10
[all …]
/external/boringssl/linux-arm/crypto/fipsmodule/
Dghashv8-armx32.S17 vshr.u64 q10,q11,#63
19 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
20 vshr.u64 q10,q3,#63
22 vand q10,q10,q8
24 vext.8 q10,q10,q10,#8
26 vorr q3,q3,q10 @ H<<<=1
38 veor q10,q0,q2
40 veor q1,q1,q10
41 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
45 veor q0,q1,q10
[all …]
Dbsaes-armv7.S1166 vld1.8 {q10,q11}, [r0]!
1170 veor q4, q4, q10
1220 vld1.8 {q10,q11}, [r0]!
1224 veor q4, q4, q10
1243 vld1.8 {q10,q11}, [r0]!
1247 veor q4, q4, q10
1264 vld1.8 {q10,q11}, [r0]!
1268 veor q4, q4, q10
1282 vld1.8 {q10}, [r0]!
1286 veor q4, q4, q10
[all …]
/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0)
296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0)
297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
316 …vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
[all …]
/external/swiftshader/third_party/LLVM/test/MC/ARM/
Dneont2-mul-accum-encoding.s9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
18 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29]
19 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29]
20 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29]
21 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d]
50 vmls.i8 q9, q8, q10
51 vmls.i16 q9, q8, q10
[all …]
Dneon-mul-accum-encoding.s11 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
12 vmla.i8 q9, q8, q10
13 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
14 vmla.i16 q9, q8, q10
15 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
16 vmla.i32 q9, q8, q10
17 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
18 vmla.f32 q9, q8, q10
43 @ CHECK: vmls.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf3]
44 vmls.i8 q9, q8, q10
[all …]
Dneon-mul-encoding.s7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
16 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
17 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
18 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
19 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
48 vmls.i8 q9, q8, q10
49 vmls.i16 q9, q8, q10
[all …]
Dneon-absdiff-encoding.s57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2]
58 vaba.s8 q9, q8, q10
59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2]
60 vaba.s16 q9, q8, q10
61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2]
62 vaba.s32 q9, q8, q10
63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3]
64 vaba.u8 q9, q8, q10
65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3]
66 vaba.u16 q9, q8, q10
[all …]
Dneont2-absdiff-encoding.s57 vaba.s8 q9, q8, q10
58 vaba.s16 q9, q8, q10
59 vaba.s32 q9, q8, q10
60 vaba.u8 q9, q8, q10
61 vaba.u16 q9, q8, q10
62 vaba.u32 q9, q8, q10
70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27]
71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27]
72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27]
73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27]
[all …]
/external/llvm/test/MC/ARM/
Dneon-mul-accum-encoding.s7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
58 vmls.i8 q9, q8, q10
59 vmls.i16 q9, q8, q10
[all …]
Dneont2-mul-accum-encoding.s9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29]
20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29]
21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29]
22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d]
62 vmls.i8 q9, q8, q10
63 vmls.i16 q9, q8, q10
[all …]
Dneon-absdiff-encoding.s57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2]
58 vaba.s8 q9, q8, q10
59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2]
60 vaba.s16 q9, q8, q10
61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2]
62 vaba.s32 q9, q8, q10
63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3]
64 vaba.u8 q9, q8, q10
65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3]
66 vaba.u16 q9, q8, q10
[all …]
/external/swiftshader/third_party/subzero/tests_lit/assembler/arm32/
Dmul-vec.ll7 ; RUN: -reg-use q10,q11 \
13 ; RUN: -reg-use q10,q11 \
18 ; RUN: -reg-use q10,q11 \
24 ; RUN: -reg-use q10,q11 \
35 ; ASM: vmul.f32 q10, q10, q11
50 ; ASM: vmul.i32 q10, q10, q11
65 ; ASM: vmul.i16 q10, q10, q11
80 ; ASM: vmul.i8 q10, q10, q11
Dsub-vec.ll7 ; RUN: -reg-use q10,q11 \
13 ; RUN: -reg-use q10,q11 \
18 ; RUN: -reg-use q10,q11 \
24 ; RUN: -reg-use q10,q11 \
35 ; ASM: vsub.f32 q10, q10, q11
50 ; ASM: vsub.i32 q10, q10, q11
65 ; ASM: vsub.i16 q10, q10, q11
80 ; ASM: vsub.i8 q10, q10, q11
Dadd-vec.ll7 ; RUN: -reg-use q10,q11 \
13 ; RUN: -reg-use q10,q11 \
18 ; RUN: -reg-use q10,q11 \
24 ; RUN: -reg-use q10,q11 \
35 ; ASM: vadd.f32 q10, q10, q11
50 ; ASM: vadd.i32 q10, q10, q11
65 ; ASM: vadd.i16 q10, q10, q11
80 ; ASM: vadd.i8 q10, q10, q11
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s167 vaddl.u8 q10, d4, d6
170 vmla.u16 q9, q10, q14
172 vaddl.u8 q10, d1, d11
174 vmla.u16 q10, q12, q14
178 vmls.u16 q10, q13, q15
183 vst1.32 {q10}, [r9]!
184 vext.16 q12, q9, q10, #2
185 vext.16 q13, q9, q10, #3
187 vext.16 q11, q9, q10, #5
189 vext.16 q12, q9, q10, #1
[all …]
Dih264_inter_pred_luma_bilinear_a9q.s139 vaddl.u8 q10, d0, d4
150 vqrshrun.s16 d28, q10, #1
152 vaddl.u8 q10, d10, d14
162 vqrshrun.s16 d30, q10, #1
166 vaddl.u8 q10, d0, d4
174 vqrshrun.s16 d28, q10, #1
180 vaddl.u8 q10, d10, d14
187 vqrshrun.s16 d30, q10, #1
198 vaddl.u8 q10, d0, d4
202 vqrshrun.s16 d28, q10, #1
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0]
154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5
156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0]
158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2)
187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2)
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s193 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
259 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
261 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
273 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
321 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
324 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7)
325 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4)
[all …]
Dihevc_itrans_recon_32x32.s231 vmull.s16 q10,d10,d0[0]
232 vmlal.s16 q10,d11,d0[2]
269 vmlal.s16 q10,d12,d1[0]
270 vmlal.s16 q10,d13,d1[2]
301 vmlal.s16 q10,d10,d2[0]
302 vmlal.s16 q10,d11,d2[2]
343 vmlal.s16 q10,d12,d3[0]
344 vmlal.s16 q10,d13,d3[2]
377 vmlal.s16 q10,d10,d0[0]
378 vmlal.s16 q10,d11,d4[2]
[all …]
/external/valgrind/none/tests/arm/
Dneon128.c360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000); in main()
374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000); in main()
393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000); in main()
398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); in main()
403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24); in main()
408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main()
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
[all …]

123456