Home
last modified time | relevance | path

Searched refs:q10 (Results 1 – 25 of 171) sorted by relevance

1234567

/external/boringssl/ios-arm/crypto/fipsmodule/
Daesv8-armx32.S54 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
61 veor q10,q10,q1
64 veor q3,q3,q10
73 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
79 veor q10,q10,q1
82 veor q3,q3,q10
88 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
94 veor q10,q10,q1
96 veor q3,q3,q10
106 vmov.i8 q10,#8 @ borrow q10
[all …]
Dghashv8-armx32.S18 vshr.u64 q10,q11,#63
20 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
21 vshr.u64 q10,q3,#63
23 vand q10,q10,q8
25 vext.8 q10,q10,q10,#8
27 vorr q3,q3,q10 @ H<<<=1
39 veor q10,q0,q2
41 veor q1,q1,q10
42 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
46 veor q0,q1,q10
[all …]
Dbsaes-armv7.S1173 vld1.8 {q10,q11}, [r0]!
1177 veor q4, q4, q10
1227 vld1.8 {q10,q11}, [r0]!
1231 veor q4, q4, q10
1250 vld1.8 {q10,q11}, [r0]!
1254 veor q4, q4, q10
1271 vld1.8 {q10,q11}, [r0]!
1275 veor q4, q4, q10
1289 vld1.8 {q10}, [r0]!
1293 veor q4, q4, q10
[all …]
Dghash-armv4.S449 vmull.p8 q10, d20, d6 @ J = A3*B
459 veor q10, q10, q0 @ N = I + J
471 vext.8 q10, q10, q10, #13
473 veor q10, q10, q11
475 veor q0, q0, q10
487 vmull.p8 q10, d20, d6 @ J = A3*B
497 veor q10, q10, q1 @ N = I + J
509 vext.8 q10, q10, q10, #13
511 veor q10, q10, q11
513 veor q1, q1, q10
[all …]
/external/boringssl/linux-arm/crypto/fipsmodule/
Dghashv8-armx32.S17 vshr.u64 q10,q11,#63
19 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
20 vshr.u64 q10,q3,#63
22 vand q10,q10,q8
24 vext.8 q10,q10,q10,#8
26 vorr q3,q3,q10 @ H<<<=1
38 veor q10,q0,q2
40 veor q1,q1,q10
41 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
45 veor q0,q1,q10
[all …]
Dbsaes-armv7.S1166 vld1.8 {q10,q11}, [r0]!
1170 veor q4, q4, q10
1220 vld1.8 {q10,q11}, [r0]!
1224 veor q4, q4, q10
1243 vld1.8 {q10,q11}, [r0]!
1247 veor q4, q4, q10
1264 vld1.8 {q10,q11}, [r0]!
1268 veor q4, q4, q10
1282 vld1.8 {q10}, [r0]!
1286 veor q4, q4, q10
[all …]
Dghash-armv4.S438 vmull.p8 q10, d20, d6 @ J = A3*B
448 veor q10, q10, q0 @ N = I + J
460 vext.8 q10, q10, q10, #13
462 veor q10, q10, q11
464 veor q0, q0, q10
476 vmull.p8 q10, d20, d6 @ J = A3*B
486 veor q10, q10, q1 @ N = I + J
498 vext.8 q10, q10, q10, #13
500 veor q10, q10, q11
502 veor q1, q1, q10
[all …]
/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0)
296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0)
297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
316 …vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
[all …]
/external/swiftshader/third_party/LLVM/test/MC/ARM/
Dneont2-mul-accum-encoding.s9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
18 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29]
19 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29]
20 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29]
21 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d]
50 vmls.i8 q9, q8, q10
51 vmls.i16 q9, q8, q10
[all …]
Dneon-mul-accum-encoding.s11 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
12 vmla.i8 q9, q8, q10
13 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
14 vmla.i16 q9, q8, q10
15 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
16 vmla.i32 q9, q8, q10
17 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
18 vmla.f32 q9, q8, q10
43 @ CHECK: vmls.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf3]
44 vmls.i8 q9, q8, q10
[all …]
Dneon-mul-encoding.s7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
16 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
17 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
18 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
19 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
48 vmls.i8 q9, q8, q10
49 vmls.i16 q9, q8, q10
[all …]
Dneon-absdiff-encoding.s57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2]
58 vaba.s8 q9, q8, q10
59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2]
60 vaba.s16 q9, q8, q10
61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2]
62 vaba.s32 q9, q8, q10
63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3]
64 vaba.u8 q9, q8, q10
65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3]
66 vaba.u16 q9, q8, q10
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s167 vaddl.u8 q10, d4, d6
170 vmla.u16 q9, q10, q14
172 vaddl.u8 q10, d1, d11
174 vmla.u16 q10, q12, q14
178 vmls.u16 q10, q13, q15
183 vst1.32 {q10}, [r9]!
184 vext.16 q12, q9, q10, #2
185 vext.16 q13, q9, q10, #3
187 vext.16 q11, q9, q10, #5
189 vext.16 q12, q9, q10, #1
[all …]
Dih264_inter_pred_luma_bilinear_a9q.s139 vaddl.u8 q10, d0, d4
150 vqrshrun.s16 d28, q10, #1
152 vaddl.u8 q10, d10, d14
162 vqrshrun.s16 d30, q10, #1
166 vaddl.u8 q10, d0, d4
174 vqrshrun.s16 d28, q10, #1
180 vaddl.u8 q10, d10, d14
187 vqrshrun.s16 d30, q10, #1
198 vaddl.u8 q10, d0, d4
202 vqrshrun.s16 d28, q10, #1
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0]
154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5
156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0]
158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2)
187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2)
[all …]
/external/llvm/test/MC/ARM/
Dneon-mul-accum-encoding.s7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
58 vmls.i8 q9, q8, q10
59 vmls.i16 q9, q8, q10
[all …]
Dneont2-mul-accum-encoding.s9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29]
20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29]
21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29]
22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d]
62 vmls.i8 q9, q8, q10
63 vmls.i16 q9, q8, q10
[all …]
/external/swiftshader/third_party/subzero/tests_lit/assembler/arm32/
Dsub-vec.ll7 ; RUN: -reg-use q10,q11 \
13 ; RUN: -reg-use q10,q11 \
18 ; RUN: -reg-use q10,q11 \
24 ; RUN: -reg-use q10,q11 \
35 ; ASM: vsub.f32 q10, q10, q11
50 ; ASM: vsub.i32 q10, q10, q11
65 ; ASM: vsub.i16 q10, q10, q11
80 ; ASM: vsub.i8 q10, q10, q11
Dadd-vec.ll7 ; RUN: -reg-use q10,q11 \
13 ; RUN: -reg-use q10,q11 \
18 ; RUN: -reg-use q10,q11 \
24 ; RUN: -reg-use q10,q11 \
35 ; ASM: vadd.f32 q10, q10, q11
50 ; ASM: vadd.i32 q10, q10, q11
65 ; ASM: vadd.i16 q10, q10, q11
80 ; ASM: vadd.i8 q10, q10, q11
Dmul-vec.ll7 ; RUN: -reg-use q10,q11 \
13 ; RUN: -reg-use q10,q11 \
18 ; RUN: -reg-use q10,q11 \
24 ; RUN: -reg-use q10,q11 \
35 ; ASM: vmul.f32 q10, q10, q11
50 ; ASM: vmul.i32 q10, q10, q11
65 ; ASM: vmul.i16 q10, q10, q11
80 ; ASM: vmul.i8 q10, q10, q11
/external/valgrind/none/tests/arm/
Dneon128.c360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000); in main()
374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000); in main()
393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000); in main()
398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); in main()
403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24); in main()
408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main()
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s193 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
259 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
261 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
273 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
321 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
324 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7)
325 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4)
[all …]
Dihevc_itrans_recon_32x32.s231 vmull.s16 q10,d10,d0[0]
232 vmlal.s16 q10,d11,d0[2]
269 vmlal.s16 q10,d12,d1[0]
270 vmlal.s16 q10,d13,d1[2]
301 vmlal.s16 q10,d10,d2[0]
302 vmlal.s16 q10,d11,d2[2]
343 vmlal.s16 q10,d12,d3[0]
344 vmlal.s16 q10,d13,d3[2]
377 vmlal.s16 q10,d10,d0[0]
378 vmlal.s16 q10,d11,d4[2]
[all …]
/external/capstone/suite/MC/ARM/
Dneon-mul-accum-encoding.s.cs6 0xe4,0x29,0x40,0xf2 = vmla.i8 q9, q8, q10
7 0xe4,0x29,0x50,0xf2 = vmla.i16 q9, q8, q10
8 0xe4,0x29,0x60,0xf2 = vmla.i32 q9, q8, q10
9 0xf4,0x2d,0x40,0xf2 = vmla.f32 q9, q8, q10
27 0xe4,0x29,0x40,0xf3 = vmls.i8 q9, q8, q10
28 0xe4,0x29,0x50,0xf3 = vmls.i16 q9, q8, q10
29 0xe4,0x29,0x60,0xf3 = vmls.i32 q9, q8, q10
30 0xf4,0x2d,0x60,0xf2 = vmls.f32 q9, q8, q10

1234567