Home
last modified time | relevance | path

Searched refs:q10 (Results 1 – 25 of 119) sorted by relevance

12345

/external/boringssl/linux-arm/crypto/modes/
Dghashv8-armx32.S15 vshr.u64 q10,q11,#63
17 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
18 vshr.u64 q10,q3,#63
20 vand q10,q10,q8
22 vext.8 q10,q10,q10,#8
24 vorr q3,q3,q10 @ H<<<=1
36 veor q10,q0,q2
38 veor q1,q1,q10
39 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
43 veor q0,q1,q10
[all …]
Dghash-armv4.S398 vmull.p8 q10, d20, d6 @ J = A3*B
408 veor q10, q10, q0 @ N = I + J
420 vext.8 q10, q10, q10, #13
422 veor q10, q10, q11
424 veor q0, q0, q10
436 vmull.p8 q10, d20, d6 @ J = A3*B
446 veor q10, q10, q1 @ N = I + J
458 vext.8 q10, q10, q10, #13
460 veor q10, q10, q11
462 veor q1, q1, q10
[all …]
/external/boringssl/linux-arm/crypto/aes/
Daesv8-armx32.S51 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
58 veor q10,q10,q1
61 veor q3,q3,q10
70 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
76 veor q10,q10,q1
79 veor q3,q3,q10
85 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
91 veor q10,q10,q1
93 veor q3,q3,q10
103 vmov.i8 q10,#8 @ borrow q10
[all …]
Dbsaes-armv7.S1158 vld1.8 {q10,q11}, [r0]!
1162 veor q4, q4, q10
1212 vld1.8 {q10,q11}, [r0]!
1216 veor q4, q4, q10
1235 vld1.8 {q10,q11}, [r0]!
1239 veor q4, q4, q10
1256 vld1.8 {q10,q11}, [r0]!
1260 veor q4, q4, q10
1274 vld1.8 {q10}, [r0]!
1278 veor q4, q4, q10
[all …]
/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0)
296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0)
297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
316 …vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
[all …]
/external/llvm/test/MC/ARM/
Dneon-mul-accum-encoding.s7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
58 vmls.i8 q9, q8, q10
59 vmls.i16 q9, q8, q10
[all …]
Dneont2-mul-accum-encoding.s9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29]
20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29]
21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29]
22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d]
62 vmls.i8 q9, q8, q10
63 vmls.i16 q9, q8, q10
[all …]
Dneon-absdiff-encoding.s57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2]
58 vaba.s8 q9, q8, q10
59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2]
60 vaba.s16 q9, q8, q10
61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2]
62 vaba.s32 q9, q8, q10
63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3]
64 vaba.u8 q9, q8, q10
65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3]
66 vaba.u16 q9, q8, q10
[all …]
Dneont2-absdiff-encoding.s57 vaba.s8 q9, q8, q10
58 vaba.s16 q9, q8, q10
59 vaba.s32 q9, q8, q10
60 vaba.u8 q9, q8, q10
61 vaba.u16 q9, q8, q10
62 vaba.u32 q9, q8, q10
70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27]
71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27]
72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27]
73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27]
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s167 vaddl.u8 q10, d4, d6
170 vmla.u16 q9, q10, q14
172 vaddl.u8 q10, d1, d11
174 vmla.u16 q10, q12, q14
178 vmls.u16 q10, q13, q15
183 vst1.32 {q10}, [r9]!
184 vext.16 q12, q9, q10, #2
185 vext.16 q13, q9, q10, #3
187 vext.16 q11, q9, q10, #5
189 vext.16 q12, q9, q10, #1
[all …]
Dih264_inter_pred_luma_bilinear_a9q.s139 vaddl.u8 q10, d0, d4
150 vqrshrun.s16 d28, q10, #1
152 vaddl.u8 q10, d10, d14
162 vqrshrun.s16 d30, q10, #1
166 vaddl.u8 q10, d0, d4
174 vqrshrun.s16 d28, q10, #1
180 vaddl.u8 q10, d10, d14
187 vqrshrun.s16 d30, q10, #1
198 vaddl.u8 q10, d0, d4
202 vqrshrun.s16 d28, q10, #1
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0]
154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5
156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0]
158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2)
187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2)
[all …]
Dih264_iquant_itrans_recon_a9.s139 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7
207 vadd.s16 q10, q7, q8 @x0 + x3 and x1+x2 combined
211 vrshr.s16 q10, q10, #6 @
214 vaddw.u8 q10, q10, d30
217 vqmovun.s16 d0, q10
315 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7
383 vadd.s16 q10, q7, q8 @x0 + x3 and x1+x2 combined
387 vrshr.s16 q10, q10, #6 @
390 vaddw.u8 q10, q10, d28
400 vqmovun.s16 d20, q10 @Getting quantized coeffs
[all …]
Dih264_inter_pred_filters_luma_vert_a9q.s132 vaddl.u8 q10, d1, d11 @ temp4 = src[0_8] + src[5_8]
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5
150 vqrshrun.s16 d31, q10, #5 @ dst[0_8] = CLIP_U8((temp4 +16) >> 5)
156 vaddl.u8 q10, d6, d0
163 vmls.u16 q9, q10, q12
169 vaddl.u8 q10, d8, d2
178 vmls.u16 q7, q10, q12
185 vaddl.u8 q10, d9, d7 @ temp4 = src[0_8] + src[5_8]
221 vaddl.u8 q10, d4, d5
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
267 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
315 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7)
319 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4)
[all …]
Dihevc_itrans_recon_32x32.s225 vmull.s16 q10,d10,d0[0]
226 vmlal.s16 q10,d11,d0[2]
263 vmlal.s16 q10,d12,d1[0]
264 vmlal.s16 q10,d13,d1[2]
295 vmlal.s16 q10,d10,d2[0]
296 vmlal.s16 q10,d11,d2[2]
337 vmlal.s16 q10,d12,d3[0]
338 vmlal.s16 q10,d13,d3[2]
371 vmlal.s16 q10,d10,d0[0]
372 vmlal.s16 q10,d11,d4[2]
[all …]
/external/valgrind/none/tests/arm/
Dneon128.c360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000); in main()
374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000); in main()
393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000); in main()
398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); in main()
403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24); in main()
408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main()
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s177 vaddw.u8 q10, q15, d6
182 vqmovun.s16 d6, q10
442 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1)
497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
508 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6)
510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0)
522 vqrshrn.s32 d2, q10, #idct_stg1_shift @// r0 = (a0 + b0 + rnd) >> 7(IDCT_STG1_SHIFT)
574 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1)
[all …]
/external/libvpx/libvpx/vpx_dsp/arm/
Dloopfilter_16_neon.c28 uint8x16_t q10, // q3 in loop_filter_neon_16() argument
44 q4 = vabdq_u8(q10, q9); in loop_filter_neon_16()
65 q10 = vdupq_n_u8(0x80); in loop_filter_neon_16()
66 q8 = veorq_u8(q8, q10); in loop_filter_neon_16()
67 q7 = veorq_u8(q7, q10); in loop_filter_neon_16()
68 q6 = veorq_u8(q6, q10); in loop_filter_neon_16()
69 q5 = veorq_u8(q5, q10); in loop_filter_neon_16()
120 *q8r = veorq_u8(vreinterpretq_u8_s8(q12s8), q10); in loop_filter_neon_16()
121 *q7r = veorq_u8(vreinterpretq_u8_s8(q0s8), q10); in loop_filter_neon_16()
122 *q6r = veorq_u8(vreinterpretq_u8_s8(q11s8), q10); in loop_filter_neon_16()
[all …]
Didct16x16_1_add_neon.asm62 vaddw.u8 q10, q0, d3 ; dest[x] + a1
66 vqmovun.s16 d3, q10 ; clip_pixel
75 vaddw.u8 q10, q0, d7 ; dest[x] + a1
79 vqmovun.s16 d3, q10 ; clip_pixel
98 vaddw.u8 q10, q0, d3 ; dest[x] + a1
102 vqmovun.s16 d3, q10 ; clip_pixel
111 vaddw.u8 q10, q0, d7 ; dest[x] + a1
115 vqmovun.s16 d3, q10 ; clip_pixel
134 vaddw.u8 q10, q0, d3 ; dest[x] + a1
138 vqmovun.s16 d3, q10 ; clip_pixel
[all …]
/external/libvpx/libvpx/vp8/common/arm/neon/
Dvp8_loopfilter_neon.c26 uint8x16_t q10, // q3 in vp8_loop_filter_neon() argument
42 q4 = vabdq_u8(q10, q9); in vp8_loop_filter_neon()
63 q10 = vdupq_n_u8(0x80); in vp8_loop_filter_neon()
64 q8 = veorq_u8(q8, q10); in vp8_loop_filter_neon()
65 q7 = veorq_u8(q7, q10); in vp8_loop_filter_neon()
66 q6 = veorq_u8(q6, q10); in vp8_loop_filter_neon()
67 q5 = veorq_u8(q5, q10); in vp8_loop_filter_neon()
72 q10 = vdupq_n_u8(3); in vp8_loop_filter_neon()
86 q4u16 = vmovl_u8(vget_low_u8(q10)); in vp8_loop_filter_neon()
105 q2s8 = vqaddq_s8(q1s8, vreinterpretq_s8_u8(q10)); in vp8_loop_filter_neon()
[all …]
Didct_dequant_full_2x_neon.c24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; in idct_dequant_full_2x_neon() local
94 q10 = vqaddq_s16(q2, q3); in idct_dequant_full_2x_neon()
106 q4 = vqaddq_s16(q10, q3); in idct_dequant_full_2x_neon()
109 q7 = vqsubq_s16(q10, q3); in idct_dequant_full_2x_neon()
121 q10 = vqdmulhq_n_s16(q2tmp2.val[1], cospi8sqrt2minus1); in idct_dequant_full_2x_neon()
127 q10 = vshrq_n_s16(q10, 1); in idct_dequant_full_2x_neon()
130 q10 = vqaddq_s16(q2tmp2.val[1], q10); in idct_dequant_full_2x_neon()
134 q9 = vqaddq_s16(q9, q10); in idct_dequant_full_2x_neon()
/external/libjpeg-turbo/simd/
Djsimd_arm_neon.S250 vmul.s16 q10, q10, q2
504 vqrshrn.s16 d18, q10, #2
518 vtrn.16 q10, q11
530 vadd.u8 q10, q10, q0
737 vmul.s16 q10, q10, q2
749 vsub.s16 q2, q10, q14
750 vadd.s16 q14, q10, q14
759 vadd.s16 q10, q2, q4
766 vsub.s16 q10, q10, q14
771 vadd.s16 q5, q6, q10
[all …]
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S101 vshr.u64 q10,q10,#25
108 vand q10,q10,q2
117 vadd.i64 q13,q10,q1
128 vsub.i64 q10,q10,q13
168 vadd.i64 q6,q10,q0
172 vshl.i64 q10,q13,#25
176 vsub.i64 q3,q3,q10
248 veor q10,q7,q9
252 vand q10,q10,q8
258 veor q6,q7,q10
[all …]

12345