Home
last modified time | relevance | path

Searched refs:q11 (Results 1 – 25 of 142) sorted by relevance

123456

/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s169 vaddl.u8 q11, d2, d8
176 vmls.u16 q9, q11, q15
177 vaddl.u8 q11, d12, d17
180 vmla.u16 q11, q12, q14
181 vmls.u16 q11, q13, q15
186 vst1.32 {q11}, [r9]
187 vext.16 q11, q9, q10, #5
197 vaddl.s16 q11, d19, d23
198 vmlal.s16 q11, d1, d28
199 vmlsl.s16 q11, d25, d30
[all …]
Dih264_inter_pred_luma_bilinear_a9q.s141 vaddl.u8 q11, d1, d5
151 vqrshrun.s16 d29, q11, #1
156 vaddl.u8 q11, d11, d15
164 vqrshrun.s16 d31, q11, #1
170 vaddl.u8 q11, d1, d5
176 vqrshrun.s16 d29, q11, #1
184 vaddl.u8 q11, d11, d15
190 vqrshrun.s16 d31, q11, #1
200 vaddl.u8 q11, d1, d5
204 vqrshrun.s16 d29, q11, #1
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0]
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0]
153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0]
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
180 vqmovun.s16 d22, q11
[all …]
Dih264_iquant_itrans_recon_a9.s142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
212 vrshr.s16 q11, q11, #6
215 vaddw.u8 q11, q11, d31
218 vqmovun.s16 d1, q11
318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
381 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
388 vrshr.s16 q11, q11, #6
391 vaddw.u8 q11, q11, d29
401 vqmovun.s16 d22, q11
[all …]
Dih264_inter_pred_filters_luma_vert_a9q.s110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11
131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
141 vmla.u16 q8, q6, q11
148 vmla.u16 q7, q6, q11
155 vmla.u16 q9, q6, q11
162 vmla.u16 q8, q6, q11
170 vmla.u16 q7, q6, q11
176 vmla.u16 q9, q6, q11
190 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0)
303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0)
304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
318 …vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5)
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s214 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1)
248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
276 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
326 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
332 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
333 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
[all …]
Dihevc_itrans_recon_32x32.s235 vmull.s16 q11,d10,d0[0]
236 vmlal.s16 q11,d11,d1[2]
271 vmlal.s16 q11,d12,d3[0]
272 vmlal.s16 q11,d13,d4[2]
305 vmlal.s16 q11,d10,d6[0]
306 vmlal.s16 q11,d11,d7[2]
345 vmlsl.s16 q11,d12,d7[0]
346 vmlsl.s16 q11,d13,d5[2]
381 vmlsl.s16 q11,d10,d0[0]
382 vmlsl.s16 q11,d11,d2[2]
[all …]
Dihevc_itrans_recon_16x16.s372 vsub.s32 q11,q6,q12
391 vqrshrn.s32 d19,q11,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
435 vmull.s16 q11,d10,d0[0]
436 vmlsl.s16 q11,d11,d3[2]
461 vmlsl.s16 q11,d4,d1[0]
462 vmlal.s16 q11,d5,d2[2]
516 vmlal.s16 q11,d10,d0[0]
517 vmlsl.s16 q11,d11,d1[2]
518 vmlsl.s16 q11,d4,d3[0]
519 vmlal.s16 q11,d5,d0[2]
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s182 vaddw.u8 q11, q15, d7
186 vqmovun.s16 d7, q11
469 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1)
503 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
504 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
513 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
520 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
531 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT)
585 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
[all …]
/external/valgrind/none/tests/arm/
Dneon128.c376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF); in main()
408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main()
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
464 TESTINSN_bin("veor q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
474 TESTINSN_bin("vbsl q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
484 TESTINSN_bin("vbit q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
494 TESTINSN_bin("vbif q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
[all …]
/external/boringssl/linux-arm/crypto/fipsmodule/
Dbsaes-armv7.S1166 vld1.8 {q10,q11}, [r0]!
1171 veor q2, q2, q11
1220 vld1.8 {q10,q11}, [r0]!
1225 veor q2, q2, q11
1243 vld1.8 {q10,q11}, [r0]!
1248 veor q2, q2, q11
1264 vld1.8 {q10,q11}, [r0]!
1270 veor q2, q2, q11
1451 vld1.8 {q10,q11}, [r0]!
1456 veor q6, q11
[all …]
Dghashv8-armx32.S14 vmov.i8 q11,#0xe1
15 vshl.i64 q11,q11,#57 @ 0xc2.0
17 vshr.u64 q10,q11,#63
19 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
41 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
48 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
65 vmov.i8 q11,#0xe1
67 vshl.u64 q11,q11,#57
82 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
89 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]
/external/boringssl/ios-arm/crypto/fipsmodule/
Dbsaes-armv7.S1173 vld1.8 {q10,q11}, [r0]!
1178 veor q2, q2, q11
1227 vld1.8 {q10,q11}, [r0]!
1232 veor q2, q2, q11
1250 vld1.8 {q10,q11}, [r0]!
1255 veor q2, q2, q11
1271 vld1.8 {q10,q11}, [r0]!
1277 veor q2, q2, q11
1460 vld1.8 {q10,q11}, [r0]!
1465 veor q6, q11
[all …]
Dghashv8-armx32.S15 vmov.i8 q11,#0xe1
16 vshl.i64 q11,q11,#57 @ 0xc2.0
18 vshr.u64 q10,q11,#63
20 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
42 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
49 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
68 vmov.i8 q11,#0xe1
70 vshl.u64 q11,q11,#57
85 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
92 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]
/external/swiftshader/third_party/subzero/tests_lit/assembler/arm32/
Dvldr-vector.ll10 ; RUN: -reg-use=q11,r5 \
16 ; RUN: -reg-use=q11,r5 \
21 ; RUN: -reg-use=q11,r5 \
27 ; RUN: -reg-use=q11,r5 \
37 ; ASM: vld1.32 q11, [r5]
51 ; ASM: vld1.32 q11, [r5]
65 ; ASM: vld1.16 q11, [r5]
79 ; ASM: vld1.8 q11, [r5]
Dsub-vec.ll7 ; RUN: -reg-use q10,q11 \
13 ; RUN: -reg-use q10,q11 \
18 ; RUN: -reg-use q10,q11 \
24 ; RUN: -reg-use q10,q11 \
35 ; ASM: vsub.f32 q10, q10, q11
50 ; ASM: vsub.i32 q10, q10, q11
65 ; ASM: vsub.i16 q10, q10, q11
80 ; ASM: vsub.i8 q10, q10, q11
Dadd-vec.ll7 ; RUN: -reg-use q10,q11 \
13 ; RUN: -reg-use q10,q11 \
18 ; RUN: -reg-use q10,q11 \
24 ; RUN: -reg-use q10,q11 \
35 ; ASM: vadd.f32 q10, q10, q11
50 ; ASM: vadd.i32 q10, q10, q11
65 ; ASM: vadd.i16 q10, q10, q11
80 ; ASM: vadd.i8 q10, q10, q11
Dmul-vec.ll7 ; RUN: -reg-use q10,q11 \
13 ; RUN: -reg-use q10,q11 \
18 ; RUN: -reg-use q10,q11 \
24 ; RUN: -reg-use q10,q11 \
35 ; ASM: vmul.f32 q10, q10, q11
50 ; ASM: vmul.i32 q10, q10, q11
65 ; ASM: vmul.i16 q10, q10, q11
80 ; ASM: vmul.i8 q10, q10, q11
Dvstr-vector.ll10 ; RUN: -reg-use=q11,r5 \
16 ; RUN: -reg-use=q11,r5 \
21 ; RUN: -reg-use=q11,r5 \
27 ; RUN: -reg-use=q11,r5 \
36 ; ASM: vst1.32 q11, [r5]
49 ; ASM: vst1.32 q11, [r5]
61 ; ASM: vst1.16 q11, [r5]
73 ; ASM: vst1.8 q11, [r5]
/external/libvpx/libvpx/vp8/common/arm/neon/
Didct_dequant_full_2x_neon.c21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; in idct_dequant_full_2x_neon() local
92 q11 = vqsubq_s16(q2, q3); in idct_dequant_full_2x_neon()
104 q5 = vqaddq_s16(q11, q2); in idct_dequant_full_2x_neon()
105 q6 = vqsubq_s16(q11, q2); in idct_dequant_full_2x_neon()
119 q11 = vqdmulhq_n_s16(q2tmp3.val[1], cospi8sqrt2minus1); in idct_dequant_full_2x_neon()
125 q11 = vshrq_n_s16(q11, 1); in idct_dequant_full_2x_neon()
128 q11 = vqaddq_s16(q2tmp3.val[1], q11); in idct_dequant_full_2x_neon()
130 q8 = vqsubq_s16(q8, q11); in idct_dequant_full_2x_neon()
/external/llvm/test/MC/ARM/
Dneont2-mul-accum-encoding.s45 vqdmlal.s16 q11, d11, d7[0]
46 vqdmlal.s16 q11, d11, d7[1]
47 vqdmlal.s16 q11, d11, d7[2]
48 vqdmlal.s16 q11, d11, d7[3]
52 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0xdb,0xef,0x47,0x63]
53 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0xdb,0xef,0x4f,0x63]
54 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0xdb,0xef,0x67,0x63]
55 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0xdb,0xef,0x6f,0x63]
85 vmlsl.u16 q11, d25, d1[3]
93 @ CHECK: vmlsl.u16 q11, d25, d1[3] @ encoding: [0xd9,0xff,0xe9,0x66]
/external/libxaac/decoder/armv7/
Dixheaacd_sbr_imdct_using_fft.s254 VADD.I32 q10, q11, q2
255 VSUB.I32 q1, q11, q2
259 VADD.S32 q11, q7, q15
277 VADD.S32 q3, q4, q11
280 VSUB.S32 q10, q4, q11
287 VSUB.S32 q11, q8, q7
331 VPUSH {q11}
359 VADD.S32 q11, q9, q14
425 VTRN.32 q15, q11
431 VSHL.S32 q11, q11, #1
[all …]
Dixheaacd_imdct_using_fft.s250 VADD.I32 q10, q11, q2
251 VSUB.I32 q1, q11, q2
255 VADD.S32 q11, q7, q15
273 VADD.S32 q3, q4, q11
276 VSUB.S32 q10, q4, q11
283 VSUB.S32 q11, q8, q7
327 VPUSH {q11}
355 VADD.S32 q11, q9, q14
420 VTRN.32 q15, q11
426 VSHL.S32 q11, q11, #3
[all …]

123456