Home
last modified time | relevance | path

Searched refs:q11 (Results 1 – 25 of 272) sorted by relevance

1234567891011

/external/llvm-project/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s169 vaddl.u8 q11, d2, d8
176 vmls.u16 q9, q11, q15
177 vaddl.u8 q11, d12, d17
180 vmla.u16 q11, q12, q14
181 vmls.u16 q11, q13, q15
186 vst1.32 {q11}, [r9]
187 vext.16 q11, q9, q10, #5
197 vaddl.s16 q11, d19, d23
198 vmlal.s16 q11, d1, d28
199 vmlsl.s16 q11, d25, d30
[all …]
Dih264_inter_pred_luma_bilinear_a9q.s141 vaddl.u8 q11, d1, d5
151 vqrshrun.s16 d29, q11, #1
156 vaddl.u8 q11, d11, d15
164 vqrshrun.s16 d31, q11, #1
170 vaddl.u8 q11, d1, d5
176 vqrshrun.s16 d29, q11, #1
184 vaddl.u8 q11, d11, d15
190 vqrshrun.s16 d31, q11, #1
200 vaddl.u8 q11, d1, d5
204 vqrshrun.s16 d29, q11, #1
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0]
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0]
153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0]
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
180 vqmovun.s16 d22, q11
[all …]
Dih264_iquant_itrans_recon_a9.s142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
212 vrshr.s16 q11, q11, #6
215 vaddw.u8 q11, q11, d31
218 vqmovun.s16 d1, q11
318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
381 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
388 vrshr.s16 q11, q11, #6
391 vaddw.u8 q11, q11, d29
401 vqmovun.s16 d22, q11
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0)
303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0)
304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
318 …vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5)
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s214 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1)
248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
276 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
326 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
332 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
333 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
[all …]
Dihevc_itrans_recon_32x32.s235 vmull.s16 q11,d10,d0[0]
236 vmlal.s16 q11,d11,d1[2]
271 vmlal.s16 q11,d12,d3[0]
272 vmlal.s16 q11,d13,d4[2]
305 vmlal.s16 q11,d10,d6[0]
306 vmlal.s16 q11,d11,d7[2]
345 vmlsl.s16 q11,d12,d7[0]
346 vmlsl.s16 q11,d13,d5[2]
381 vmlsl.s16 q11,d10,d0[0]
382 vmlsl.s16 q11,d11,d2[2]
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s182 vaddw.u8 q11, q15, d7
186 vqmovun.s16 d7, q11
469 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1)
503 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
504 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
513 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
520 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
531 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT)
585 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
[all …]
/external/rust/crates/ring/pregenerated/
Dghash-armv4-ios32.S112 vmull.p8 q11, d26, d22 @ G = A*B2
117 veor q9, q9, q11 @ M = G + H
124 vmull.p8 q11, d26, d22 @ K = A*B4
136 vext.8 q11, q11, q11, #12
139 veor q10, q10, q11
150 vmull.p8 q11, d28, d22 @ G = A*B2
155 veor q9, q9, q11 @ M = G + H
162 vmull.p8 q11, d28, d22 @ K = A*B4
174 vext.8 q11, q11, q11, #12
177 veor q10, q10, q11
[all …]
Dghash-armv4-linux32.S107 vmull.p8 q11, d26, d22 @ G = A*B2
112 veor q9, q9, q11 @ M = G + H
119 vmull.p8 q11, d26, d22 @ K = A*B4
131 vext.8 q11, q11, q11, #12
134 veor q10, q10, q11
145 vmull.p8 q11, d28, d22 @ G = A*B2
150 veor q9, q9, q11 @ M = G + H
157 vmull.p8 q11, d28, d22 @ K = A*B4
169 vext.8 q11, q11, q11, #12
172 veor q10, q10, q11
[all …]
Dghashv8-armx-ios32.S27 vmov.i8 q11,#0xe1
28 vshl.i64 q11,q11,#57 @ 0xc2.0
30 vshr.u64 q10,q11,#63
32 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
54 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
61 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
81 vmov.i8 q11,#0xe1
83 vshl.u64 q11,q11,#57
98 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
105 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]
Dghashv8-armx-linux32.S26 vmov.i8 q11,#0xe1
27 vshl.i64 q11,q11,#57 @ 0xc2.0
29 vshr.u64 q10,q11,#63
31 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
53 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
60 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
78 vmov.i8 q11,#0xe1
80 vshl.u64 q11,q11,#57
95 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
102 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]
/external/boringssl/ios-arm/crypto/fipsmodule/
Dghash-armv4.S115 vmull.p8 q11, d26, d22 @ G = A*B2
120 veor q9, q9, q11 @ M = G + H
127 vmull.p8 q11, d26, d22 @ K = A*B4
139 vext.8 q11, q11, q11, #12
142 veor q10, q10, q11
153 vmull.p8 q11, d28, d22 @ G = A*B2
158 veor q9, q9, q11 @ M = G + H
165 vmull.p8 q11, d28, d22 @ K = A*B4
177 vext.8 q11, q11, q11, #12
180 veor q10, q10, q11
[all …]
Dghashv8-armx32.S30 vmov.i8 q11,#0xe1
31 vshl.i64 q11,q11,#57 @ 0xc2.0
33 vshr.u64 q10,q11,#63
35 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
57 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
64 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
84 vmov.i8 q11,#0xe1
86 vshl.u64 q11,q11,#57
101 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
108 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]
/external/rust/crates/quiche/deps/boringssl/linux-arm/crypto/fipsmodule/
Dghash-armv4.S110 vmull.p8 q11, d26, d22 @ G = A*B2
115 veor q9, q9, q11 @ M = G + H
122 vmull.p8 q11, d26, d22 @ K = A*B4
134 vext.8 q11, q11, q11, #12
137 veor q10, q10, q11
148 vmull.p8 q11, d28, d22 @ G = A*B2
153 veor q9, q9, q11 @ M = G + H
160 vmull.p8 q11, d28, d22 @ K = A*B4
172 vext.8 q11, q11, q11, #12
175 veor q10, q10, q11
[all …]
/external/boringssl/linux-arm/crypto/fipsmodule/
Dghash-armv4.S110 vmull.p8 q11, d26, d22 @ G = A*B2
115 veor q9, q9, q11 @ M = G + H
122 vmull.p8 q11, d26, d22 @ K = A*B4
134 vext.8 q11, q11, q11, #12
137 veor q10, q10, q11
148 vmull.p8 q11, d28, d22 @ G = A*B2
153 veor q9, q9, q11 @ M = G + H
160 vmull.p8 q11, d28, d22 @ K = A*B4
172 vext.8 q11, q11, q11, #12
175 veor q10, q10, q11
[all …]
Dghashv8-armx32.S29 vmov.i8 q11,#0xe1
30 vshl.i64 q11,q11,#57 @ 0xc2.0
32 vshr.u64 q10,q11,#63
34 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
56 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
63 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
81 vmov.i8 q11,#0xe1
83 vshl.u64 q11,q11,#57
98 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
105 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]
/external/openscreen/third_party/boringssl/ios-arm/crypto/fipsmodule/
Dghash-armv4.S115 vmull.p8 q11, d26, d22 @ G = A*B2
120 veor q9, q9, q11 @ M = G + H
127 vmull.p8 q11, d26, d22 @ K = A*B4
139 vext.8 q11, q11, q11, #12
142 veor q10, q10, q11
153 vmull.p8 q11, d28, d22 @ G = A*B2
158 veor q9, q9, q11 @ M = G + H
165 vmull.p8 q11, d28, d22 @ K = A*B4
177 vext.8 q11, q11, q11, #12
180 veor q10, q10, q11
[all …]
Dghashv8-armx32.S30 vmov.i8 q11,#0xe1
31 vshl.i64 q11,q11,#57 @ 0xc2.0
33 vshr.u64 q10,q11,#63
35 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
57 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
64 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
84 vmov.i8 q11,#0xe1
86 vshl.u64 q11,q11,#57
101 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
108 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]
/external/rust/crates/quiche/deps/boringssl/ios-arm/crypto/fipsmodule/
Dghash-armv4.S115 vmull.p8 q11, d26, d22 @ G = A*B2
120 veor q9, q9, q11 @ M = G + H
127 vmull.p8 q11, d26, d22 @ K = A*B4
139 vext.8 q11, q11, q11, #12
142 veor q10, q10, q11
153 vmull.p8 q11, d28, d22 @ G = A*B2
158 veor q9, q9, q11 @ M = G + H
165 vmull.p8 q11, d28, d22 @ K = A*B4
177 vext.8 q11, q11, q11, #12
180 veor q10, q10, q11
[all …]
Dghashv8-armx32.S29 vmov.i8 q11,#0xe1
30 vshl.i64 q11,q11,#57 @ 0xc2.0
32 vshr.u64 q10,q11,#63
34 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
56 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
63 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
82 vmov.i8 q11,#0xe1
84 vshl.u64 q11,q11,#57
99 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
106 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]
/external/openscreen/third_party/boringssl/linux-arm/crypto/fipsmodule/
Dghash-armv4.S110 vmull.p8 q11, d26, d22 @ G = A*B2
115 veor q9, q9, q11 @ M = G + H
122 vmull.p8 q11, d26, d22 @ K = A*B4
134 vext.8 q11, q11, q11, #12
137 veor q10, q10, q11
148 vmull.p8 q11, d28, d22 @ G = A*B2
153 veor q9, q9, q11 @ M = G + H
160 vmull.p8 q11, d28, d22 @ K = A*B4
172 vext.8 q11, q11, q11, #12
175 veor q10, q10, q11
[all …]
Dghashv8-armx32.S29 vmov.i8 q11,#0xe1
30 vshl.i64 q11,q11,#57 @ 0xc2.0
32 vshr.u64 q10,q11,#63
34 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
56 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
63 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
81 vmov.i8 q11,#0xe1
83 vshl.u64 q11,q11,#57
98 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
105 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]

1234567891011