Home
last modified time | relevance | path

Searched refs:q12 (Results 1 – 25 of 131) sorted by relevance

123456

/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s198 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
206 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
240 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
251 …vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(par…
261 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
262 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
275 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
308 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
313 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
Dihevc_itrans_recon_32x32.s217 vmull.s16 q12,d8,d0[1] @// y1 * cos1(part of b0)
222 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
257 vmlal.s16 q12,d14,d1[1]
263 vmlal.s16 q12,d15,d1[3]
287 vmlal.s16 q12,d8,d2[1] @// y1 * cos1(part of b0)
292 vmlal.s16 q12,d9,d2[3] @// y1 * cos1 + y3 * cos3(part of b0)
331 vmlal.s16 q12,d14,d3[1]
337 vmlal.s16 q12,d15,d3[3]
363 vmlal.s16 q12,d8,d4[1] @// y1 * cos1(part of b0)
368 vmlal.s16 q12,d9,d4[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
Dihevc_itrans_recon_16x16.s243 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
248 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
270 vmlal.s16 q12,d8,d1[1]
276 vmlal.s16 q12,d9,d1[3]
318 vmlal.s16 q12,d6,d2[1] @// y1 * cos1(part of b0)
323 vmlal.s16 q12,d7,d2[3] @// y1 * cos1 + y3 * cos3(part of b0)
330 vmlal.s16 q12,d8,d3[1]
336 vmlal.s16 q12,d9,d3[3]
371 vadd.s32 q10,q6,q12
372 vsub.s32 q11,q6,q12
[all …]
Dihevc_intra_pred_chroma_horz.s211 @vsubl.u8 q12,d30,d28
214 @vshr.s16 q12,q12,#1
217 @vqadd.s16 q11,q13,q12
225 @vsubl.u8 q12,d31,d28
228 @vshr.s16 q12,q12,#1
231 @vqadd.s16 q11,q13,q12
292 vsubl.u8 q12,d30,d28
295 vshr.s16 q12,q12,#1
298 vqadd.s16 q11,q13,q12
333 vsubl.u8 q12,d30,d28
[all …]
Dihevc_intra_pred_luma_horz.s204 vsubl.u8 q12,d30,d28
207 vshr.s16 q12,q12,#1
210 vqadd.s16 q11,q13,q12
218 vsubl.u8 q12,d31,d28
221 vshr.s16 q12,q12,#1
224 vqadd.s16 q11,q13,q12
282 vsubl.u8 q12,d30,d28
285 vshr.s16 q12,q12,#1
288 vqadd.s16 q11,q13,q12
323 vsubl.u8 q12,d30,d28
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s223 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
225 vmlal.s16 q12,d4,d13
227 vmlal.s16 q12,d5,d14
229 vmlal.s16 q12,d6,d15
246 vqshrn.s32 d24,q12,#6 @right shift
259 vqrshrun.s16 d24,q12,#6 @rounding shift
275 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
278 vmlal.s16 q12,d4,d13
280 vmlal.s16 q12,d5,d14
283 vmlal.s16 q12,d6,d15
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s221 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
223 vmlal.s16 q12,d4,d13
225 vmlal.s16 q12,d5,d14
227 vmlal.s16 q12,d6,d15
243 vqshrn.s32 d24,q12,#6 @right shift
269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
271 vmlal.s16 q12,d4,d13
274 vmlal.s16 q12,d5,d14
277 vmlal.s16 q12,d6,d15
293 vqshrn.s32 d24,q12,#6 @right shift
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s145 vaddl.u8 q12, d2, d17 @ temp2 = src[0_0] + src[5_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
204 vaddl.u8 q12, d5, d2 @ temp2 = src[0_0] + src[5_0]
207 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s148 vaddl.u8 q12, d0, d10
149 vmlal.u8 q12, d4, d30
150 vmlal.u8 q12, d6, d30
151 vmlsl.u8 q12, d2, d31
152 vmlsl.u8 q12, d8, d31
158 vqrshrun.s16 d26, q12, #5
165 vaddl.u8 q12, d1, d11
166 vmlal.u8 q12, d5, d30
167 vmlal.u8 q12, d7, d30
168 vmlsl.u8 q12, d3, d31
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s135 vmov.u16 q12, #0x5 @ Filter coeff 5 into Q12
171 vaddl.u8 q12, d5, d7
174 vmla.u16 q10, q12, q14
175 vaddl.u8 q12, d14, d15
180 vmla.u16 q11, q12, q14
184 vext.16 q12, q9, q10, #2
188 vadd.s16 q0, q12, q13
189 vext.16 q12, q9, q10, #1
191 vadd.s16 q12, q12, q13
206 vext.16 q12, q10, q11, #2
[all …]
Dih264_inter_pred_filters_luma_vert_a9q.s113 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12
138 vmls.u16 q7, q8, q12 @ temp -= temp2 * 5
142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5
149 vmls.u16 q8, q9, q12
157 vmls.u16 q7, q13, q12
163 vmls.u16 q9, q10, q12
171 vmls.u16 q8, q13, q12
178 vmls.u16 q7, q10, q12
181 vmls.u16 q9, q13, q12
218 vmls.u16 q4, q5, q12 @ temp -= temp2 * 5
[all …]
/external/boringssl/linux-arm/crypto/fipsmodule/
Dsha1-armv4-large.S539 vext.8 q12,q3,q15,#4
546 veor q12,q12,q2
549 veor q12,q12,q8
556 vext.8 q13,q15,q12,#4
559 vadd.i32 q8,q12,q12
562 vsri.32 q8,q12,#31
566 vshr.u32 q12,q13,#30
572 veor q8,q8,q12
587 vext.8 q12,q8,q15,#4
594 veor q12,q12,q3
[all …]
Dghashv8-armx32.S27 veor q12,q3,q8 @ twisted H
28 vst1.64 {q12},[r0]! @ store Htable[0]
31 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing
32 .byte 0xa8,0x0e,0xa8,0xf2 @ pmull q0,q12,q12
33 veor q8,q8,q12
34 .byte 0xa9,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q12
66 vld1.64 {q12,q13},[r1] @ load twisted H, ...
73 .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo·Xi.lo
75 .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q3 @ H.hi·Xi.hi
123 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2
[all …]
Dbsaes-armv7.S1169 vld1.8 {q12,q13}, [r0]!
1173 veor q7, q7, q12
1223 vld1.8 {q12,q13}, [r0]!
1227 veor q7, q7, q12
1246 vld1.8 {q12}, [r0]!
1250 veor q7, q7, q12
1454 vld1.8 {q12,q13}, [r0]!
1458 veor q3, q12
1499 vld1.8 {q12}, [r0]!
1500 veor q3, q12
[all …]
/external/boringssl/ios-arm/crypto/fipsmodule/
Dsha1-armv4-large.S542 vext.8 q12,q3,q15,#4
549 veor q12,q12,q2
552 veor q12,q12,q8
559 vext.8 q13,q15,q12,#4
562 vadd.i32 q8,q12,q12
565 vsri.32 q8,q12,#31
569 vshr.u32 q12,q13,#30
575 veor q8,q8,q12
590 vext.8 q12,q8,q15,#4
597 veor q12,q12,q3
[all …]
Dghashv8-armx32.S28 veor q12,q3,q8 @ twisted H
29 vst1.64 {q12},[r0]! @ store Htable[0]
32 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing
33 .byte 0xa8,0x0e,0xa8,0xf2 @ pmull q0,q12,q12
34 veor q8,q8,q12
35 .byte 0xa9,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q12
69 vld1.64 {q12,q13},[r1] @ load twisted H, ...
76 .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo·Xi.lo
78 .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q3 @ H.hi·Xi.hi
128 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2
[all …]
Dbsaes-armv7.S1176 vld1.8 {q12,q13}, [r0]!
1180 veor q7, q7, q12
1230 vld1.8 {q12,q13}, [r0]!
1234 veor q7, q7, q12
1253 vld1.8 {q12}, [r0]!
1257 veor q7, q7, q12
1463 vld1.8 {q12,q13}, [r0]!
1467 veor q3, q12
1508 vld1.8 {q12}, [r0]!
1509 veor q3, q12
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s453 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
461 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
495 vmlal.s16 q12, d14, d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
506 …vmlal.s16 q12, d15, d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of…
516 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0)
517 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7)
519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
530 vqrshrn.s32 d3, q12, #idct_stg1_shift @// r2 = (a2 + b2 + rnd) >> 7(IDCT_STG1_SHIFT)
567 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
572 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
/external/llvm/test/MC/ARM/
Dneon-cmp-encoding.s116 vclt.s8 q12, q13, q3
117 vclt.s16 q12, q13, q3
118 vclt.s32 q12, q13, q3
119 vclt.u8 q12, q13, q3
120 vclt.u16 q12, q13, q3
121 vclt.u32 q12, q13, q3
122 vclt.f32 q12, q13, q3
132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2]
133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2]
134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2]
[all …]
/external/capstone/suite/MC/ARM/
Dneon-cmp-encoding.s.cs53 0x6a,0x83,0x46,0xf2 = vcgt.s8 q12, q3, q13
54 0x6a,0x83,0x56,0xf2 = vcgt.s16 q12, q3, q13
55 0x6a,0x83,0x66,0xf2 = vcgt.s32 q12, q3, q13
56 0x6a,0x83,0x46,0xf3 = vcgt.u8 q12, q3, q13
57 0x6a,0x83,0x56,0xf3 = vcgt.u16 q12, q3, q13
58 0x6a,0x83,0x66,0xf3 = vcgt.u32 q12, q3, q13
59 0x6a,0x8e,0x66,0xf3 = vcgt.f32 q12, q3, q13
81 0xf6,0x2e,0x68,0xf3 = vacgt.f32 q9, q12, q11
83 0xf6,0x6e,0x68,0xf3 = vacgt.f32 q11, q12, q11
85 0xf6,0x2e,0x48,0xf3 = vacge.f32 q9, q12, q11
[all …]
/external/libxaac/decoder/armv7/
Dixheaacd_sbr_imdct_using_fft.s230 VADD.I32 q7, q14, q12
234 VSUB.I32 q3, q14, q12
242 VSUB.I32 q12, q15, q13
264 VADD.S32 q14, q3, q12
265 VSUB.S32 q10, q3, q12
267 VSUB.S32 q12, q13, q1
269 VADD.S32 q1 , q14, q12
270 VSUB.S32 q13, q14, q12
271 VSUB.S32 q12, q3, q10
368 VPOP {q12, q13}
[all …]
Dixheaacd_imdct_using_fft.s226 VADD.I32 q7, q14, q12
230 VSUB.I32 q3, q14, q12
238 VSUB.I32 q12, q15, q13
260 VADD.S32 q14, q3, q12
261 VSUB.S32 q10, q3, q12
263 VSUB.S32 q12, q13, q1
265 VADD.S32 q1 , q14, q12
266 VSUB.S32 q13, q14, q12
267 VSUB.S32 q12, q3, q10
364 VPOP {q12, q13}
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s309 vaddl.u8 q12, d4, d19 @// a0 + a5 (column3,row0)
311 vmlal.u8 q12, d10, d1 @// a0 + a5 + 20a2 (column3,row0)
312 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
313 vmlsl.u8 q12, d7, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
314 vmlsl.u8 q12, d16, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
329 …vqrshrun.s16 d4, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r…
413 vaddl.u8 q12, d7, d4 @// a0 + a5 (column3,row0)
415 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 (column3,row0)
416 vmlal.u8 q12, d16, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
417 vmlsl.u8 q12, d10, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
[all …]
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S105 vshr.u64 q12,q12,#12
111 vand q2,q12,q2
118 vadd.i64 q12,q4,q1
120 vshr.s64 q12,q12,#26
122 vadd.i64 q5,q5,q12
123 vshl.i64 q12,q12,#26
128 vsub.i64 q4,q4,q12
129 vshr.s64 q12,q14,#25
132 vadd.i64 q6,q6,q12
133 vshl.i64 q12,q12,#25
[all …]

123456