Home
last modified time | relevance | path

Searched refs:q12 (Results 1 – 25 of 100) sorted by relevance

1234

/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
200 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
234 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
245 …vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(par…
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
269 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
302 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
307 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
Dihevc_itrans_recon_32x32.s211 vmull.s16 q12,d8,d0[1] @// y1 * cos1(part of b0)
216 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
251 vmlal.s16 q12,d14,d1[1]
257 vmlal.s16 q12,d15,d1[3]
281 vmlal.s16 q12,d8,d2[1] @// y1 * cos1(part of b0)
286 vmlal.s16 q12,d9,d2[3] @// y1 * cos1 + y3 * cos3(part of b0)
325 vmlal.s16 q12,d14,d3[1]
331 vmlal.s16 q12,d15,d3[3]
357 vmlal.s16 q12,d8,d4[1] @// y1 * cos1(part of b0)
362 vmlal.s16 q12,d9,d4[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
Dihevc_intra_pred_luma_horz.s202 vsubl.u8 q12,d30,d28
205 vshr.s16 q12,q12,#1
208 vqadd.s16 q11,q13,q12
216 vsubl.u8 q12,d31,d28
219 vshr.s16 q12,q12,#1
222 vqadd.s16 q11,q13,q12
280 vsubl.u8 q12,d30,d28
283 vshr.s16 q12,q12,#1
286 vqadd.s16 q11,q13,q12
320 vsubl.u8 q12,d30,d28
[all …]
Dihevc_itrans_recon_16x16.s242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
247 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
269 vmlal.s16 q12,d8,d1[1]
275 vmlal.s16 q12,d9,d1[3]
317 vmlal.s16 q12,d6,d2[1] @// y1 * cos1(part of b0)
322 vmlal.s16 q12,d7,d2[3] @// y1 * cos1 + y3 * cos3(part of b0)
329 vmlal.s16 q12,d8,d3[1]
335 vmlal.s16 q12,d9,d3[3]
370 vadd.s32 q10,q6,q12
371 vsub.s32 q11,q6,q12
[all …]
Dihevc_intra_pred_chroma_horz.s207 @vsubl.u8 q12,d30,d28
210 @vshr.s16 q12,q12,#1
213 @vqadd.s16 q11,q13,q12
221 @vsubl.u8 q12,d31,d28
224 @vshr.s16 q12,q12,#1
227 @vqadd.s16 q11,q13,q12
287 vsubl.u8 q12,d30,d28
290 vshr.s16 q12,q12,#1
293 vqadd.s16 q11,q13,q12
327 vsubl.u8 q12,d30,d28
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
219 vmlal.s16 q12,d4,d13
221 vmlal.s16 q12,d5,d14
223 vmlal.s16 q12,d6,d15
240 vqshrn.s32 d24,q12,#6 @right shift
253 vqrshrun.s16 d24,q12,#6 @rounding shift
269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
272 vmlal.s16 q12,d4,d13
274 vmlal.s16 q12,d5,d14
277 vmlal.s16 q12,d6,d15
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
217 vmlal.s16 q12,d4,d13
219 vmlal.s16 q12,d5,d14
221 vmlal.s16 q12,d6,d15
237 vqshrn.s32 d24,q12,#6 @right shift
263 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
265 vmlal.s16 q12,d4,d13
268 vmlal.s16 q12,d5,d14
271 vmlal.s16 q12,d6,d15
287 vqshrn.s32 d24,q12,#6 @right shift
[all …]
Dihevc_inter_pred_chroma_vert_w16out.s258 vmull.u8 q12,d8,d1
260 vmlsl.u8 q12,d7,d0
263 vmlal.u8 q12,d9,d2
265 vmlsl.u8 q12,d10,d3
289 vst1.8 {q12},[r7],r3 @stores the loaded value
311 vmull.u8 q12,d8,d1
318 vmlsl.u8 q12,d7,d0
322 vmlal.u8 q12,d9,d2
325 vmlsl.u8 q12,d10,d3
343 vst1.8 {q12},[r7],r3 @stores the loaded value
[all …]
/external/libvpx/libvpx/vpx_dsp/arm/
Dsad_neon.c23 uint16x8_t q12; in vpx_sad8x16_neon() local
33 q12 = vabdl_u8(d0, d8); in vpx_sad8x16_neon()
40 q12 = vabal_u8(q12, d0, d8); in vpx_sad8x16_neon()
43 q1 = vpaddlq_u16(q12); in vpx_sad8x16_neon()
57 uint16x8_t q12; in vpx_sad4x4_neon() local
66 q12 = vabdl_u8(d0, d8); in vpx_sad4x4_neon()
73 q12 = vabal_u8(q12, d0, d8); in vpx_sad4x4_neon()
76 d1 = vpaddl_u16(vget_low_u16(q12)); in vpx_sad4x4_neon()
88 uint16x8_t q12, q13; in vpx_sad16x8_neon() local
98 q12 = vabdl_u8(vget_low_u8(q0), vget_low_u8(q4)); in vpx_sad16x8_neon()
[all …]
Didct16x16_add_neon.asm30 vtrn.32 q12, q14
34 vtrn.16 q12, q13
56 vld2.s16 {q11,q12}, [r0]!
57 vld2.s16 {q12,q13}, [r0]!
167 vadd.s32 q12, q11, q1
175 vqrshrn.s32 d17, q12, #14 ; >> 14
187 vmull.s16 q12, d20, d30
195 vmlsl.s16 q12, d28, d31
203 vqrshrn.s32 d20, q12, #14 ; >> 14
225 vmull.s16 q12, d27, d16
[all …]
Didct16x16_1_add_neon.asm64 vaddw.u8 q12, q0, d5 ; dest[x] + a1
68 vqmovun.s16 d31, q12 ; clip_pixel
77 vaddw.u8 q12, q0, d17 ; dest[x] + a1
81 vqmovun.s16 d31, q12 ; clip_pixel
100 vaddw.u8 q12, q0, d5 ; dest[x] + a1
104 vqmovun.s16 d31, q12 ; clip_pixel
113 vaddw.u8 q12, q0, d17 ; dest[x] + a1
117 vqmovun.s16 d31, q12 ; clip_pixel
136 vaddw.u8 q12, q0, d5 ; dest[x] + a1
140 vqmovun.s16 d31, q12 ; clip_pixel
[all …]
Didct8x8_add_neon.asm116 vmull.s16 q12, d21, d1
124 vmlal.s16 q12, d29, d0
132 vqrshrn.s32 d31, q12, #14 ; >> 14
154 vmull.s16 q12, d29, d16
162 vmlal.s16 q12, d27, d16
170 vqrshrn.s32 d13, q12, #14 ; >> 14
177 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4];
192 vtrn.32 q12, q14
196 vtrn.16 q12, q13
212 vld1.s16 {q12,q13}, [r0]!
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s145 vaddl.u8 q12, d2, d17 @ temp2 = src[0_0] + src[5_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
204 vaddl.u8 q12, d5, d2 @ temp2 = src[0_0] + src[5_0]
207 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s148 vaddl.u8 q12, d0, d10
149 vmlal.u8 q12, d4, d30
150 vmlal.u8 q12, d6, d30
151 vmlsl.u8 q12, d2, d31
152 vmlsl.u8 q12, d8, d31
158 vqrshrun.s16 d26, q12, #5
165 vaddl.u8 q12, d1, d11
166 vmlal.u8 q12, d5, d30
167 vmlal.u8 q12, d7, d30
168 vmlsl.u8 q12, d3, d31
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s135 vmov.u16 q12, #0x5 @ Filter coeff 5 into Q12
171 vaddl.u8 q12, d5, d7
174 vmla.u16 q10, q12, q14
175 vaddl.u8 q12, d14, d15
180 vmla.u16 q11, q12, q14
184 vext.16 q12, q9, q10, #2
188 vadd.s16 q0, q12, q13
189 vext.16 q12, q9, q10, #1
191 vadd.s16 q12, q12, q13
206 vext.16 q12, q10, q11, #2
[all …]
Dih264_inter_pred_filters_luma_vert_a9q.s113 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12
138 vmls.u16 q7, q8, q12 @ temp -= temp2 * 5
142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5
149 vmls.u16 q8, q9, q12
157 vmls.u16 q7, q13, q12
163 vmls.u16 q9, q10, q12
171 vmls.u16 q8, q13, q12
178 vmls.u16 q7, q10, q12
181 vmls.u16 q9, q13, q12
218 vmls.u16 q4, q5, q12 @ temp -= temp2 * 5
[all …]
/external/boringssl/linux-arm/crypto/sha/
Dsha1-armv4-large.S517 vext.8 q12,q3,q15,#4
524 veor q12,q12,q2
527 veor q12,q12,q8
534 vext.8 q13,q15,q12,#4
537 vadd.i32 q8,q12,q12
540 vsri.32 q8,q12,#31
544 vshr.u32 q12,q13,#30
550 veor q8,q8,q12
565 vext.8 q12,q8,q15,#4
572 veor q12,q12,q3
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s447 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
455 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
489 vmlal.s16 q12, d14, d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
500 …vmlal.s16 q12, d15, d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of…
510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0)
511 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7)
513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
524 vqrshrn.s32 d3, q12, #idct_stg1_shift @// r2 = (a2 + b2 + rnd) >> 7(IDCT_STG1_SHIFT)
561 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
566 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
/external/llvm/test/MC/ARM/
Dneon-cmp-encoding.s116 vclt.s8 q12, q13, q3
117 vclt.s16 q12, q13, q3
118 vclt.s32 q12, q13, q3
119 vclt.u8 q12, q13, q3
120 vclt.u16 q12, q13, q3
121 vclt.u32 q12, q13, q3
122 vclt.f32 q12, q13, q3
132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2]
133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2]
134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2]
[all …]
/external/boringssl/linux-arm/crypto/modes/
Dghashv8-armx32.S25 veor q12,q3,q8 @ twisted H
26 vst1.64 {q12},[r0]! @ store Htable[0]
29 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing
30 .byte 0xa8,0x0e,0xa8,0xf2 @ pmull q0,q12,q12
31 veor q8,q8,q12
32 .byte 0xa9,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q12
63 vld1.64 {q12,q13},[r1] @ load twisted H, ...
70 .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo·Xi.lo
72 .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q3 @ H.hi·Xi.hi
119 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2
[all …]
/external/boringssl/linux-arm/crypto/aes/
Dbsaes-armv7.S1161 vld1.8 {q12,q13}, [r0]!
1165 veor q7, q7, q12
1215 vld1.8 {q12,q13}, [r0]!
1219 veor q7, q7, q12
1238 vld1.8 {q12}, [r0]!
1242 veor q7, q7, q12
1446 vld1.8 {q12,q13}, [r0]!
1450 veor q3, q12
1491 vld1.8 {q12}, [r0]!
1492 veor q3, q12
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s309 vaddl.u8 q12, d4, d19 @// a0 + a5 (column3,row0)
311 vmlal.u8 q12, d10, d1 @// a0 + a5 + 20a2 (column3,row0)
312 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
313 vmlsl.u8 q12, d7, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
314 vmlsl.u8 q12, d16, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
329 …vqrshrun.s16 d4, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r…
413 vaddl.u8 q12, d7, d4 @// a0 + a5 (column3,row0)
415 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 (column3,row0)
416 vmlal.u8 q12, d16, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
417 vmlsl.u8 q12, d10, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
[all …]
/external/libjpeg-turbo/simd/
Djsimd_arm_neon.S254 vmul.s16 q12, q12, q0
507 vqrshrn.s16 d20, q12, #2
741 vmul.s16 q12, q12, q0
768 vsub.s16 q6, q8, q12
769 vadd.s16 q12, q8, q12
774 vadd.s16 q8, q12, q14
776 vsub.s16 q12, q12, q14
789 vsub.s16 q11, q12, q1
791 vadd.s16 q12, q12, q1
793 vtrn.16 q12, q13
[all …]
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S103 vshr.u64 q12,q12,#12
109 vand q2,q12,q2
116 vadd.i64 q12,q4,q1
118 vshr.s64 q12,q12,#26
120 vadd.i64 q5,q5,q12
121 vshl.i64 q12,q12,#26
126 vsub.i64 q4,q4,q12
127 vshr.s64 q12,q14,#25
130 vadd.i64 q6,q6,q12
131 vshl.i64 q12,q12,#25
[all …]

1234