Home
last modified time | relevance | path

Searched refs:q14 (Results 1 – 25 of 113) sorted by relevance

12345

/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"()
147 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"()
149 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"()
151 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"()
153 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"()
155 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"()
157 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"()
159 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"()
161 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"()
163 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"()
[all …]
/external/llvm/test/MC/ARM/
Dneon-shuffle-encoding.s95 vtrn.8 q14, q6
96 vtrn.i8 q14, q6
97 vtrn.u8 q14, q6
98 vtrn.p8 q14, q6
99 vtrn.16 q14, q6
100 vtrn.i16 q14, q6
101 vtrn.u16 q14, q6
102 vtrn.p16 q14, q6
103 vtrn.32 q14, q6
104 vtrn.i32 q14, q6
[all …]
/external/capstone/suite/MC/ARM/
Dneon-shuffle-encoding.s.cs47 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6
48 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6
49 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6
50 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6
51 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6
52 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6
53 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6
54 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6
55 0xcc,0xc0,0xfa,0xf3 = vtrn.32 q14, q6
56 0xcc,0xc0,0xfa,0xf3 = vtrn.32 q14, q6
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s202 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
210 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
242 vmlal.s16 q14,d14,d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2)
253 …vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(par…
264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
267 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
277 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct)
310 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
315 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
[all …]
Dihevc_itrans_recon_32x32.s219 vmull.s16 q14,d8,d1[1] @// y1 * sin3(part of b2)
224 vmlal.s16 q14,d9,d3[3] @// y1 * sin3 - y3 * cos1(part of b2)
259 vmlal.s16 q14,d14,d6[1]
265 vmlsl.s16 q14,d15,d7[1]
289 vmlsl.s16 q14,d8,d4[3] @// y1 * sin3(part of b2)
294 vmlsl.s16 q14,d9,d2[1] @// y1 * sin3 - y3 * cos1(part of b2)
333 vmlsl.s16 q14,d14,d0[1]
339 vmlsl.s16 q14,d15,d2[3]
365 vmlsl.s16 q14,d8,d5[1] @// y1 * sin3(part of b2)
370 vmlsl.s16 q14,d9,d7[3] @// y1 * sin3 - y3 * cos1(part of b2)
[all …]
Dihevc_itrans_recon_16x16.s245 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
250 vmlal.s16 q14,d7,d3[3] @// y1 * sin3 - y3 * cos1(part of b2)
272 vmlsl.s16 q14,d8,d1[3]
278 vmlsl.s16 q14,d9,d0[3]
320 vmlsl.s16 q14,d6,d3[1] @// y1 * sin3(part of b2)
325 vmlal.s16 q14,d7,d2[1] @// y1 * sin3 - y3 * cos1(part of b2)
332 vmlal.s16 q14,d8,d0[1]
338 vmlal.s16 q14,d9,d2[3]
377 vadd.s32 q7,q8,q14
378 vsub.s32 q13,q8,q14
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s201 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
203 vmlal.s16 q14,d2,d13
205 vmlal.s16 q14,d3,d14
207 vmlal.s16 q14,d4,d15
220 vqshrn.s32 d28,q14,#6 @right shift
234 vqrshrun.s16 d28,q14,#6 @rounding shift
250 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
251 vmlal.s16 q14,d2,d13
252 vmlal.s16 q14,d3,d14
253 vmlal.s16 q14,d4,d15
[all …]
Dihevc_intra_pred_chroma_planar.s193 vmull.u8 q14,d5,d0
195 vmlal.u8 q14,d6,d11
199 vmlal.u8 q14,d31,d4
201 vmlal.u8 q14,d9,d1
209 vadd.i16 q14,q14,q8
211 vshl.s16 q14,q14,q7
224 vmovn.i16 d13,q14
261 vmull.u8 q14,d18,d0
264 vmlal.u8 q14,d19,d11
268 vmlal.u8 q14,d9,d1
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s200 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
203 vmlal.s16 q14,d2,d13
204 vmlal.s16 q14,d3,d14
206 vmlal.s16 q14,d4,d15
218 vqshrn.s32 d28,q14,#6 @right shift
246 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
247 vmlal.s16 q14,d2,d13
248 vmlal.s16 q14,d3,d14
249 vmlal.s16 q14,d4,d15
266 vqshrn.s32 d28,q14,#6 @right shift
[all …]
Dihevc_inter_pred_chroma_vert_w16out.s245 vmull.u8 q14,d6,d1 @mul_res 2
247 vmlsl.u8 q14,d5,d0
249 vmlal.u8 q14,d7,d2
251 vmlsl.u8 q14,d8,d3
274 vst1.8 {q14},[r7],r3 @stores the loaded value
291 vmull.u8 q14,d6,d1 @mul_res 2
293 vmlsl.u8 q14,d5,d0
296 vmlal.u8 q14,d7,d2
299 vmlsl.u8 q14,d8,d3
331 vst1.8 {q14},[r7],r3 @stores the loaded value
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s152 vaddl.u8 q14, d4, d19 @ temp2 = src[0_0] + src[5_0]
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2)
182 vext.16 q11, q13, q14, #2 @//extract a[2] (column2)
187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2)
188 vext.16 q11, q13, q14, #1 @//extract a[1] (column2)
191 vext.16 q10, q13, q14, #4 @//extract a[4] (column2)
211 vaddl.u8 q14, d7, d4 @ temp2 = src[0_0] + src[5_0]
215 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s159 vaddl.u8 q14, d18, d23
160 vmlal.u8 q14, d20, d30
161 vmlal.u8 q14, d21, d30
162 vmlsl.u8 q14, d19, d31
163 vmlsl.u8 q14, d22, d31
170 vqrshrun.s16 d28, q14, #5
198 vrhadd.u8 q14, q14, q13
204 vst1.32 {q14}, [r1], r3 @ store row 0
208 vaddl.u8 q14, d18, d23
209 vmlal.u8 q14, d20, d30
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s145 vmov.u16 q14, #0x14 @ Filter coeff 20 into Q13
170 vmla.u16 q9, q10, q14
174 vmla.u16 q10, q12, q14
180 vmla.u16 q11, q12, q14
247 vmla.u16 q9, q10, q14
251 vmla.u16 q10, q12, q14
257 vmla.u16 q11, q12, q14
341 vaddl.u8 q14, d2, d0
345 vmla.u16 q14, q8, q13
350 vmls.u16 q14, q9, q12
[all …]
Dih264_deblk_luma_a9.s118 vabd.u8 q14, q5, q3 @Q14 = Ap = ABS(p2 - p0)
125 vcgt.u8 q10, q8, q14 @Q10=(Ap<Beta)
132 vsubl.u8 q14, d8, d2 @Q14 = (p1 - q1)L
137 vadd.i16 q12, q12, q14 @
147 vaddl.u8 q14, d17, d11 @
155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1)
159 vqshrn.s16 d29, q14, #1 @
164 vmin.s8 q14, q14, q7 @Q14 = min(C0,i_macro_p1)
168 vmax.s8 q14, q14, q13 @Q14 = max( - C0 , min(C0, i_macro_p1) )
172 vand.i8 q14, q10, q14 @condition check Ap<beta
[all …]
Dih264_intra_pred_luma_16x16_a9q.s479 vshl.s16 q14, q2, #3
484 vsub.s16 q15, q15, q14
486 vadd.s16 q14, q15, q3
489 vadd.s16 q13, q14, q0
490 vadd.s16 q14, q14, q1
492 vqrshrun.s16 d21, q14, #5
497 vadd.s16 q14, q14, q3
500 vqrshrun.s16 d23, q14, #5
504 vadd.s16 q14, q14, q3
507 vqrshrun.s16 d21, q14, #5
[all …]
/external/libavc/encoder/arm/
Dih264e_evaluate_intra4x4_modes_a9q.s157 vabdl.u8 q14, d4, d20
158 vabal.u8 q14, d4, d21
182 vabdl.u8 q14, d6, d20
184 vabal.u8 q14, d7, d21
219 vabdl.u8 q14, d8, d20
220 vabal.u8 q14, d9, d21
263 vext.32 q14, q13, q13, #3
267 vabdl.u8 q14, d14, d20
269 vabal.u8 q14, d15, d21
292 vext.32 q14, q13, q13, #3
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s457 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2)
465 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
497 vmlal.s16 q14, d14, d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2)
508 …vmlal.s16 q14, d15, d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of…
519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
520 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
522 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1)
532 vqrshrn.s32 d6, q14, #idct_stg1_shift @// r1 = (a1 + b1 + rnd) >> 7(IDCT_STG1_SHIFT)
569 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2)
574 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
[all …]
/external/libxaac/decoder/armv7/
Dixheaacd_sbr_imdct_using_fft.s230 VADD.I32 q7, q14, q12
234 VSUB.I32 q3, q14, q12
238 VADD.I32 q14, q15, q13
261 VADD.S32 q7, q14, q10
262 VSUB.S32 q15, q14, q10
264 VADD.S32 q14, q3, q12
269 VADD.S32 q1 , q14, q12
270 VSUB.S32 q13, q14, q12
274 VADD.S32 q14, q3, q10
334 VMULL.u16 q14, d2, d20
[all …]
Dixheaacd_imdct_using_fft.s226 VADD.I32 q7, q14, q12
230 VSUB.I32 q3, q14, q12
234 VADD.I32 q14, q15, q13
257 VADD.S32 q7, q14, q10
258 VSUB.S32 q15, q14, q10
260 VADD.S32 q14, q3, q12
265 VADD.S32 q1 , q14, q12
266 VSUB.S32 q13, q14, q12
270 VADD.S32 q14, q3, q10
330 VMULL.u16 q14, d2, d20
[all …]
Dixheaacd_fft32x32_ld.s108 @ b_data6_r=q14
233 @VHADD.S32 q7, q14, q12 @b_data1_r=vhaddq_s32(a_data1_r,a_data5_r)@
234 VADD.I32 q7, q14, q12 @b_data1_r=vhaddq_s32(a_data1_r,a_data5_r)@
237 @VHSUB.S32 q3, q14, q12 @b_data5_r=vhsubq_s32(a_data1_r,a_data5_r)@
238 VSUB.I32 q3, q14, q12 @b_data5_r=vhsubq_s32(a_data1_r,a_data5_r)@
241 @VHADD.S32 q14, q15, q13 @b_data1_i=vhaddq_s32(a_data1_i,a_data5_i)@
242 VADD.I32 q14, q15, q13 @b_data1_i=vhaddq_s32(a_data1_i,a_data5_i)@
265 VADD.S32 q7, q14, q10 @c_data1_i=vaddq_s32(b_data1_i,b_data3_i)@
266 VSUB.S32 q15, q14, q10 @c_data3_i=vsubq_s32(b_data1_i,b_data3_i)@
268 VADD.S32 q14, q3, q12 @c_data5_r=vaddq_s32(b_data5_r,b_data5_i)@
[all …]
/external/libvpx/libvpx/vpx_dsp/arm/
Dloopfilter_16_neon.asm514 vaddl.u8 q14, d6, d9
519 vadd.i16 q15, q14
520 vaddl.u8 q14, d7, d10
524 vadd.i16 q15, q14
525 vaddl.u8 q14, d8, d11
530 vadd.i16 q15, q14
531 vaddl.u8 q14, d9, d11
536 vadd.i16 q15, q14
537 vaddl.u8 q14, d10, d11
542 vadd.i16 q15, q14
[all …]
Didct4x4_add_neon.asm81 vmull.s16 q14, d18, d21
82 vadd.s32 q13, q8, q14
83 vsub.s32 q14, q8, q14
92 vrshrn.s32 d27, q14, #14
101 vadd.s16 q8, q13, q14
102 vsub.s16 q9, q13, q14
134 vmull.s16 q14, d24, d21
143 vrshrn.s32 d27, q14, #14
152 vadd.s16 q8, q13, q14
153 vsub.s16 q9, q13, q14
/external/libjpeg-turbo/simd/
Djsimd_arm_neon.S259 vmul.s16 q14, q14, q2
515 vqrshrn.s16 d22, q14, #2
748 vmul.s16 q14, q14, q2
754 vsub.s16 q2, q10, q14
755 vadd.s16 q14, q10, q14
771 vsub.s16 q10, q10, q14
779 vadd.s16 q8, q12, q14
781 vsub.s16 q12, q12, q14
788 vadd.s16 q14, q5, q3
795 vtrn.16 q14, q15
[all …]
/external/boringssl/linux-arm/crypto/fipsmodule/
Dbsaes-armv7.S1163 vldmia r9, {q14} @ reload IV
1165 veor q0, q0, q14 @ ^= IV
1172 vld1.8 {q14,q15}, [r0]!
1177 veor q5, q5, q14
1217 vldmia r9, {q14} @ reload IV
1219 veor q0, q0, q14 @ ^= IV
1240 vldmia r9,{q14} @ reload IV
1242 veor q0, q0, q14 @ ^= IV
1261 vldmia r9, {q14} @ reload IV
1263 veor q0, q0, q14 @ ^= IV
[all …]
/external/boringssl/ios-arm/crypto/fipsmodule/
Dbsaes-armv7.S1170 vldmia r9, {q14} @ reload IV
1172 veor q0, q0, q14 @ ^= IV
1179 vld1.8 {q14,q15}, [r0]!
1184 veor q5, q5, q14
1224 vldmia r9, {q14} @ reload IV
1226 veor q0, q0, q14 @ ^= IV
1247 vldmia r9,{q14} @ reload IV
1249 veor q0, q0, q14 @ ^= IV
1268 vldmia r9, {q14} @ reload IV
1270 veor q0, q0, q14 @ ^= IV
[all …]

12345