Home
last modified time | relevance | path

Searched refs:Q9 (Results 1 – 25 of 260) sorted by relevance

1234567891011

/external/libxaac/decoder/armv7/
Dixheaacd_overlap_add2.s80 VMULL.U16 Q9, D8, D10
82 VMLSL.U16 Q9, D12, D11
88 VSHR.S32 Q9, Q9, #16
90 VMLAL.S16 Q9, D9, D10
97 VMLSL.S16 Q9, D13, D11
105 VQADD.S32 Q8, Q9, Q10
124 VMULL.U16 Q9, D8, D10
125 VMLSL.U16 Q9, D12, D11
128 VSHR.S32 Q9, Q9, #16
130 VMLAL.S16 Q9, D9, D10
[all …]
Dixheaacd_pre_twiddle_compute.s145 VMULL.U16 Q9, D0, D10
150 VSHR.U32 Q9, Q9, #16
159 VMLAL.S16 Q9, D1, D10
165 VADD.I32 Q10, Q10, Q9
182 VSHL.S32 Q9, Q15, Q7
191 VST2.32 {Q8, Q9}, [R2]!
216 VMULL.U16 Q9, D0, D10
224 VSHR.U32 Q9, Q9, #16
230 VMLAL.S16 Q9, D1, D10
234 VADD.I32 Q10, Q10, Q9
[all …]
Dixheaacd_overlap_add1.s110 VQSUB.S32 Q9, Q12, Q8
112 VQSHL.S32 Q9, Q9, #2
114 VSHR.S32 Q9, Q9, #16
169 VQSUB.S32 Q9, Q12, Q8
171 VQSHL.S32 Q9, Q9, #2
175 VSHR.S32 Q9, Q9, #16
219 VQSUB.S32 Q9, Q12, Q8
223 VQSHL.S32 Q9, Q9, #2
226 VSHR.S32 Q9, Q9, #16
274 VQSUB.S32 Q9, Q12, Q8
[all …]
Dixheaacd_post_twiddle.s135 VMULL.U16 Q9, D6, D8
145 VSHR.U32 Q9, Q9, #16
153 VMLAL.S16 Q9, D7, D8
166 VSUB.I32 Q10, Q9, Q10
172 VMOV Q9, Q11
242 VMULL.U16 Q9, D6, D8
253 VSHR.U32 Q9, Q9, #16
261 VMLAL.S16 Q9, D7, D8
274 VSUB.I32 Q10, Q9, Q10
280 VMOV Q9, Q11
[all …]
Dixheaacd_dct3_32.s323 VSUB.I32 Q9, Q1, Q3
332 VSHR.S32 Q9, Q9, #1
346 VADD.I32 Q11, Q9, Q14
349 VSUB.I32 Q12, Q14, Q9
373 VSUB.I32 Q9, Q1, Q3
391 VSHR.S32 Q9, Q9, #1
393 VSUB.I32 Q12, Q14, Q9
395 VADD.I32 Q11, Q9, Q14
456 VADD.I32 Q11, Q9, Q14
Dixheaacd_calc_pre_twid.s52 VMULL.S32 Q9, D2, D4
62 VSHRN.S64 D18, Q9, #32
Dixheaacd_calc_post_twid.s48 VMULL.S32 Q9, D7, D3
57 VSHRN.S64 D9, Q9, #32
Dixheaacd_dec_DCT2_64_asm.s100 VSUB.I32 Q9, Q0, Q2
147 VSUB.I32 Q9, Q0, Q2
192 VSUB.I32 Q9, Q0, Q2
254 VSUB.I32 Q9, Q0, Q2
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class3_chroma.s330 VMOV.I8 Q9,#0
361 VMOV.I8 Q9,#0 @I
375 …VEXT.8 Q9,Q9,Q8,#14 @I pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next_…
404 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
406 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
409 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up)
410 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down)
418 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
425 …VMOVL.U8 Q9,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8…
432 …VADDW.S8 Q9,Q9,D23 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1…
[all …]
Dihevc_resi_trans_32x32_a9q.s172 VSUBL.U8 Q9,D1,D5 @ Get residue 9-16 row 1 -- dual issue
208 VADD.S16 Q5, Q9,Q10 @ e[k] = resi_tmp_1 + resi_tmp_2 k ->9-16 row 1 -- dual issue
214 VSUB.S16 Q7, Q9,Q10 @ o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 1 -- dual issue
217 VADD.S16 Q9, Q13,Q2 @ e[k] = resi_tmp_1 + resi_tmp_2 k ->9-16 row 2 -- dual issue
221 VREV64.16 Q9, Q9 @ Rev 9-16 of e[k], row 2
225 VSWP D18, D19 @ Q9: e[16] e[15] e[14] e[13] e[12] e[11] e[10] e[9]
229 VADD.S16 Q2, Q8, Q9 @ ee[k] = e[k] + e[16-k] k->1-8 row 2 -- dual issue
230 VSUB.S16 Q3, Q8, Q9 @ eo[k] = e[k] - e[16-k] k->1-8 row 2
282 …VMULL.S16 Q9,D9,D4 @ g_ai2_ihevc_trans_32 * R2eeee[0] R2eeeo[0] R2eeee[0] R2eeeo[0]…
283 … VMLAL.S16 Q9,D11,D5 @ + g_ai2_ihevc_trans_32 * R2eeee[1] R2eeeo[1] R2eeee[1] R2eeeo[1]
[all …]
Dihevc_sao_edge_offset_class2_chroma.s374 VMOV.I8 Q9,#0
382 …VEXT.8 Q9,Q8,Q9,#2 @I pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row_…
412 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
414 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
417 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up)
418 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down)
427 VAND Q11,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
429 …VMOVL.U8 Q9,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8…
442 …VADDW.S8 Q9,Q9,D23 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1…
443 …VMAX.S16 Q9,Q9,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[…
[all …]
Dihevc_sao_edge_offset_class2.s274 VMOV.I8 Q9,#0
286 …VEXT.8 Q9,Q8,Q9,#1 @I pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row_…
302 VCGT.U8 Q5,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
305 VCLT.U8 Q9,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
306 …VSUB.U8 Q5,Q9,Q5 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt…
312 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
366 …VEXT.8 Q9,Q15,Q9,#1 @III pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_ro…
384 VCGT.U8 Q5,Q8,Q9 @III vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
390 VCLT.U8 Q9,Q8,Q9 @III vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
394 …VSUB.U8 Q5,Q9,Q5 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
[all …]
Dihevc_sao_edge_offset_class0_chroma.s178 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
181 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
205 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
208 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
228 …VMOVL.U8 Q9,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
236 …VADDW.S8 Q9,Q9,D16 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],…
238 …VMAX.S16 Q9,Q9,Q2 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
241 …VMIN.U16 Q9,Q9,Q3 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
250 VMOVN.I16 D14,Q9 @vmovn_s16(pi2_tmp_cur_row.val[0])
340 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
[all …]
Dihevc_sao_edge_offset_class3.s281 VMOV.I8 Q9,#0
301 …VEXT.8 Q9,Q9,Q8,#15 @I pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next_…
317 VCGT.U8 Q5,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
318 VCLT.U8 Q9,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
319 …VSUB.U8 Q5,Q9,Q5 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt…
321 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up)
322 VADD.I8 Q9,Q9,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down)
330 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
379 …VEXT.8 Q9,Q9,Q8,#15 @II pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next…
394 VCGT.U8 Q12,Q6,Q9 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
[all …]
Dihevc_sao_edge_offset_class0.s172 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
175 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
198 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
202 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
209 …VMOVL.U8 Q9,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
226 …VADDW.S8 Q9,Q9,D16 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],…
228 …VMAX.S16 Q9,Q9,Q2 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
231 …VMIN.U16 Q9,Q9,Q3 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
244 VMOVN.I16 D18,Q9 @vmovn_s16(pi2_tmp_cur_row.val[0])
308 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
[all …]
Dihevc_sao_edge_offset_class1.s157 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row)
162 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row)
172 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row)
176 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row)
236 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row)
237 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row)
264 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row
299 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row)
304 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row)
311 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row)
[all …]
Dihevc_sao_edge_offset_class1_chroma.s161 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row)
166 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row)
176 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row)
180 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row)
248 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row)
249 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row)
281 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row
316 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row)
321 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row)
328 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row)
[all …]
Dihevc_resi_trans.s1029 VSUB.S16 Q9 ,Q4,Q5 @o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 1
1377 VADD.S32 Q9 ,Q1,Q2 @e[k] = resi_tmp_1 + resi_tmp_2 k -> 5-8 R1
1383 VREV64.S32 Q9 ,Q9 @rev e[k] k-> 4-7 R1, dual issued with prev. instruction
1390 VADD.S32 Q2,Q8,Q9 @ee[k] = e[k] + e[7 - k] row R1
1391 VSUB.S32 Q3,Q8,Q9 @eo[k] = e[k] - e[7 - k] row R1
1410 …VREV64.S32 Q9,Q7 @Q7 : eee[0] eee[1] eeo[0] eeo[1] R2 -> ;Q9 : eee[1] ee…
1417 VMLA.S32 Q6,Q9,Q13 @g_ai2_ihevc_trans_16 * eee[1] eee[0] eeo[1] eeo[0] R2
1479 VADD.S32 Q9,Q9,Q14 @Round by RADD R1
1481 VSHRN.S32 D8,Q9,#SHIFT @Shift by SHIFT
1536 @Q5 Q9 Q13 Q6
[all …]
/external/libhevc/decoder/arm/
Dihevcd_fmt_conv_420sp_to_rgba8888.s221 VADDW.U8 Q9,Q6,D30 @//Q9 - HAS Y + G
228 VQMOVUN.S16 D15,Q9
262 VADDW.U8 Q9,Q6,D28 @//Q3 - HAS Y + G
279 VQMOVUN.S16 D15,Q9
352 VADDW.U8 Q9,Q6,D30 @//Q9 - HAS Y + G
359 VQMOVUN.S16 D15,Q9
393 VADDW.U8 Q9,Q6,D28 @//Q3 - HAS Y + G
401 VQMOVUN.S16 D15,Q9
/external/libavc/common/arm/
Dih264_deblk_luma_a9.s122 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha )
128 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta )
131 …vorr q9, q9, q13 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | (…
139 vsub.i8 q9, q7, q10 @Q9 = C0 + (Ap < Beta)
143 vsub.i8 q9, q9, q11 @Q9 = C0 + (Ap < Beta) + (Aq < Beta)
150 vmin.u8 q9, q13, q9 @Q9 = delta = (ABS(i_macro) > C) ? C : ABS(i_macro)
Dih264_deblk_chroma_a9.s115 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha )
120 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta )
123 …vorr q9, q9, q13 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | (…
295 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha )
307 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta )
311 …vorr q9, q9, q13 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | (…
318 vqadd.u8 q9, q0, q7 @Q9 = q0 + delta
436 vmovn.i16 d19, q10 @Q9 = sign(delta)
728 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha )
733 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta )
[all …]
Dih264_iquant_itrans_recon_a9.s614 vsub.s16 q9, q0, q4 @ Q9 = y2
653 vqmovn.s32 d19, q11 @ Q9 = y5
685 vqmovn.s32 d19, q11 @ Q9 = y1
689 vsra.s16 q9, q7, #0x2 @ Q9 = z1
733 vsub.s16 q9, q0, q4 @ Q9 = y2
775 vqmovn.s32 d19, q11 @ Q9 = y5
806 vqmovn.s32 d19, q11 @ Q9 = y1
810 vsra.s16 q9, q7, #0x2 @ Q9 = z1
/external/libxaac/decoder/
Dixheaacd_constants.h35 #define Q9 512 macro
/external/honggfuzz/examples/apache-httpd/corpus_http2/
D7e00f8d7d6b28be99462556fec48e7e1.0001483a.honggfuzz.cov39 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�…
40 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�…
54 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�…
55 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�…
119 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�…
120 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�…
138 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�…
139 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�…
157 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�…
158 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�…
[all …]
/external/ImageMagick/tests/
Dinput_256c.miff40 ))8������Q93SՇ�rpr������������������rr��{��������������������%%% %'7�������TN�������r�������…

1234567891011