/external/libxaac/decoder/armv7/ |
D | ixheaacd_overlap_add2.s | 80 VMULL.U16 Q9, D8, D10 82 VMLSL.U16 Q9, D12, D11 88 VSHR.S32 Q9, Q9, #16 90 VMLAL.S16 Q9, D9, D10 97 VMLSL.S16 Q9, D13, D11 105 VQADD.S32 Q8, Q9, Q10 124 VMULL.U16 Q9, D8, D10 125 VMLSL.U16 Q9, D12, D11 128 VSHR.S32 Q9, Q9, #16 130 VMLAL.S16 Q9, D9, D10 [all …]
|
D | ixheaacd_pre_twiddle_compute.s | 145 VMULL.U16 Q9, D0, D10 150 VSHR.U32 Q9, Q9, #16 159 VMLAL.S16 Q9, D1, D10 165 VADD.I32 Q10, Q10, Q9 182 VSHL.S32 Q9, Q15, Q7 191 VST2.32 {Q8, Q9}, [R2]! 216 VMULL.U16 Q9, D0, D10 224 VSHR.U32 Q9, Q9, #16 230 VMLAL.S16 Q9, D1, D10 234 VADD.I32 Q10, Q10, Q9 [all …]
|
D | ixheaacd_overlap_add1.s | 110 VQSUB.S32 Q9, Q12, Q8 112 VQSHL.S32 Q9, Q9, #2 114 VSHR.S32 Q9, Q9, #16 169 VQSUB.S32 Q9, Q12, Q8 171 VQSHL.S32 Q9, Q9, #2 175 VSHR.S32 Q9, Q9, #16 219 VQSUB.S32 Q9, Q12, Q8 223 VQSHL.S32 Q9, Q9, #2 226 VSHR.S32 Q9, Q9, #16 274 VQSUB.S32 Q9, Q12, Q8 [all …]
|
D | ixheaacd_post_twiddle.s | 135 VMULL.U16 Q9, D6, D8 145 VSHR.U32 Q9, Q9, #16 153 VMLAL.S16 Q9, D7, D8 166 VSUB.I32 Q10, Q9, Q10 172 VMOV Q9, Q11 242 VMULL.U16 Q9, D6, D8 253 VSHR.U32 Q9, Q9, #16 261 VMLAL.S16 Q9, D7, D8 274 VSUB.I32 Q10, Q9, Q10 280 VMOV Q9, Q11 [all …]
|
D | ixheaacd_dct3_32.s | 323 VSUB.I32 Q9, Q1, Q3 332 VSHR.S32 Q9, Q9, #1 346 VADD.I32 Q11, Q9, Q14 349 VSUB.I32 Q12, Q14, Q9 373 VSUB.I32 Q9, Q1, Q3 391 VSHR.S32 Q9, Q9, #1 393 VSUB.I32 Q12, Q14, Q9 395 VADD.I32 Q11, Q9, Q14 456 VADD.I32 Q11, Q9, Q14
|
D | ixheaacd_calc_pre_twid.s | 52 VMULL.S32 Q9, D2, D4 62 VSHRN.S64 D18, Q9, #32
|
D | ixheaacd_calc_post_twid.s | 48 VMULL.S32 Q9, D7, D3 57 VSHRN.S64 D9, Q9, #32
|
D | ixheaacd_dec_DCT2_64_asm.s | 100 VSUB.I32 Q9, Q0, Q2 147 VSUB.I32 Q9, Q0, Q2 192 VSUB.I32 Q9, Q0, Q2 254 VSUB.I32 Q9, Q0, Q2
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class3_chroma.s | 330 VMOV.I8 Q9,#0 361 VMOV.I8 Q9,#0 @I 375 …VEXT.8 Q9,Q9,Q8,#14 @I pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next_… 404 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 406 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 409 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 410 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 418 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 425 …VMOVL.U8 Q9,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8… 432 …VADDW.S8 Q9,Q9,D23 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1… [all …]
|
D | ihevc_resi_trans_32x32_a9q.s | 172 VSUBL.U8 Q9,D1,D5 @ Get residue 9-16 row 1 -- dual issue 208 VADD.S16 Q5, Q9,Q10 @ e[k] = resi_tmp_1 + resi_tmp_2 k ->9-16 row 1 -- dual issue 214 VSUB.S16 Q7, Q9,Q10 @ o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 1 -- dual issue 217 VADD.S16 Q9, Q13,Q2 @ e[k] = resi_tmp_1 + resi_tmp_2 k ->9-16 row 2 -- dual issue 221 VREV64.16 Q9, Q9 @ Rev 9-16 of e[k], row 2 225 VSWP D18, D19 @ Q9: e[16] e[15] e[14] e[13] e[12] e[11] e[10] e[9] 229 VADD.S16 Q2, Q8, Q9 @ ee[k] = e[k] + e[16-k] k->1-8 row 2 -- dual issue 230 VSUB.S16 Q3, Q8, Q9 @ eo[k] = e[k] - e[16-k] k->1-8 row 2 282 …VMULL.S16 Q9,D9,D4 @ g_ai2_ihevc_trans_32 * R2eeee[0] R2eeeo[0] R2eeee[0] R2eeeo[0]… 283 … VMLAL.S16 Q9,D11,D5 @ + g_ai2_ihevc_trans_32 * R2eeee[1] R2eeeo[1] R2eeee[1] R2eeeo[1] [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 374 VMOV.I8 Q9,#0 382 …VEXT.8 Q9,Q8,Q9,#2 @I pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row_… 412 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 414 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 417 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 418 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 427 VAND Q11,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 429 …VMOVL.U8 Q9,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8… 442 …VADDW.S8 Q9,Q9,D23 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1… 443 …VMAX.S16 Q9,Q9,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… [all …]
|
D | ihevc_sao_edge_offset_class2.s | 274 VMOV.I8 Q9,#0 286 …VEXT.8 Q9,Q8,Q9,#1 @I pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row_… 302 VCGT.U8 Q5,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 305 VCLT.U8 Q9,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 306 …VSUB.U8 Q5,Q9,Q5 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 312 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 366 …VEXT.8 Q9,Q15,Q9,#1 @III pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_ro… 384 VCGT.U8 Q5,Q8,Q9 @III vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 390 VCLT.U8 Q9,Q8,Q9 @III vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 394 …VSUB.U8 Q5,Q9,Q5 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 178 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 181 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 205 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 208 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 228 …VMOVL.U8 Q9,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… 236 …VADDW.S8 Q9,Q9,D16 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],… 238 …VMAX.S16 Q9,Q9,Q2 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 241 …VMIN.U16 Q9,Q9,Q3 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 250 VMOVN.I16 D14,Q9 @vmovn_s16(pi2_tmp_cur_row.val[0]) 340 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) [all …]
|
D | ihevc_sao_edge_offset_class3.s | 281 VMOV.I8 Q9,#0 301 …VEXT.8 Q9,Q9,Q8,#15 @I pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next_… 317 VCGT.U8 Q5,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 318 VCLT.U8 Q9,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 319 …VSUB.U8 Q5,Q9,Q5 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 321 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 322 VADD.I8 Q9,Q9,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down) 330 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 379 …VEXT.8 Q9,Q9,Q8,#15 @II pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next… 394 VCGT.U8 Q12,Q6,Q9 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) [all …]
|
D | ihevc_sao_edge_offset_class0.s | 172 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 175 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 198 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 202 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 209 …VMOVL.U8 Q9,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v… 226 …VADDW.S8 Q9,Q9,D16 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],… 228 …VMAX.S16 Q9,Q9,Q2 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 231 …VMIN.U16 Q9,Q9,Q3 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 244 VMOVN.I16 D18,Q9 @vmovn_s16(pi2_tmp_cur_row.val[0]) 308 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) [all …]
|
D | ihevc_sao_edge_offset_class1.s | 157 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row) 162 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row) 172 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row) 176 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row) 236 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row) 237 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row) 264 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row 299 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row) 304 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row) 311 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row) [all …]
|
D | ihevc_sao_edge_offset_class1_chroma.s | 161 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row) 166 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row) 176 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row) 180 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row) 248 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row) 249 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_top_row) 281 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row 316 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row) 321 VCLT.U8 Q7,Q5,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row) 328 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row) [all …]
|
D | ihevc_resi_trans.s | 1029 VSUB.S16 Q9 ,Q4,Q5 @o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 1 1377 VADD.S32 Q9 ,Q1,Q2 @e[k] = resi_tmp_1 + resi_tmp_2 k -> 5-8 R1 1383 VREV64.S32 Q9 ,Q9 @rev e[k] k-> 4-7 R1, dual issued with prev. instruction 1390 VADD.S32 Q2,Q8,Q9 @ee[k] = e[k] + e[7 - k] row R1 1391 VSUB.S32 Q3,Q8,Q9 @eo[k] = e[k] - e[7 - k] row R1 1410 …VREV64.S32 Q9,Q7 @Q7 : eee[0] eee[1] eeo[0] eeo[1] R2 -> ;Q9 : eee[1] ee… 1417 VMLA.S32 Q6,Q9,Q13 @g_ai2_ihevc_trans_16 * eee[1] eee[0] eeo[1] eeo[0] R2 1479 VADD.S32 Q9,Q9,Q14 @Round by RADD R1 1481 VSHRN.S32 D8,Q9,#SHIFT @Shift by SHIFT 1536 @Q5 Q9 Q13 Q6 [all …]
|
/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 221 VADDW.U8 Q9,Q6,D30 @//Q9 - HAS Y + G 228 VQMOVUN.S16 D15,Q9 262 VADDW.U8 Q9,Q6,D28 @//Q3 - HAS Y + G 279 VQMOVUN.S16 D15,Q9 352 VADDW.U8 Q9,Q6,D30 @//Q9 - HAS Y + G 359 VQMOVUN.S16 D15,Q9 393 VADDW.U8 Q9,Q6,D28 @//Q3 - HAS Y + G 401 VQMOVUN.S16 D15,Q9
|
/external/libavc/common/arm/ |
D | ih264_deblk_luma_a9.s | 122 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha ) 128 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) 131 …vorr q9, q9, q13 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | (… 139 vsub.i8 q9, q7, q10 @Q9 = C0 + (Ap < Beta) 143 vsub.i8 q9, q9, q11 @Q9 = C0 + (Ap < Beta) + (Aq < Beta) 150 vmin.u8 q9, q13, q9 @Q9 = delta = (ABS(i_macro) > C) ? C : ABS(i_macro)
|
D | ih264_deblk_chroma_a9.s | 115 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha ) 120 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) 123 …vorr q9, q9, q13 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | (… 295 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha ) 307 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) 311 …vorr q9, q9, q13 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | (… 318 vqadd.u8 q9, q0, q7 @Q9 = q0 + delta 436 vmovn.i16 d19, q10 @Q9 = sign(delta) 728 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha ) 733 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 614 vsub.s16 q9, q0, q4 @ Q9 = y2 653 vqmovn.s32 d19, q11 @ Q9 = y5 685 vqmovn.s32 d19, q11 @ Q9 = y1 689 vsra.s16 q9, q7, #0x2 @ Q9 = z1 733 vsub.s16 q9, q0, q4 @ Q9 = y2 775 vqmovn.s32 d19, q11 @ Q9 = y5 806 vqmovn.s32 d19, q11 @ Q9 = y1 810 vsra.s16 q9, q7, #0x2 @ Q9 = z1
|
/external/libxaac/decoder/ |
D | ixheaacd_constants.h | 35 #define Q9 512 macro
|
/external/honggfuzz/examples/apache-httpd/corpus_http2/ |
D | 7e00f8d7d6b28be99462556fec48e7e1.0001483a.honggfuzz.cov | 39 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�… 40 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�… 54 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�… 55 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�… 119 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�… 120 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�… 138 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�… 139 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�… 157 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�… 158 …���'�܈\�wU0$�M�>�Cn=�P`���; �4��W4L�uyu_�]���ˆ~)�<�}��̓�<d�0�x@��w�j �Q9�ʠ�{�v4�C�{�Ekq")�w�… [all …]
|
/external/ImageMagick/tests/ |
D | input_256c.miff | 40 ))8������Q93SՇ�rpr������������������rr��{��������������������%%%%'7�������TN�������r�������…
|