Home
last modified time | relevance | path

Searched refs:Q10 (Results 1 – 25 of 70) sorted by relevance

123

/external/libxaac/decoder/armv7/
Dixheaacd_pre_twiddle_compute.s144 VMULL.U16 Q10, D6, D11
149 VSHR.U32 Q10, Q10, #16
156 VMLAL.S16 Q10, D7, D11
165 VADD.I32 Q10, Q10, Q9
167 VNEG.S32 Q10, Q10
175 VSHL.S32 Q10, Q10, Q7
195 VST2.32 {Q10, Q11}, [R7], R8
214 VMULL.U16 Q10, D6, D11
222 VSHR.U32 Q10, Q10, #16
229 VMLAL.S16 Q10, D7, D11
[all …]
Dia_xheaacd_mps_reoder_mulshift_acc.s65 VMULL.S32 Q10, D1, D9
81 VSHR.S64 Q10, Q10, #31
86 VSUB.I64 Q10, Q10, Q4
90 VADD.I64 Q10, Q10, Q11
91 VADD.I64 Q12, Q12, Q10
109 VMULL.S32 Q10, D1, D9
120 VSHR.S64 Q10, Q10, #31
130 VSUB.I64 Q10, Q10, Q4
134 VADD.I64 Q10, Q10, Q11
135 VADD.I64 Q12, Q12, Q10
[all …]
Dixheaacd_post_twiddle.s128 VMULL.U16 Q10, D4, D9
142 VSHR.U32 Q10, Q10, #16
152 VMLAL.S16 Q10, D5, D9
166 VSUB.I32 Q10, Q9, Q10
175 VMOV Q8, Q10
202 VADD.I32 Q12, Q10, Q2
235 VMULL.U16 Q10, D4, D9
250 VSHR.U32 Q10, Q10, #16
260 VMLAL.S16 Q10, D5, D9
274 VSUB.I32 Q10, Q9, Q10
[all …]
Dixheaacd_no_lap1.s66 VSHR.S32 Q10, Q11, #16
67 VREV64.32 Q10, Q10
96 VSHR.S32 Q10, Q11, #16
99 VREV64.32 Q10, Q10
Dixheaacd_overlap_add2.s42 VDUP.32 Q10, R8
72 VQADD.S32 Q12, Q13, Q10
105 VQADD.S32 Q8, Q9, Q10
107 VQADD.S32 Q12, Q13, Q10
135 VQADD.S32 Q8, Q9, Q10
177 @VQADD.S32 Q12,Q12,Q10
179 VQADD.S32 Q12, Q13, Q10
196 VQADD.S32 Q12, Q13, Q10
235 VQADD.S32 Q8, Q9, Q10
237 VQADD.S32 Q12, Q13, Q10
[all …]
Dixheaacd_overlap_add1.s52 VDUP.32 Q10, R7
85 VQADD.S32 Q14, Q14, Q10
107 VQADD.S32 Q8, Q8, Q10
163 VQADD.S32 Q14, Q14, Q10
165 VQADD.S32 Q8, Q8, Q10
211 VQADD.S32 Q14, Q14, Q10
217 VQADD.S32 Q8, Q8, Q10
271 VQADD.S32 Q14, Q14, Q10
272 VQADD.S32 Q8, Q8, Q10
Dixheaacd_post_twiddle_overlap.s47 VMOV.S32 Q10, #0x00008000
406 VQADD.S32 Q7, Q2, Q10
409 VQADD.S32 Q3, Q3, Q10
436 VQADD.S32 Q15, Q15, Q10
437 VQADD.S32 Q11, Q11, Q10
669 VQADD.S32 Q7, Q2, Q10
672 VQADD.S32 Q3, Q3, Q10
699 VQADD.S32 Q15, Q15, Q10
700 VQADD.S32 Q11, Q11, Q10
932 VQADD.S32 Q7, Q2, Q10
[all …]
Dixheaacd_calc_pre_twid.s53 VMULL.S32 Q10, D1, D7
63 VSHRN.S64 D20, Q10, #32
Dixheaacd_sbr_qmfsyn64_winadd.s47 VSHL.S32 Q10, Q15, Q14
62 VMOV Q13, Q10
138 VMOV Q13, Q10
225 VMOV Q13, Q10
305 VMOV Q13, Q10
Dixheaacd_calc_post_twid.s49 VMULL.S32 Q10, D7, D1
58 VSHRN.S64 D11, Q10, #32
Dixheaacd_dec_DCT2_64_asm.s98 VADD.I32 Q10, Q3, Q1
145 VADD.I32 Q10, Q3, Q1
190 VADD.I32 Q10, Q3, Q1
248 VADD.I32 Q10, Q3, Q1
Dixheaacd_dct3_32.s339 VSUB.I32 Q10, Q7, Q15
353 VST2.32 {Q10, Q11}, [R6]!
392 VSUB.I32 Q10, Q7, Q15
/external/libhevc/decoder/arm/
Dihevcd_fmt_conv_420sp_to_rgba8888.s196 VMULL.S16 Q10,D6,D0[0] @//(V-128)*C1 FOR R
210 VQSHRN.S32 D10,Q10,#13 @//D10 = (V-128)*C1>>13 4 16-BIT VALUES
223 VADDW.U8 Q10,Q4,D31 @//Q10 - HAS Y + B
237 VQMOVUN.S16 D20,Q10
244 VZIP.16 Q10,Q11
246 VZIP.32 Q7,Q10
264 VADDW.U8 Q10,Q4,D29 @//Q10 - HAS Y + B
288 VQMOVUN.S16 D20,Q10
295 VZIP.16 Q10,Q11
297 VZIP.32 Q7,Q10
[all …]
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class1.s165 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
171 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
174 VNEG.S8 Q8,Q10 @sign_up = vnegq_s8(sign_down)
188 …VMOVL.U8 Q10,D10 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
190 …VADDW.S8 Q10,Q10,D12 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],…
192 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
194 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
208 VMOVN.I16 D20,Q10 @vmovn_s16(pi2_tmp_cur_row.val[0])
220 VST1.8 {Q10},[r10],r1 @vst1q_u8(pu1_src_cpy, pu1_cur_row)
238 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
[all …]
Dihevc_sao_edge_offset_class1_chroma.s169 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
175 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
178 VNEG.S8 Q8,Q10 @sign_up = vnegq_s8(sign_down)
192 …VMOVL.U8 Q10,D10 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
196 …VADDW.S8 Q10,Q10,D12 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],…
198 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
200 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
218 VMOVN.I16 D20,Q10 @vmovn_s16(pi2_tmp_cur_row.val[0])
232 VST1.8 {Q10},[r10],r1 @vst1q_u8(pu1_src_cpy, pu1_cur_row)
250 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
[all …]
Dihevc_sao_edge_offset_class3.s329 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8…
335 …VADDW.S8 Q10,Q10,D10 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0…
337 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[…
339 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1…
351 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0])
375 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row)
451 …VMOVL.U8 Q10,D16 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_…
454 …VADDW.S8 Q10,Q10,D10 @III pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val…
456 …VMAX.S16 Q10,Q10,Q1 @III pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.va…
459 …VMIN.U16 Q10,Q10,Q2 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_…
[all …]
Dihevc_sao_edge_offset_class2.s318 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8…
320 …VADDW.S8 Q10,Q10,D10 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0…
322 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[…
325 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1…
329 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0])
340 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row)
414 …VMOVL.U8 Q10,D16 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_…
418 …VADDW.S8 Q10,Q10,D10 @III pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val…
422 …VMAX.S16 Q10,Q10,Q1 @III pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.va…
425 …VMIN.U16 Q10,Q10,Q2 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_…
[all …]
Dihevc_sao_edge_offset_class3_chroma.s404 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
407 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt…
417 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8…
426 …VADDW.S8 Q10,Q10,D22 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0…
428 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[…
429 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1…
442 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0])
466 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row)
535 VCLT.U8 Q10,Q8,Q9 @III vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
537 …VSUB.U8 Q11,Q10,Q11 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
[all …]
Dihevc_sao_edge_offset_class2_chroma.s412 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
415 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt…
426 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8…
437 …VADDW.S8 Q10,Q10,D22 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0…
439 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[…
440 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1…
451 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0])
478 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row)
537 VCGT.U8 Q10,Q8,Q9 @III vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
541 …VSUB.U8 Q11,Q11,Q10 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
[all …]
Dihevc_sao_edge_offset_class0.s175 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
205 VADD.I8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
211 …VSUB.I8 Q10,Q0,Q15 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
223 VADD.I8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
309 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
319 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
327 VNEG.S8 Q10,Q11 @sign_left = vnegq_s8(sign_right)
328 VEXT.8 Q10,Q10,Q11,#15 @sign_left = vextq_s8(sign_left, sign_left, 15)
Dihevc_resi_trans_32x32_a9q.s175 VSUBL.U8 Q10,D2,D6 @ Get residue 17-24 row 1 -- dual issue
199 VREV64.S16 Q10,Q10 @ Rev 17-24 row 1 -- dual issue
204 VSWP D20,D21 @ Q10: 24 23 22 21 20 19 18 17 row 1
208 VADD.S16 Q5, Q9,Q10 @ e[k] = resi_tmp_1 + resi_tmp_2 k ->9-16 row 1 -- dual issue
214 VSUB.S16 Q7, Q9,Q10 @ o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 1 -- dual issue
220 VSUB.S16 Q10, Q12,Q3 @ o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-8 row 2 -- dual issue
863 VADD.S32 Q10, Q2, Q5 @e[k] = resi_tmp_1 + resi_tmp_2 k -> 9-12 R1-- dual issue
871 VREV64.S32 Q10, Q10 @rev e[k] k-> 9-12 R1 -- dual issue
875 VSWP D20, D21 @Q10: e[12] e[11] e[10] e[9] -- dual issue
878 VADD.S32 Q1, Q9, Q10 @ee[k] = e[k] + e[15- k] row R1, k-> 4-7
[all …]
Dihevc_sao_edge_offset_class0_chroma.s181 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
211 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
215 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
226 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
344 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
373 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
378 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
389 VADD.U8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
Dihevc_resi_trans.s1030 VADD.S16 Q10,Q6,Q7 @e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 2
1182 VMULL.S16 Q10,D22,D4 @o[1][0-3]* R2
1183 VMLAL.S16 Q10,D23,D5 @o[1][4-7]* R2
1205 VTRN.32 Q7,Q10 @ 2-cycle instruction
1218 VADD.S32 Q10,Q10,Q7
1224 VADD.S32 Q13,Q13,Q10
1257 VMULL.S16 Q10,D18,D2 @o[7][0-3]* R1
1258 VMLAL.S16 Q10,D19,D3 @o[7][4-7]* R1
1269 VTRN.32 Q7 ,Q10 @ transpose step 2 R1 , 2-cycle instruction
1282 VADD.S32 Q10,Q10,Q7
[all …]
/external/libjpeg-turbo/
Djdcoefct.c424 JLONG Q00, Q01, Q02, Q10, Q11, Q20, num; in decompress_smooth_data() local
486 Q10 = quanttbl->quantval[Q10_POS]; in decompress_smooth_data()
544 pred = (int)(((Q10 << 7) + num) / (Q10 << 8)); in decompress_smooth_data()
548 pred = (int)(((Q10 << 7) - num) / (Q10 << 8)); in decompress_smooth_data()
/external/libxaac/decoder/
Dixheaacd_constants.h36 #define Q10 1024 macro

123