Home
last modified time | relevance | path

Searched refs:Q10 (Results 1 – 25 of 50) sorted by relevance

12

/external/libxaac/decoder/armv7/
Dixheaacd_pre_twiddle_compute.s144 VMULL.U16 Q10, D6, D11
149 VSHR.U32 Q10, Q10, #16
156 VMLAL.S16 Q10, D7, D11
165 VADD.I32 Q10, Q10, Q9
167 VNEG.S32 Q10, Q10
175 VSHL.S32 Q10, Q10, Q7
195 VST2.32 {Q10, Q11}, [R7], R8
214 VMULL.U16 Q10, D6, D11
222 VSHR.U32 Q10, Q10, #16
229 VMLAL.S16 Q10, D7, D11
[all …]
Dia_xheaacd_mps_reoder_mulshift_acc.s65 VMULL.S32 Q10, D1, D9
81 VSHR.S64 Q10, Q10, #31
86 VSUB.I64 Q10, Q10, Q4
90 VADD.I64 Q10, Q10, Q11
91 VADD.I64 Q12, Q12, Q10
109 VMULL.S32 Q10, D1, D9
120 VSHR.S64 Q10, Q10, #31
130 VSUB.I64 Q10, Q10, Q4
134 VADD.I64 Q10, Q10, Q11
135 VADD.I64 Q12, Q12, Q10
[all …]
Dixheaacd_post_twiddle.s128 VMULL.U16 Q10, D4, D9
142 VSHR.U32 Q10, Q10, #16
152 VMLAL.S16 Q10, D5, D9
166 VSUB.I32 Q10, Q9, Q10
175 VMOV Q8, Q10
202 VADD.I32 Q12, Q10, Q2
235 VMULL.U16 Q10, D4, D9
250 VSHR.U32 Q10, Q10, #16
260 VMLAL.S16 Q10, D5, D9
274 VSUB.I32 Q10, Q9, Q10
[all …]
Dixheaacd_no_lap1.s66 VSHR.S32 Q10, Q11, #16
67 VREV64.32 Q10, Q10
96 VSHR.S32 Q10, Q11, #16
99 VREV64.32 Q10, Q10
Dixheaacd_overlap_add2.s42 VDUP.32 Q10, R8
72 VQADD.S32 Q12, Q13, Q10
105 VQADD.S32 Q8, Q9, Q10
107 VQADD.S32 Q12, Q13, Q10
135 VQADD.S32 Q8, Q9, Q10
177 @VQADD.S32 Q12,Q12,Q10
179 VQADD.S32 Q12, Q13, Q10
196 VQADD.S32 Q12, Q13, Q10
235 VQADD.S32 Q8, Q9, Q10
237 VQADD.S32 Q12, Q13, Q10
[all …]
Dixheaacd_overlap_add1.s52 VDUP.32 Q10, R7
85 VQADD.S32 Q14, Q14, Q10
107 VQADD.S32 Q8, Q8, Q10
163 VQADD.S32 Q14, Q14, Q10
165 VQADD.S32 Q8, Q8, Q10
211 VQADD.S32 Q14, Q14, Q10
217 VQADD.S32 Q8, Q8, Q10
271 VQADD.S32 Q14, Q14, Q10
272 VQADD.S32 Q8, Q8, Q10
Dixheaacd_post_twiddle_overlap.s47 VMOV.S32 Q10, #0x00008000
406 VQADD.S32 Q7, Q2, Q10
409 VQADD.S32 Q3, Q3, Q10
436 VQADD.S32 Q15, Q15, Q10
437 VQADD.S32 Q11, Q11, Q10
669 VQADD.S32 Q7, Q2, Q10
672 VQADD.S32 Q3, Q3, Q10
699 VQADD.S32 Q15, Q15, Q10
700 VQADD.S32 Q11, Q11, Q10
932 VQADD.S32 Q7, Q2, Q10
[all …]
Dixheaacd_calc_pre_twid.s53 VMULL.S32 Q10, D1, D7
63 VSHRN.S64 D20, Q10, #32
Dixheaacd_sbr_qmfsyn64_winadd.s47 VSHL.S32 Q10, Q15, Q14
62 VMOV Q13, Q10
138 VMOV Q13, Q10
225 VMOV Q13, Q10
305 VMOV Q13, Q10
Dixheaacd_calc_post_twid.s49 VMULL.S32 Q10, D7, D1
58 VSHRN.S64 D11, Q10, #32
Dixheaacd_dec_DCT2_64_asm.s98 VADD.I32 Q10, Q3, Q1
145 VADD.I32 Q10, Q3, Q1
190 VADD.I32 Q10, Q3, Q1
248 VADD.I32 Q10, Q3, Q1
Dixheaacd_dct3_32.s339 VSUB.I32 Q10, Q7, Q15
353 VST2.32 {Q10, Q11}, [R6]!
392 VSUB.I32 Q10, Q7, Q15
/external/libhevc/decoder/arm/
Dihevcd_fmt_conv_420sp_to_rgba8888.s196 VMULL.S16 Q10,D6,D0[0] @//(V-128)*C1 FOR R
210 VQSHRN.S32 D10,Q10,#13 @//D10 = (V-128)*C1>>13 4 16-BIT VALUES
223 VADDW.U8 Q10,Q4,D31 @//Q10 - HAS Y + B
237 VQMOVUN.S16 D20,Q10
244 VZIP.16 Q10,Q11
246 VZIP.32 Q7,Q10
264 VADDW.U8 Q10,Q4,D29 @//Q10 - HAS Y + B
288 VQMOVUN.S16 D20,Q10
295 VZIP.16 Q10,Q11
297 VZIP.32 Q7,Q10
[all …]
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class1.s165 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
171 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
174 VNEG.S8 Q8,Q10 @sign_up = vnegq_s8(sign_down)
188 …VMOVL.U8 Q10,D10 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
190 …VADDW.S8 Q10,Q10,D12 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],…
192 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
194 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
208 VMOVN.I16 D20,Q10 @vmovn_s16(pi2_tmp_cur_row.val[0])
220 VST1.8 {Q10},[r10],r1 @vst1q_u8(pu1_src_cpy, pu1_cur_row)
238 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
[all …]
Dihevc_sao_edge_offset_class1_chroma.s169 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
175 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
178 VNEG.S8 Q8,Q10 @sign_up = vnegq_s8(sign_down)
192 …VMOVL.U8 Q10,D10 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
196 …VADDW.S8 Q10,Q10,D12 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],…
198 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
200 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
218 VMOVN.I16 D20,Q10 @vmovn_s16(pi2_tmp_cur_row.val[0])
232 VST1.8 {Q10},[r10],r1 @vst1q_u8(pu1_src_cpy, pu1_cur_row)
250 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
[all …]
Dihevc_sao_edge_offset_class3.s329 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8…
335 …VADDW.S8 Q10,Q10,D10 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0…
337 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[…
339 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1…
351 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0])
375 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row)
451 …VMOVL.U8 Q10,D16 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_…
454 …VADDW.S8 Q10,Q10,D10 @III pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val…
456 …VMAX.S16 Q10,Q10,Q1 @III pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.va…
459 …VMIN.U16 Q10,Q10,Q2 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_…
[all …]
Dihevc_sao_edge_offset_class2.s318 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8…
320 …VADDW.S8 Q10,Q10,D10 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0…
322 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[…
325 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1…
329 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0])
340 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row)
414 …VMOVL.U8 Q10,D16 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_…
418 …VADDW.S8 Q10,Q10,D10 @III pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val…
422 …VMAX.S16 Q10,Q10,Q1 @III pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.va…
425 …VMIN.U16 Q10,Q10,Q2 @III pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_…
[all …]
Dihevc_sao_edge_offset_class3_chroma.s404 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
407 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt…
417 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8…
426 …VADDW.S8 Q10,Q10,D22 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0…
428 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[…
429 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1…
442 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0])
466 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row)
535 VCLT.U8 Q10,Q8,Q9 @III vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
537 …VSUB.U8 Q11,Q10,Q11 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
[all …]
Dihevc_sao_edge_offset_class2_chroma.s412 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
415 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt…
426 …VMOVL.U8 Q10,D12 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8…
437 …VADDW.S8 Q10,Q10,D22 @I pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0…
439 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[…
440 …VMIN.U16 Q10,Q10,Q2 @I pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u1…
451 VMOVN.I16 D20,Q10 @I vmovn_s16(pi2_tmp_cur_row.val[0])
478 VST1.8 {Q10},[r0],r1 @I vst1q_u8(pu1_src_cpy, pu1_cur_row)
537 VCGT.U8 Q10,Q8,Q9 @III vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
541 …VSUB.U8 Q11,Q11,Q10 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
[all …]
Dihevc_sao_edge_offset_class0.s175 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
205 VADD.I8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
211 …VSUB.I8 Q10,Q0,Q15 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
223 VADD.I8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
309 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
319 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
327 VNEG.S8 Q10,Q11 @sign_left = vnegq_s8(sign_right)
328 VEXT.8 Q10,Q10,Q11,#15 @sign_left = vextq_s8(sign_left, sign_left, 15)
Dihevc_sao_edge_offset_class0_chroma.s181 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
211 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
215 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
226 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
344 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
373 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
378 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
389 VADD.U8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
/external/libjpeg-turbo/
Djdcoefct.c425 JLONG Q00,Q01,Q02,Q10,Q11,Q20, num; in decompress_smooth_data() local
487 Q10 = quanttbl->quantval[Q10_POS]; in decompress_smooth_data()
545 pred = (int) (((Q10<<7) + num) / (Q10<<8)); in decompress_smooth_data()
549 pred = (int) (((Q10<<7) - num) / (Q10<<8)); in decompress_smooth_data()
/external/libxaac/decoder/
Dixheaacd_constants.h36 #define Q10 1024 macro
/external/swiftshader/third_party/LLVM/lib/Target/ARM/MCTargetDesc/
DARMBaseInfo.h165 case R10: case S10: case D10: case Q10: return 10; in getARMRegisterNumbering()
/external/libavc/encoder/arm/
Dime_distortion_metrics_a9q.s518 vadd.u16 q10, q10, q11 @ Q10 : sad_ref2
888 @;Q9:Q10 : sad_right
897 @; Q6,Q8,Q10,Q12
1195 @Q10 S8 S5 A8 A5 S7 S4 A7 A4
1204 @Q10 S8 S5 A8 A5 S7 S4 A7 A4
1210 @Q10 A2 A1 A8 A5 A6 A3 A7 A4

12