Home
last modified time | relevance | path

Searched refs:Q14 (Results 1 – 25 of 61) sorted by relevance

123

/external/libxaac/decoder/armv7/
Dixheaacd_dec_DCT2_64_asm.s107 VMULL.U16 Q14, D18, D8
108 VMLAL.U16 Q14, D20, D10
111 VSHR.U32 Q14, Q14, #16
118 VMLAL.S16 Q14, D19, D8
120 VMLAL.S16 Q14, D21, D10
124 VSHL.S32 Q14, Q14, #1
129 VADD.I32 Q12, Q11, Q14
133 VSUB.I32 Q7, Q14, Q11
164 VMULL.U16 Q14, D18, D8
166 VMLAL.U16 Q14, D20, D10
[all …]
Dixheaacd_dct3_32.s76 VMULL.U16 Q14, D4, D13
88 VMLSL.U16 Q14, D10, D12
102 VSHR.S32 Q14, Q14, #16
103 VMLAL.S16 Q14, D5, D13
105 VMLSL.S16 Q14, D11, D12
110 VSWP Q15, Q14
113 VST2.32 {Q14, Q15}, [R8]!
131 VMULL.U16 Q14, D4, D13
133 VMLSL.U16 Q14, D10, D12
138 VSHR.S32 Q14, Q14, #16
[all …]
Dixheaacd_esbr_qmfsyn64_winadd.s50 VMOV Q14, Q15
53 VMLAL.S32 Q14, D1, D3
59 VMLAL.S32 Q14, D7, D5
65 VMLAL.S32 Q14, D11, D9
71 VMLAL.S32 Q14, D13, D15
77 VMLAL.S32 Q14, D17, D19
90 VMLAL.S32 Q14, D1, D3
97 VMLAL.S32 Q14, D7, D5
103 VMLAL.S32 Q14, D11, D9
109 VMLAL.S32 Q14, D13, D15
[all …]
Dixheaacd_pre_twiddle_compute.s125 VMULL.U16 Q14, D4, D9
130 VSHR.U32 Q14, Q14, #16
135 VMLAL.S16 Q14, D5, D9
139 VADD.I32 Q14, Q13, Q14
140 VNEG.S32 Q14, Q14
183 VSHL.S32 Q8, Q14, Q7
192 VMULL.U16 Q14, D4, D9
199 VSHR.U32 Q14, Q14, #16
204 VMLAL.S16 Q14, D5, D9
208 VADD.I32 Q14, Q13, Q14
[all …]
Dixheaacd_post_twiddle.s113 VMULL.U16 Q14, D0, D13
118 VSHR.U32 Q14, Q14, #16
123 VMLAL.S16 Q14, D1, D13
131 VADD.I32 Q14, Q14, Q13
133 VNEG.S32 Q14, Q14
141 VMOV Q12, Q14
189 VADD.I32 Q13, Q14, Q0
218 VMULL.U16 Q14, D0, D13
225 VSHR.U32 Q14, Q14, #16
230 VMLAL.S16 Q14, D1, D13
[all …]
Dixheaacd_post_twiddle_overlap.s201 VMULL.U16 Q14, D2, D8
213 VSHR.U32 Q14, Q14, #16
219 VMLAL.S16 Q14, D3, D8
232 VADD.I32 Q15, Q15, Q14
237 VSUB.I32 Q14, Q12, Q13
241 VMOV Q12, Q14
263 VADD.I32 Q14, Q14, Q0
285 VQADD.S32 Q14, Q14, Q7
288 VQSHL.S32 Q14, Q14, Q0
331 VMOV Q13, Q14
[all …]
Dixheaacd_sbr_qmfsyn64_winadd.s47 VNEG.S32 Q14, Q11
48 VSHL.S32 Q10, Q15, Q14
134 VSHR.S32 Q14, Q13, #16
224 VSHR.S32 Q14, Q13, #16
293 VSHR.S32 Q14, Q13, #16
368 VSHR.S32 Q14, Q13, #16
Dixheaacd_overlap_add1.s84 VQSUB.S32 Q13, Q15, Q14
154 VQSUB.S32 Q13, Q15, Q14
196 VQSUB.S32 Q13, Q15, Q14
249 VQSUB.S32 Q13, Q15, Q14
Dixheaacd_tns_ar_filter_fixed.s275 VEXT.32 Q14, Q12, Q14, #3
324 VEXT.32 Q4, Q14, Q4, #3 @ @for order20
325 VEXT.32 Q14, Q12, Q14, #3 @ @for order16
Dia_xheaacd_mps_reoder_mulshift_acc.s52 VMOV.I64 Q14, #0
229 VQMOVN.S64 D0, Q14
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class0.s179 …VEXT.8 Q14,Q14,Q13,#15 @II Iteration pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, …
184 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
190 VCLT.U8 Q0,Q13,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
199 …VEXT.8 Q14,Q13,Q14,#1 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tm…
213 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
215 VCLT.U8 Q0,Q13,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
223 VADD.I8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
224 VADD.I8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
233 VAND Q14,Q14,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
250 …VMOVL.U8 Q14,D27 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u…
[all …]
Dihevc_sao_edge_offset_class1_chroma.s146 VCGT.U8 Q6,Q5,Q14 @vcgtq_u8(pu1_cur_row, pu1_top_row)
149 VCLT.U8 Q7,Q5,Q14 @vcltq_u8(pu1_cur_row, pu1_top_row)
173 …VMOVL.U8 Q14,D19 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u…
182 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
188 VNEG.S8 Q8,Q14 @II sign_up = vnegq_s8(sign_down)
190 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down)
204 …VMOVL.U8 Q14,D11 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v…
208 …VADDW.S8 Q14,Q14,D13 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],…
210 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]…
215 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
[all …]
Dihevc_sao_edge_offset_class0_chroma.s185 …VEXT.8 Q14,Q14,Q15,#14 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_ro…
188 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
191 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
209 …VEXT.8 Q14,Q15,Q14,#2 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tm…
217 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
219 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
256 …VMOVL.U8 Q14,D30 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u…
260 …VADDW.S8 Q14,Q14,D26 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[…
264 …VMAX.S16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val…
267 …VMIN.U16 Q14,Q14,Q3 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
[all …]
Dihevc_sao_edge_offset_class1.s169 …VMOVL.U8 Q14,D19 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u…
212 …VADDW.S8 Q14,Q14,D25 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[…
218 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val…
219 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u…
224 VMOVN.I16 D31,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[1])
253 …VMOVL.U8 Q14,D11 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v…
254 …VADDW.S8 Q14,Q14,D25 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],…
255 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]…
256 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
259 VMOVN.I16 D31,Q14 @vmovn_s16(pi2_tmp_cur_row.val[1])
Dihevc_sao_edge_offset_class3_chroma.s470 …VEXT.8 Q14,Q14,Q8,#14 @II pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next…
487 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
497 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
546 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u…
550 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[…
560 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val…
562 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
571 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0])
588 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row)
824 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
[all …]
Dihevc_sao_edge_offset_class2_chroma.s470 …VEXT.8 Q14,Q8,Q14,#2 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row…
486 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
494 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
546 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u…
550 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[…
553 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val…
555 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
577 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0])
592 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row)
809 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
[all …]
Dihevc_sao_edge_offset_class3.s425 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u…
436 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[…
438 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val…
442 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
461 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0])
471 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row)
672 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
673 …VADDW.S8 Q14,Q14,D24 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],…
674 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
675 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
[all …]
Dihevc_sao_edge_offset_class2.s358 …VEXT.8 Q11,Q8,Q14,#1 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row…
424 …VMOVL.U8 Q14,D13 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u…
427 …VADDW.S8 Q14,Q14,D25 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[…
429 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val…
431 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u…
437 VMOVN.I16 D27,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[1])
631 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
632 …VADDW.S8 Q14,Q14,D24 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],…
633 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
634 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
[all …]
Dihevc_resi_trans_32x32_a9q.s142 VMOV.S32 Q14,#0
197 VADDW.S16 Q14,Q14,D30
198 VADDW.S16 Q14,Q14,D31
838 VTRN.S32 Q14,Q15 @ Q14: [0 0] [16 1] [8 0] [24 1]
840 VST1.S32 {Q14-Q15},[SP]
842 @ VMOV.U32 Q14,#RADD ;get the round factor to q14
876 VSUB.S32 Q14, Q2, Q5 @o[k] = resi_tmp_1 - resi_tmp_2 k -> 9-12 R1
1032 VMLA.S32 Q4,Q2,Q14 @g_ai4_ihevc_trans_32[1][8-11]*o[0][8-11] R1
1045 VMLA.S32 Q7,Q2,Q14 @g_ai4_ihevc_trans_32[3][8-11]*o[0][8-11] R1
1057 VMLA.S32 Q4,Q2,Q14 @g_ai4_ihevc_trans_32[5][8-11]*o[0][8-11] R1 -- dual issue
[all …]
Dihevc_resi_trans.s1041 VMOV.S32 Q14,#0
1102 VADDW.S16 Q14,Q14,D30
1103 VADDW.S16 Q14,Q14,D31
1430 VTRN.S32 Q14,Q15
1431 VST1.S32 {Q14-Q15},[SP]
1433 VMOV.U32 Q14,#RADD @get the round factor to q14
1516 VADD.S32 Q4,Q4,Q14 @ROUND R1
1520 VADD.S32 Q6,Q6,Q14 @ROUND R2
1561 VADD.S32 Q9,Q9,Q14 @Round by RADD R1
1580 …VADD.S32 Q12,Q12,Q14 @Round by RADD R2, dual issued with prev. instruction in 2nd c…
[all …]
/external/libavc/common/arm/
Dih264_deblk_luma_a9.s118 vabd.u8 q14, q5, q3 @Q14 = Ap = ABS(p2 - p0)
132 vsubl.u8 q14, d8, d2 @Q14 = (p1 - q1)L
148 vaddl.u8 q5, d16, d10 @Q14,Q5 = p2 + (p0+q0+1)>>1
155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1)
160 vqshrn.s16 d28, q5, #1 @Q14 = i_macro_p1
164 vmin.s8 q14, q14, q7 @Q14 = min(C0,i_macro_p1)
168 vmax.s8 q14, q14, q13 @Q14 = max( - C0 , min(C0, i_macro_p1) )
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s161 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES
220 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES
/external/libxaac/decoder/
Dixheaacd_constants.h38 #define Q14 16384 macro
/external/llvm/lib/Target/AArch64/
DAArch64PBQPRegAlloc.cpp136 case AArch64::Q14: in isOdd()
/external/swiftshader/third_party/llvm-10.0/llvm/lib/Target/AArch64/
DAArch64PBQPRegAlloc.cpp135 case AArch64::Q14: in isOdd()

123