Home
last modified time | relevance | path

Searched refs:Q14 (Results 1 – 25 of 63) sorted by relevance

123

/external/libxaac/decoder/armv7/
Dixheaacd_dec_DCT2_64_asm.s106 VMULL.U16 Q14, D18, D8
107 VMLAL.U16 Q14, D20, D10
110 VSHR.U32 Q14, Q14, #16
117 VMLAL.S16 Q14, D19, D8
119 VMLAL.S16 Q14, D21, D10
123 VSHL.S32 Q14, Q14, #1
128 VADD.I32 Q12, Q11, Q14
132 VSUB.I32 Q7, Q14, Q11
163 VMULL.U16 Q14, D18, D8
165 VMLAL.U16 Q14, D20, D10
[all …]
Dixheaacd_dct3_32.s75 VMULL.U16 Q14, D4, D13
87 VMLSL.U16 Q14, D10, D12
101 VSHR.S32 Q14, Q14, #16
102 VMLAL.S16 Q14, D5, D13
104 VMLSL.S16 Q14, D11, D12
109 VSWP Q15, Q14
112 VST2.32 {Q14, Q15}, [R8]!
130 VMULL.U16 Q14, D4, D13
132 VMLSL.U16 Q14, D10, D12
137 VSHR.S32 Q14, Q14, #16
[all …]
Dixheaacd_esbr_qmfsyn64_winadd.s49 VMOV Q14, Q15
52 VMLAL.S32 Q14, D1, D3
58 VMLAL.S32 Q14, D7, D5
64 VMLAL.S32 Q14, D11, D9
70 VMLAL.S32 Q14, D13, D15
76 VMLAL.S32 Q14, D17, D19
89 VMLAL.S32 Q14, D1, D3
96 VMLAL.S32 Q14, D7, D5
102 VMLAL.S32 Q14, D11, D9
108 VMLAL.S32 Q14, D13, D15
[all …]
Dixheaacd_pre_twiddle_compute.s125 VMULL.U16 Q14, D4, D9
130 VSHR.U32 Q14, Q14, #16
135 VMLAL.S16 Q14, D5, D9
139 VADD.I32 Q14, Q13, Q14
140 VNEG.S32 Q14, Q14
183 VSHL.S32 Q8, Q14, Q7
192 VMULL.U16 Q14, D4, D9
199 VSHR.U32 Q14, Q14, #16
204 VMLAL.S16 Q14, D5, D9
208 VADD.I32 Q14, Q13, Q14
[all …]
Dixheaacd_post_twiddle.s113 VMULL.U16 Q14, D0, D13
118 VSHR.U32 Q14, Q14, #16
123 VMLAL.S16 Q14, D1, D13
131 VADD.I32 Q14, Q14, Q13
133 VNEG.S32 Q14, Q14
141 VMOV Q12, Q14
189 VADD.I32 Q13, Q14, Q0
218 VMULL.U16 Q14, D0, D13
225 VSHR.U32 Q14, Q14, #16
230 VMLAL.S16 Q14, D1, D13
[all …]
Dixheaacd_post_twiddle_overlap.s203 VMULL.U16 Q14, D2, D8
215 VSHR.U32 Q14, Q14, #16
221 VMLAL.S16 Q14, D3, D8
234 VADD.I32 Q15, Q15, Q14
239 VSUB.I32 Q14, Q12, Q13
243 VMOV Q12, Q14
265 VADD.I32 Q14, Q14, Q0
287 VQADD.S32 Q14, Q14, Q7
290 VQSHL.S32 Q14, Q14, Q0
333 VMOV Q13, Q14
[all …]
Dixheaacd_overlap_add1.s85 VQADD.S32 Q14, Q14, Q10
86 VQSUB.S32 Q13, Q15, Q14
163 VQADD.S32 Q14, Q14, Q10
167 VQSUB.S32 Q13, Q15, Q14
211 VQADD.S32 Q14, Q14, Q10
215 VQSUB.S32 Q13, Q15, Q14
271 VQADD.S32 Q14, Q14, Q10
273 VQSUB.S32 Q13, Q15, Q14
Dixheaacd_no_lap1.s46 VQADD.S32 Q14, Q15, Q2
47 VSHR.S32 Q13, Q14, #16
75 VQADD.S32 Q14, Q15, Q2
77 VSHR.S32 Q13, Q14, #16
Dixheaacd_sbr_qmfsyn64_winadd.s46 VNEG.S32 Q14, Q11
47 VSHL.S32 Q10, Q15, Q14
133 VSHR.S32 Q14, Q13, #16
223 VSHR.S32 Q14, Q13, #16
292 VSHR.S32 Q14, Q13, #16
367 VSHR.S32 Q14, Q13, #16
Dixheaacd_tns_ar_filter_fixed.s275 VEXT.32 Q14, Q12, Q14, #3
324 VEXT.32 Q4, Q14, Q4, #3 @ @for order20
325 VEXT.32 Q14, Q12, Q14, #3 @ @for order16
Dia_xheaacd_mps_reoder_mulshift_acc.s52 VMOV.I64 Q14, #0
229 VQMOVN.S64 D0, Q14
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class0.s179 …VEXT.8 Q14,Q14,Q13,#15 @II Iteration pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, …
184 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
190 VCLT.U8 Q0,Q13,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
199 …VEXT.8 Q14,Q13,Q14,#1 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tm…
213 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
215 VCLT.U8 Q0,Q13,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
223 VADD.I8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
224 VADD.I8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
233 VAND Q14,Q14,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
250 …VMOVL.U8 Q14,D27 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u…
[all …]
Dihevc_sao_edge_offset_class1_chroma.s146 VCGT.U8 Q6,Q5,Q14 @vcgtq_u8(pu1_cur_row, pu1_top_row)
149 VCLT.U8 Q7,Q5,Q14 @vcltq_u8(pu1_cur_row, pu1_top_row)
173 …VMOVL.U8 Q14,D19 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u…
182 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
188 VNEG.S8 Q8,Q14 @II sign_up = vnegq_s8(sign_down)
190 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down)
204 …VMOVL.U8 Q14,D11 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v…
208 …VADDW.S8 Q14,Q14,D13 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],…
210 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]…
215 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
[all …]
Dihevc_sao_edge_offset_class0_chroma.s185 …VEXT.8 Q14,Q14,Q15,#14 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_ro…
188 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
191 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
209 …VEXT.8 Q14,Q15,Q14,#2 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tm…
217 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
219 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
256 …VMOVL.U8 Q14,D30 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u…
260 …VADDW.S8 Q14,Q14,D26 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[…
264 …VMAX.S16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val…
267 …VMIN.U16 Q14,Q14,Q3 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
[all …]
Dihevc_sao_edge_offset_class1.s169 …VMOVL.U8 Q14,D19 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u…
212 …VADDW.S8 Q14,Q14,D25 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[…
218 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val…
219 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u…
224 VMOVN.I16 D31,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[1])
253 …VMOVL.U8 Q14,D11 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v…
254 …VADDW.S8 Q14,Q14,D25 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],…
255 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]…
256 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
259 VMOVN.I16 D31,Q14 @vmovn_s16(pi2_tmp_cur_row.val[1])
Dihevc_sao_edge_offset_class3_chroma.s470 …VEXT.8 Q14,Q14,Q8,#14 @II pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_next…
487 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
497 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
546 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u…
550 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[…
560 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val…
562 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
571 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0])
588 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row)
824 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
[all …]
Dihevc_sao_edge_offset_class2_chroma.s470 …VEXT.8 Q14,Q8,Q14,#2 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row…
486 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
494 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
546 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u…
550 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[…
553 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val…
555 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
577 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0])
592 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row)
809 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
[all …]
Dihevc_sao_edge_offset_class3.s425 …VMOVL.U8 Q14,D12 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u…
436 …VADDW.S8 Q14,Q14,D24 @II pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[…
438 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val…
442 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
461 VMOVN.I16 D28,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[0])
471 VST1.8 {Q14},[r0],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row)
672 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
673 …VADDW.S8 Q14,Q14,D24 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],…
674 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
675 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
[all …]
Dihevc_sao_edge_offset_class2.s358 …VEXT.8 Q11,Q8,Q14,#1 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row…
424 …VMOVL.U8 Q14,D13 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u…
427 …VADDW.S8 Q14,Q14,D25 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[…
429 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val…
431 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u…
437 VMOVN.I16 D27,Q14 @II vmovn_s16(pi2_tmp_cur_row.val[1])
631 …VMOVL.U8 Q14,D12 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vmovl_u8(v…
632 …VADDW.S8 Q14,Q14,D24 @pi2_tmp_cur_row.val[0] = vaddw_s8(pi2_tmp_cur_row.val[0],…
633 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
634 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
[all …]
Dihevc_resi_trans_32x32_a9q.s140 VMOV.S32 Q14,#0
195 VADDW.S16 Q14,Q14,D30
196 VADDW.S16 Q14,Q14,D31
836 VTRN.S32 Q14,Q15 @ Q14: [0 0] [16 1] [8 0] [24 1]
838 VST1.S32 {Q14-Q15},[SP]
840 @ VMOV.U32 Q14,#RADD ;get the round factor to q14
874 VSUB.S32 Q14, Q2, Q5 @o[k] = resi_tmp_1 - resi_tmp_2 k -> 9-12 R1
1030 VMLA.S32 Q4,Q2,Q14 @g_ai4_ihevc_trans_32[1][8-11]*o[0][8-11] R1
1043 VMLA.S32 Q7,Q2,Q14 @g_ai4_ihevc_trans_32[3][8-11]*o[0][8-11] R1
1055 VMLA.S32 Q4,Q2,Q14 @g_ai4_ihevc_trans_32[5][8-11]*o[0][8-11] R1 -- dual issue
[all …]
Dihevc_resi_trans.s972 VMOV.S32 Q14,#0
1020 VADDW.S16 Q14,Q14,D30
1021 VADDW.S16 Q14,Q14,D31
1348 VTRN.S32 Q14,Q15
1349 VST1.S32 {Q14-Q15},[SP]
1351 VMOV.U32 Q14,#RADD @get the round factor to q14
1434 VADD.S32 Q4,Q4,Q14 @ROUND R1
1438 VADD.S32 Q6,Q6,Q14 @ROUND R2
1479 VADD.S32 Q9,Q9,Q14 @Round by RADD R1
1498 …VADD.S32 Q12,Q12,Q14 @Round by RADD R2, dual issued with prev. instruction in 2nd c…
[all …]
/external/libavc/common/arm/
Dih264_deblk_luma_a9.s118 vabd.u8 q14, q5, q3 @Q14 = Ap = ABS(p2 - p0)
132 vsubl.u8 q14, d8, d2 @Q14 = (p1 - q1)L
148 vaddl.u8 q5, d16, d10 @Q14,Q5 = p2 + (p0+q0+1)>>1
155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1)
160 vqshrn.s16 d28, q5, #1 @Q14 = i_macro_p1
164 vmin.s8 q14, q14, q7 @Q14 = min(C0,i_macro_p1)
168 vmax.s8 q14, q14, q13 @Q14 = max( - C0 , min(C0, i_macro_p1) )
/external/libxaac/decoder/
Dixheaacd_constants.h38 #define Q14 16384 macro
/external/swiftshader/third_party/LLVM/lib/Target/ARM/MCTargetDesc/
DARMBaseInfo.h169 case LR: case S14: case D14: case Q14: return 14; in getARMRegisterNumbering()
/external/swiftshader/third_party/LLVM/lib/Target/ARM/
DARMRegisterInfo.td149 def Q14 : ARMReg<14, "q14", [D28, D29]>;
169 def QQ7 : ARMReg<7, "qq7", [Q14, Q15]>;

123