Home
last modified time | relevance | path

Searched refs:Q15 (Results 1 – 25 of 65) sorted by relevance

123

/external/skia/experimental/lowp-basic/
Dlowp_experiments.cpp37 using Q15 = V<8, uint16_t>; typedef
43 Q15 a(i); in test_mm_mulhrs_epi16_simulation()
44 Q15 b(j); in test_mm_mulhrs_epi16_simulation()
45 Q15 simResult = simulate_ssse3_mm_mulhrs_epi16(a, b); in test_mm_mulhrs_epi16_simulation()
46 Q15 intrinsicResult = _mm_mulhrs_epi16(a, b); in test_mm_mulhrs_epi16_simulation()
60 static Q15 ssse3_vqrdmulhq_s16(Q15 a, Q15 b) { in ssse3_vqrdmulhq_s16()
61 constexpr Q15 limit(0x8000); in ssse3_vqrdmulhq_s16()
62 const Q15 product = _mm_mulhrs_epi16(a, b); in ssse3_vqrdmulhq_s16()
63 const Q15 eq = _mm_cmpeq_epi16(product, limit); in ssse3_vqrdmulhq_s16()
70 Q15 a(i); in test_ssse3_vqrdmulhq_s16()
[all …]
Dlerp-study.cpp43 Q15 qt(floor(t * 32768.f + 0.5f)); in saturating_lerp()
44 Q15 qa(a << logPixelScale); in saturating_lerp()
45 Q15 qb(b << logPixelScale); in saturating_lerp()
47 Q15 answer = simulate_neon_vqrdmulhq_s16(qt, qb - qa) + qa; in saturating_lerp()
54 Q15 qt(floor(t * 32768.f + 0.5f)); in ssse3_lerp()
55 Q15 qa(a << logPixelScale); in ssse3_lerp()
56 Q15 qb(b << logPixelScale); in ssse3_lerp()
58 Q15 answer = simulate_ssse3_mm_mulhrs_epi16(qt, qb - qa) + qa; in ssse3_lerp()
75 Q15 qt (floor(t * 65536.0f - 32768.0f + 0.5f)); in balanced_lerp()
77 Q15 qw ((b - a) << logPixelScale); in balanced_lerp()
[all …]
DQMath.h29 using Q15 = V<8, uint16_t>; variable
58 static inline Q15 simulate_neon_vqrdmulhq_s16(Q15 a, Q15 b) { in simulate_neon_vqrdmulhq_s16()
59 Q15 result; in simulate_neon_vqrdmulhq_s16()
/external/libxaac/decoder/armv7/
Dixheaacd_dct3_32.s73 VMULL.U16 Q15, D4, D12
86 VMLAL.U16 Q15, D10, D13
95 VSHR.U32 Q15, Q15, #16
98 VMLAL.S16 Q15, D5, D12
99 VMLAL.S16 Q15, D11, D13
110 VSWP Q15, Q14
113 VST2.32 {Q14, Q15}, [R8]!
129 VMULL.U16 Q15, D4, D12
130 VMLAL.U16 Q15, D10, D13
135 VSHR.U32 Q15, Q15, #16
[all …]
Dixheaacd_dec_DCT2_64_asm.s105 VMULL.U16 Q15, D20, D8
106 VMLSL.U16 Q15, D18, D10
110 VSHR.S32 Q15, Q15, #16
113 VMLAL.S16 Q15, D21, D8
114 VMLSL.S16 Q15, D19, D10
122 VSHL.S32 Q15, Q15, #1
127 VADD.I32 Q13, Q8, Q15
136 VSUB.I32 Q6, Q8, Q15
160 VMULL.U16 Q15, D20, D8
162 VMLSL.U16 Q15, D18, D10
[all …]
Dixheaacd_sbr_qmfanal32_winadds.s91 VMULL.S16 Q15, D0, D1
97 VMLAL.S16 Q15, D2, D3
104 VMLAL.S16 Q15, D4, D5
111 VMLAL.S16 Q15, D6, D7
119 VMLAL.S16 Q15, D8, D9
171 VST1.32 {Q15}, [R4]!
175 VMULL.S16 Q15, D10, D11
177 VMLAL.S16 Q15, D12, D13
179 VMLAL.S16 Q15, D14, D15
181 VMLAL.S16 Q15, D16, D17
[all …]
Dixheaacd_overlap_add1.s70 VMULL.U16 Q15, D7, D2
72 VSHR.U32 Q15, Q15, #16
74 VMLAL.S16 Q15, D6, D2
75 VQSHL.S32 Q15, Q15, Q11
84 VQSUB.S32 Q13, Q15, Q14
117 VMULL.U16 Q15, D7, D2
121 VSHR.U32 Q15, Q15, #16
125 VMLAL.S16 Q15, D6, D2
129 VQSHL.S32 Q15, Q15, Q11
154 VQSUB.S32 Q13, Q15, Q14
[all …]
Dixheaacd_post_twiddle_overlap.s198 VMULL.U16 Q15, D0, D9
210 VSHR.U32 Q15, Q15, #16
216 VMLAL.S16 Q15, D1, D9
232 VADD.I32 Q15, Q15, Q14
233 VNEG.S32 Q15, Q15
240 VMOV Q13, Q15
264 VADD.I32 Q15, Q15, Q1
300 VNEG.S32 Q1, Q15
333 VLD2.32 {Q14, Q15}, [R4]
380 VMULL.U16 Q15, D14, D10
[all …]
Dixheaacd_sbr_qmfanal32_winadds_eld.s68 VMULL.S16 Q15, D0, D1
74 VMLAL.S16 Q15, D2, D3
82 VMLAL.S16 Q15, D4, D5
89 VMLAL.S16 Q15, D6, D7
97 VMLAL.S16 Q15, D8, D9
151 VST1.32 {Q15}, [R4]!
155 VMULL.S16 Q15, D10, D11
157 VMLAL.S16 Q15, D12, D13
159 VMLAL.S16 Q15, D14, D15
161 VMLAL.S16 Q15, D16, D17
[all …]
Dixheaacd_pre_twiddle_compute.s124 VMULL.U16 Q15, D2, D9
129 VSHR.U32 Q15, Q15, #16
134 VMLAL.S16 Q15, D3, D9
141 VSUB.I32 Q15, Q15, Q12
182 VSHL.S32 Q9, Q15, Q7
190 VMULL.U16 Q15, D2, D9
198 VSHR.U32 Q15, Q15, #16
203 VMLAL.S16 Q15, D3, D9
210 VSUB.I32 Q15, Q15, Q12
245 VSHL.S32 Q9, Q15, Q7
[all …]
Dixheaacd_post_twiddle.s112 VMULL.U16 Q15, D2, D13
117 VSHR.U32 Q15, Q15, #16
122 VMLAL.S16 Q15, D3, D13
132 VSUB.I32 Q15, Q15, Q12
138 VMOV Q13, Q15
188 VADD.I32 Q7, Q15, Q1
216 VMULL.U16 Q15, D2, D13
224 VSHR.U32 Q15, Q15, #16
229 VMLAL.S16 Q15, D3, D13
239 VSUB.I32 Q15, Q15, Q12
[all …]
Dixheaacd_no_lap1.s42 VQSHL.S32 Q15, Q0, Q1
43 VMOV Q13, Q15
63 VQSHL.S32 Q15, Q0, Q1
67 VMOV Q13,Q15
Dixheaacd_esbr_qmfsyn64_winadd.s28 VDUP.32 Q15, R7
49 VMOV Q13, Q15
50 VMOV Q14, Q15
142 VMOV Q13, Q15
143 VMOV Q14, Q15
226 VMOV Q13, Q15
228 VMOV Q14, Q15
322 VMOV Q13, Q15
324 VMOV Q14, Q15
Dia_xheaacd_mps_reoder_mulshift_acc.s53 VMOV.I64 Q15, #0
230 VQMOVN.S64 D1, Q15
Dixheaacd_sbr_qmfsyn64_winadd.s38 VDUP.32 Q15, R7
48 VSHL.S32 Q10, Q15, Q14
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class0_chroma.s185 …VEXT.8 Q14,Q14,Q15,#14 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_ro…
188 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
191 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
209 …VEXT.8 Q14,Q15,Q14,#2 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tm…
217 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
219 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
269 …VMOVL.U8 Q15,D31 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u…
271 …VADDW.S8 Q15,Q15,D27 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[…
274 …VMAX.S16 Q15,Q15,Q2 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val…
276 …VMIN.U16 Q15,Q15,Q3 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u…
[all …]
Dihevc_resi_trans_32x32_a9q.s189 VABDL.U8 Q15,D0,D4
190 VABAL.U8 Q15,D1,D5
191 VABAL.U8 Q15,D2,D6
192 VABAL.U8 Q15,D3,D7
193 VABAL.U8 Q15,D8,D12
194 VABAL.U8 Q15,D9,D13
195 VABAL.U8 Q15,D10,D14
196 VABAL.U8 Q15,D11,D15
268 VMULL.S16 Q15,D24,D0 @g_ai2_ihevc_trans_32[4][0-4] * eeo[0-4] R1 -- dual issue
313 VTRN.32 Q15, Q5 @R1 transpose1 -- dual issue
[all …]
Dihevc_sao_edge_offset_class1.s144 VST1.8 {Q15},[r3]! @vst1q_u8(pu1_src_top[col])
172 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row)
176 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row)
199 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
226 VST1.8 {Q15},[r10],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row)
261 VST1.8 {Q15},[r10],r1 @vst1q_u8(pu1_src_cpy, pu1_cur_row)
311 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row)
314 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_next_row)
339 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
Dihevc_sao_edge_offset_class1_chroma.s148 VST1.8 {Q15},[r3]! @vst1q_u8(pu1_src_top[col])
176 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row)
180 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row)
206 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
238 VST1.8 {Q15},[r10],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row)
278 VST1.8 {Q15},[r10],r1 @vst1q_u8(pu1_src_cpy, pu1_cur_row)
328 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row)
331 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_next_row)
369 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
Dihevc_sao_edge_offset_class3.s413 …VEXT.8 Q9,Q9,Q15,#15 @III pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_nex…
467 VMOV Q6,Q15 @II pu1_cur_row = pu1_next_row
678 …VMOVL.U8 Q15,D13 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v…
679 …VADDW.S8 Q15,Q15,D25 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],…
680 …VMAX.S16 Q15,Q15,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]…
681 …VMIN.U16 Q15,Q15,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
684 VMOVN.I16 D29,Q15 @vmovn_s16(pi2_tmp_cur_row.val[1])
Dihevc_sao_edge_offset_class2.s366 …VEXT.8 Q9,Q15,Q9,#1 @III pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_ro…
434 VMOV Q6,Q15 @III pu1_cur_row = pu1_next_row
637 …VMOVL.U8 Q15,D13 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v…
638 …VADDW.S8 Q15,Q15,D25 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],…
639 …VMAX.S16 Q15,Q15,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]…
640 …VMIN.U16 Q15,Q15,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
643 VMOVN.I16 D29,Q15 @vmovn_s16(pi2_tmp_cur_row.val[1])
Dihevc_sao_edge_offset_class0.s184 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
211 …VSUB.I8 Q10,Q0,Q15 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
213 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
217 …VSUB.I8 Q11,Q0,Q15 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
Dihevc_sao_edge_offset_class3_chroma.s509 …VEXT.8 Q9,Q9,Q15,#14 @III pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_nex…
574 VMOV Q6,Q15 @III pu1_cur_row = pu1_next_row
833 …VMOVL.U8 Q15,D13 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v…
840 …VADDW.S8 Q15,Q15,D25 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],…
842 …VMAX.S16 Q15,Q15,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]…
843 …VMIN.U16 Q15,Q15,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
846 VMOVN.I16 D29,Q15 @vmovn_s16(pi2_tmp_cur_row.val[1])
/external/libavc/common/arm/
Dih264_deblk_luma_a9.s119 vabd.u8 q15, q2, q0 @Q15 = Aq = ABS(q2 - q0)
130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0)
135 vsubl.u8 q15, d9, d3 @Q15 = (p1 - q1)H
152 vaddl.u8 q2, d16, d4 @Q15,Q2 = q2 + (p0+q0+1)>>1
162 vsub.i16 q15, q15, q13 @Q15,Q2 = [q2 + (p0+q0+1)>>1] - (q1<<1)
167 vqshrn.s16 d30, q2, #1 @Q15 = i_macro_q1
171 vmin.s8 q15, q15, q7 @Q15 = min(C0,i_macro_q1)
175 vmax.s8 q15, q15, q13 @Q15 = max( - C0 , min(C0, i_macro_q1) )
/external/libxaac/decoder/
Dixheaacd_constants.h39 #define Q15 32768 macro

123