/external/skia/experimental/lowp-basic/ |
D | lowp_experiments.cpp | 37 using Q15 = V<8, uint16_t>; typedef 43 Q15 a(i); in test_mm_mulhrs_epi16_simulation() 44 Q15 b(j); in test_mm_mulhrs_epi16_simulation() 45 Q15 simResult = simulate_ssse3_mm_mulhrs_epi16(a, b); in test_mm_mulhrs_epi16_simulation() 46 Q15 intrinsicResult = _mm_mulhrs_epi16(a, b); in test_mm_mulhrs_epi16_simulation() 60 static Q15 ssse3_vqrdmulhq_s16(Q15 a, Q15 b) { in ssse3_vqrdmulhq_s16() 61 constexpr Q15 limit(0x8000); in ssse3_vqrdmulhq_s16() 62 const Q15 product = _mm_mulhrs_epi16(a, b); in ssse3_vqrdmulhq_s16() 63 const Q15 eq = _mm_cmpeq_epi16(product, limit); in ssse3_vqrdmulhq_s16() 70 Q15 a(i); in test_ssse3_vqrdmulhq_s16() [all …]
|
D | lerp-study.cpp | 43 Q15 qt(floor(t * 32768.f + 0.5f)); in saturating_lerp() 44 Q15 qa(a << logPixelScale); in saturating_lerp() 45 Q15 qb(b << logPixelScale); in saturating_lerp() 47 Q15 answer = simulate_neon_vqrdmulhq_s16(qt, qb - qa) + qa; in saturating_lerp() 54 Q15 qt(floor(t * 32768.f + 0.5f)); in ssse3_lerp() 55 Q15 qa(a << logPixelScale); in ssse3_lerp() 56 Q15 qb(b << logPixelScale); in ssse3_lerp() 58 Q15 answer = simulate_ssse3_mm_mulhrs_epi16(qt, qb - qa) + qa; in ssse3_lerp() 75 Q15 qt (floor(t * 65536.0f - 32768.0f + 0.5f)); in balanced_lerp() 77 Q15 qw ((b - a) << logPixelScale); in balanced_lerp() [all …]
|
D | QMath.h | 29 using Q15 = V<8, uint16_t>; variable 58 static inline Q15 simulate_neon_vqrdmulhq_s16(Q15 a, Q15 b) { in simulate_neon_vqrdmulhq_s16() 59 Q15 result; in simulate_neon_vqrdmulhq_s16()
|
/external/libxaac/decoder/armv7/ |
D | ixheaacd_dct3_32.s | 73 VMULL.U16 Q15, D4, D12 86 VMLAL.U16 Q15, D10, D13 95 VSHR.U32 Q15, Q15, #16 98 VMLAL.S16 Q15, D5, D12 99 VMLAL.S16 Q15, D11, D13 110 VSWP Q15, Q14 113 VST2.32 {Q14, Q15}, [R8]! 129 VMULL.U16 Q15, D4, D12 130 VMLAL.U16 Q15, D10, D13 135 VSHR.U32 Q15, Q15, #16 [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 105 VMULL.U16 Q15, D20, D8 106 VMLSL.U16 Q15, D18, D10 110 VSHR.S32 Q15, Q15, #16 113 VMLAL.S16 Q15, D21, D8 114 VMLSL.S16 Q15, D19, D10 122 VSHL.S32 Q15, Q15, #1 127 VADD.I32 Q13, Q8, Q15 136 VSUB.I32 Q6, Q8, Q15 160 VMULL.U16 Q15, D20, D8 162 VMLSL.U16 Q15, D18, D10 [all …]
|
D | ixheaacd_sbr_qmfanal32_winadds.s | 91 VMULL.S16 Q15, D0, D1 97 VMLAL.S16 Q15, D2, D3 104 VMLAL.S16 Q15, D4, D5 111 VMLAL.S16 Q15, D6, D7 119 VMLAL.S16 Q15, D8, D9 171 VST1.32 {Q15}, [R4]! 175 VMULL.S16 Q15, D10, D11 177 VMLAL.S16 Q15, D12, D13 179 VMLAL.S16 Q15, D14, D15 181 VMLAL.S16 Q15, D16, D17 [all …]
|
D | ixheaacd_overlap_add1.s | 70 VMULL.U16 Q15, D7, D2 72 VSHR.U32 Q15, Q15, #16 74 VMLAL.S16 Q15, D6, D2 75 VQSHL.S32 Q15, Q15, Q11 84 VQSUB.S32 Q13, Q15, Q14 117 VMULL.U16 Q15, D7, D2 121 VSHR.U32 Q15, Q15, #16 125 VMLAL.S16 Q15, D6, D2 129 VQSHL.S32 Q15, Q15, Q11 154 VQSUB.S32 Q13, Q15, Q14 [all …]
|
D | ixheaacd_post_twiddle_overlap.s | 198 VMULL.U16 Q15, D0, D9 210 VSHR.U32 Q15, Q15, #16 216 VMLAL.S16 Q15, D1, D9 232 VADD.I32 Q15, Q15, Q14 233 VNEG.S32 Q15, Q15 240 VMOV Q13, Q15 264 VADD.I32 Q15, Q15, Q1 300 VNEG.S32 Q1, Q15 333 VLD2.32 {Q14, Q15}, [R4] 380 VMULL.U16 Q15, D14, D10 [all …]
|
D | ixheaacd_sbr_qmfanal32_winadds_eld.s | 68 VMULL.S16 Q15, D0, D1 74 VMLAL.S16 Q15, D2, D3 82 VMLAL.S16 Q15, D4, D5 89 VMLAL.S16 Q15, D6, D7 97 VMLAL.S16 Q15, D8, D9 151 VST1.32 {Q15}, [R4]! 155 VMULL.S16 Q15, D10, D11 157 VMLAL.S16 Q15, D12, D13 159 VMLAL.S16 Q15, D14, D15 161 VMLAL.S16 Q15, D16, D17 [all …]
|
D | ixheaacd_pre_twiddle_compute.s | 124 VMULL.U16 Q15, D2, D9 129 VSHR.U32 Q15, Q15, #16 134 VMLAL.S16 Q15, D3, D9 141 VSUB.I32 Q15, Q15, Q12 182 VSHL.S32 Q9, Q15, Q7 190 VMULL.U16 Q15, D2, D9 198 VSHR.U32 Q15, Q15, #16 203 VMLAL.S16 Q15, D3, D9 210 VSUB.I32 Q15, Q15, Q12 245 VSHL.S32 Q9, Q15, Q7 [all …]
|
D | ixheaacd_post_twiddle.s | 112 VMULL.U16 Q15, D2, D13 117 VSHR.U32 Q15, Q15, #16 122 VMLAL.S16 Q15, D3, D13 132 VSUB.I32 Q15, Q15, Q12 138 VMOV Q13, Q15 188 VADD.I32 Q7, Q15, Q1 216 VMULL.U16 Q15, D2, D13 224 VSHR.U32 Q15, Q15, #16 229 VMLAL.S16 Q15, D3, D13 239 VSUB.I32 Q15, Q15, Q12 [all …]
|
D | ixheaacd_no_lap1.s | 42 VQSHL.S32 Q15, Q0, Q1 43 VMOV Q13, Q15 63 VQSHL.S32 Q15, Q0, Q1 67 VMOV Q13,Q15
|
D | ixheaacd_esbr_qmfsyn64_winadd.s | 28 VDUP.32 Q15, R7 49 VMOV Q13, Q15 50 VMOV Q14, Q15 142 VMOV Q13, Q15 143 VMOV Q14, Q15 226 VMOV Q13, Q15 228 VMOV Q14, Q15 322 VMOV Q13, Q15 324 VMOV Q14, Q15
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 53 VMOV.I64 Q15, #0 230 VQMOVN.S64 D1, Q15
|
D | ixheaacd_sbr_qmfsyn64_winadd.s | 38 VDUP.32 Q15, R7 48 VSHL.S32 Q10, Q15, Q14
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class0_chroma.s | 185 …VEXT.8 Q14,Q14,Q15,#14 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_ro… 188 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 191 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 209 …VEXT.8 Q14,Q15,Q14,#2 @II pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tm… 217 VCGT.U8 Q13,Q15,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 219 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 269 …VMOVL.U8 Q15,D31 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u… 271 …VADDW.S8 Q15,Q15,D27 @II pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[… 274 …VMAX.S16 Q15,Q15,Q2 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 276 …VMIN.U16 Q15,Q15,Q3 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u… [all …]
|
D | ihevc_resi_trans_32x32_a9q.s | 189 VABDL.U8 Q15,D0,D4 190 VABAL.U8 Q15,D1,D5 191 VABAL.U8 Q15,D2,D6 192 VABAL.U8 Q15,D3,D7 193 VABAL.U8 Q15,D8,D12 194 VABAL.U8 Q15,D9,D13 195 VABAL.U8 Q15,D10,D14 196 VABAL.U8 Q15,D11,D15 268 VMULL.S16 Q15,D24,D0 @g_ai2_ihevc_trans_32[4][0-4] * eeo[0-4] R1 -- dual issue 313 VTRN.32 Q15, Q5 @R1 transpose1 -- dual issue [all …]
|
D | ihevc_sao_edge_offset_class1.s | 144 VST1.8 {Q15},[r3]! @vst1q_u8(pu1_src_top[col]) 172 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row) 176 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row) 199 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row 226 VST1.8 {Q15},[r10],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row) 261 VST1.8 {Q15},[r10],r1 @vst1q_u8(pu1_src_cpy, pu1_cur_row) 311 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row) 314 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_next_row) 339 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
|
D | ihevc_sao_edge_offset_class1_chroma.s | 148 VST1.8 {Q15},[r3]! @vst1q_u8(pu1_src_top[col]) 176 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row) 180 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row) 206 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row 238 VST1.8 {Q15},[r10],r1 @II vst1q_u8(pu1_src_cpy, pu1_cur_row) 278 VST1.8 {Q15},[r10],r1 @vst1q_u8(pu1_src_cpy, pu1_cur_row) 328 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row) 331 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_next_row) 369 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
|
D | ihevc_sao_edge_offset_class3.s | 413 …VEXT.8 Q9,Q9,Q15,#15 @III pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_nex… 467 VMOV Q6,Q15 @II pu1_cur_row = pu1_next_row 678 …VMOVL.U8 Q15,D13 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v… 679 …VADDW.S8 Q15,Q15,D25 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],… 680 …VMAX.S16 Q15,Q15,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 681 …VMIN.U16 Q15,Q15,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… 684 VMOVN.I16 D29,Q15 @vmovn_s16(pi2_tmp_cur_row.val[1])
|
D | ihevc_sao_edge_offset_class2.s | 366 …VEXT.8 Q9,Q15,Q9,#1 @III pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_ro… 434 VMOV Q6,Q15 @III pu1_cur_row = pu1_next_row 637 …VMOVL.U8 Q15,D13 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v… 638 …VADDW.S8 Q15,Q15,D25 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],… 639 …VMAX.S16 Q15,Q15,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 640 …VMIN.U16 Q15,Q15,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… 643 VMOVN.I16 D29,Q15 @vmovn_s16(pi2_tmp_cur_row.val[1])
|
D | ihevc_sao_edge_offset_class0.s | 184 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 211 …VSUB.I8 Q10,Q0,Q15 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 213 VCGT.U8 Q15,Q13,Q14 @II vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 217 …VSUB.I8 Q11,Q0,Q15 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
|
D | ihevc_sao_edge_offset_class3_chroma.s | 509 …VEXT.8 Q9,Q9,Q15,#14 @III pu1_next_row_tmp = vextq_u8(pu1_next_row_tmp, pu1_nex… 574 VMOV Q6,Q15 @III pu1_cur_row = pu1_next_row 833 …VMOVL.U8 Q15,D13 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v… 840 …VADDW.S8 Q15,Q15,D25 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],… 842 …VMAX.S16 Q15,Q15,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 843 …VMIN.U16 Q15,Q15,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… 846 VMOVN.I16 D29,Q15 @vmovn_s16(pi2_tmp_cur_row.val[1])
|
/external/libavc/common/arm/ |
D | ih264_deblk_luma_a9.s | 119 vabd.u8 q15, q2, q0 @Q15 = Aq = ABS(q2 - q0) 130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0) 135 vsubl.u8 q15, d9, d3 @Q15 = (p1 - q1)H 152 vaddl.u8 q2, d16, d4 @Q15,Q2 = q2 + (p0+q0+1)>>1 162 vsub.i16 q15, q15, q13 @Q15,Q2 = [q2 + (p0+q0+1)>>1] - (q1<<1) 167 vqshrn.s16 d30, q2, #1 @Q15 = i_macro_q1 171 vmin.s8 q15, q15, q7 @Q15 = min(C0,i_macro_q1) 175 vmax.s8 q15, q15, q13 @Q15 = max( - C0 , min(C0, i_macro_q1) )
|
/external/libxaac/decoder/ |
D | ixheaacd_constants.h | 39 #define Q15 32768 macro
|