Home
last modified time | relevance | path

Searched refs:q15s32 (Results 1 – 9 of 9) sorted by relevance

/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_iht4x4_add_neon.c75 int32x4_t q10s32, q13s32, q14s32, q15s32; in IDCT4x4_1D() local
86 q15s32 = vmull_s16(d17s16, *d2s16); in IDCT4x4_1D()
90 q15s32 = vmlsl_s16(q15s32, d19s16, *d0s16); in IDCT4x4_1D()
95 d29s16 = vqrshrn_n_s32(q15s32, 14); in IDCT4x4_1D()
115 int32x4_t q8s32, q9s32, q10s32, q11s32, q12s32, q13s32, q14s32, q15s32; in IADST4x4_1D() local
129 q15s32 = vmovl_s16(d16s16); in IADST4x4_1D()
130 q15s32 = vaddw_s16(q15s32, d19s16); in IADST4x4_1D()
132 q15s32 = vsubw_s16(q15s32, d18s16); in IADST4x4_1D()
140 q15s32 = vmulq_s32(q15s32, q8s32); in IADST4x4_1D()
149 d18s16 = vqrshrn_n_s32(q15s32, 14); in IADST4x4_1D()
Dvp9_iht8x8_add_neon.c118 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in IDCT8x8_1D() local
181 q15s32 = vmull_s16(d17s16, d0s16); in IDCT8x8_1D()
186 q15s32 = vmlsl_s16(q15s32, d25s16, d0s16); in IDCT8x8_1D()
194 d23s16 = vqrshrn_n_s32(q15s32, 14); in IDCT8x8_1D()
274 int32x4_t q9s32, q10s32, q11s32, q12s32, q13s32, q14s32, q15s32; in IADST8X8_1D() local
329 q15s32 = vaddq_s32(q4s32, q8s32); in IADST8X8_1D()
336 d25s16 = vqrshrn_n_s32(q15s32, 14); in IADST8X8_1D()
369 q15s32 = vaddq_s32(q6s32, q9s32); in IADST8X8_1D()
374 d29s16 = vqrshrn_n_s32(q15s32, 14); in IADST8X8_1D()
419 q15s32 = vaddq_s32(q6s32, q3s32); in IADST8X8_1D()
[all …]
/external/libvpx/libvpx/vpx_dsp/arm/
Didct4x4_add_neon.c23 int32x4_t q1s32, q13s32, q14s32, q15s32; in vpx_idct4x4_16_add_neon() local
62 q15s32 = vmull_s16(d17s16, d22s16); in vpx_idct4x4_16_add_neon()
67 q15s32 = vmlsl_s16(q15s32, d19s16, d20s16); in vpx_idct4x4_16_add_neon()
72 d29s16 = vqrshrn_n_s32(q15s32, 14); in vpx_idct4x4_16_add_neon()
103 q15s32 = vmull_s16(d17s16, d22s16); in vpx_idct4x4_16_add_neon()
108 q15s32 = vmlsl_s16(q15s32, d19s16, d20s16); in vpx_idct4x4_16_add_neon()
113 d29s16 = vqrshrn_n_s32(q15s32, 14); in vpx_idct4x4_16_add_neon()
Dvpx_convolve8_neon.c68 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_horiz_neon() local
175 q15s32 = MULTIPLY_BY_Q0(d22s16, d18s16, d19s16, d23s16, in vpx_convolve8_horiz_neon()
183 d5u16 = vqrshrun_n_s32(q15s32, 7); in vpx_convolve8_horiz_neon()
241 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_vert_neon() local
309 q15s32 = MULTIPLY_BY_Q0(d19s16, d20s16, d21s16, d22s16, in vpx_convolve8_vert_neon()
315 d5u16 = vqrshrun_n_s32(q15s32, 7); in vpx_convolve8_vert_neon()
Dvpx_convolve8_avg_neon.c68 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_avg_horiz_neon() local
182 q15s32 = MULTIPLY_BY_Q0(d22s16, d18s16, d19s16, d23s16, in vpx_convolve8_avg_horiz_neon()
190 d5u16 = vqrshrun_n_s32(q15s32, 7); in vpx_convolve8_avg_horiz_neon()
257 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_avg_vert_neon() local
334 q15s32 = MULTIPLY_BY_Q0(d19s16, d20s16, d21s16, d22s16, in vpx_convolve8_avg_vert_neon()
340 d5u16 = vqrshrun_n_s32(q15s32, 7); in vpx_convolve8_avg_vert_neon()
Didct8x8_add_neon.c100 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in IDCT8x8_1D() local
163 q15s32 = vmull_s16(d17s16, d0s16); in IDCT8x8_1D()
168 q15s32 = vmlsl_s16(q15s32, d25s16, d0s16); in IDCT8x8_1D()
176 d23s16 = vqrshrn_n_s32(q15s32, 14); in IDCT8x8_1D()
Didct16x16_add_neon.c98 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in vpx_idct16x16_256_add_neon_pass1() local
172 q15s32 = vmull_s16(d27s16, d3s16); in vpx_idct16x16_256_add_neon_pass1()
177 q15s32 = vmlal_s16(q15s32, d23s16, d2s16); in vpx_idct16x16_256_add_neon_pass1()
182 d13s16 = vqrshrn_n_s32(q15s32, 14); in vpx_idct16x16_256_add_neon_pass1()
893 int32x4_t q10s32, q11s32, q12s32, q15s32; in vpx_idct16x16_10_add_neon_pass1() local
945 q15s32 = vsubq_s32(q10s32, q12s32); in vpx_idct16x16_10_add_neon_pass1()
950 d11s16 = vqrshrn_n_s32(q15s32, 14); in vpx_idct16x16_10_add_neon_pass1()
Didct32x32_add_neon.c134 int32x4_t q8s32, q9s32, q10s32, q11s32, q12s32, q15s32; in DO_BUTTERFLY() local
156 q15s32 = vmull_s16(dBs16, d30s16); in DO_BUTTERFLY()
159 q10s32 = vaddq_s32(q10s32, q15s32); in DO_BUTTERFLY()
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dvp8_shortwalsh4x4_neon.c31 int32x4_t q9s32, q10s32, q11s32, q15s32; in vp8_short_walsh4x4_neon() local
38 q15s32 = vdupq_n_s32(3); in vp8_short_walsh4x4_neon()
112 q8s32 = vaddq_s32(q0s32, q15s32); in vp8_short_walsh4x4_neon()
113 q9s32 = vaddq_s32(q1s32, q15s32); in vp8_short_walsh4x4_neon()
114 q10s32 = vaddq_s32(q2s32, q15s32); in vp8_short_walsh4x4_neon()
115 q11s32 = vaddq_s32(q3s32, q15s32); in vp8_short_walsh4x4_neon()