Home
last modified time | relevance | path

Searched refs:q13s32 (Results 1 – 5 of 5) sorted by relevance

/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_iht8x8_add_neon.c118 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in IDCT8x8_1D() local
162 q13s32 = vmull_s16(d27s16, d3s16); in IDCT8x8_1D()
167 q13s32 = vmlal_s16(q13s32, d23s16, d2s16); in IDCT8x8_1D()
172 d13s16 = vqrshrn_n_s32(q13s32, 14); in IDCT8x8_1D()
180 q13s32 = vmull_s16(d16s16, d0s16); in IDCT8x8_1D()
185 q13s32 = vmlsl_s16(q13s32, d24s16, d0s16); in IDCT8x8_1D()
193 d22s16 = vqrshrn_n_s32(q13s32, 14); in IDCT8x8_1D()
274 int32x4_t q9s32, q10s32, q11s32, q12s32, q13s32, q14s32, q15s32; in IADST8X8_1D() local
357 q13s32 = vmull_s16(d19s16, d30s16); in IADST8X8_1D()
360 q13s32 = vmlal_s16(q13s32, d29s16, d31s16); in IADST8X8_1D()
[all …]
Dvp9_iht4x4_add_neon.c75 int32x4_t q10s32, q13s32, q14s32, q15s32; in IDCT4x4_1D() local
88 q13s32 = vmull_s16(d23s16, *d1s16); in IDCT4x4_1D()
93 d26s16 = vqrshrn_n_s32(q13s32, 14); in IDCT4x4_1D()
115 int32x4_t q8s32, q9s32, q10s32, q11s32, q12s32, q13s32, q14s32, q15s32; in IADST4x4_1D() local
127 q13s32 = vmull_s16(*d5s16, d18s16); in IADST4x4_1D()
135 q10s32 = vaddq_s32(q10s32, q13s32); in IADST4x4_1D()
142 q13s32 = vaddq_s32(q10s32, q12s32); in IADST4x4_1D()
147 d16s16 = vqrshrn_n_s32(q13s32, 14); in IADST4x4_1D()
/external/libvpx/libvpx/vpx_dsp/arm/
Didct4x4_add_neon.c23 int32x4_t q1s32, q13s32, q14s32, q15s32; in vpx_idct4x4_16_add_neon() local
64 q13s32 = vmull_s16(d23s16, d21s16); in vpx_idct4x4_16_add_neon()
70 d26s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct4x4_16_add_neon()
105 q13s32 = vmull_s16(d23s16, d21s16); in vpx_idct4x4_16_add_neon()
111 d26s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct4x4_16_add_neon()
Didct16x16_add_neon.c98 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in vpx_idct16x16_256_add_neon_pass1() local
199 q13s32 = vsubq_s32(q2s32, q0s32); in vpx_idct16x16_256_add_neon_pass1()
204 d18s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct16x16_256_add_neon_pass1()
212 q13s32 = vmull_s16(d21s16, d30s16); in vpx_idct16x16_256_add_neon_pass1()
217 q13s32 = vmlsl_s16(q13s32, d29s16, d31s16); in vpx_idct16x16_256_add_neon_pass1()
222 d21s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct16x16_256_add_neon_pass1()
249 q13s32 = vsubq_s32(q10s32, q12s32); in vpx_idct16x16_256_add_neon_pass1()
254 d11s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct16x16_256_add_neon_pass1()
343 int32x4_t q10s32, q11s32, q12s32, q13s32; in vpx_idct16x16_256_add_neon_pass2() local
457 q13s32 = vmull_s16(d29s16, d31s16); in vpx_idct16x16_256_add_neon_pass2()
[all …]
Didct8x8_add_neon.c100 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in IDCT8x8_1D() local
144 q13s32 = vmull_s16(d27s16, d3s16); in IDCT8x8_1D()
149 q13s32 = vmlal_s16(q13s32, d23s16, d2s16); in IDCT8x8_1D()
154 d13s16 = vqrshrn_n_s32(q13s32, 14); in IDCT8x8_1D()
162 q13s32 = vmull_s16(d16s16, d0s16); in IDCT8x8_1D()
167 q13s32 = vmlsl_s16(q13s32, d24s16, d0s16); in IDCT8x8_1D()
175 d22s16 = vqrshrn_n_s32(q13s32, 14); in IDCT8x8_1D()