Home
last modified time | relevance | path

Searched refs:q1s32 (Results 1 – 6 of 6) sorted by relevance

/external/libvpx/libvpx/vpx_dsp/arm/
Didct4x4_add_neon.c23 int32x4_t q1s32, q13s32, q14s32, q15s32; in vpx_idct4x4_16_add_neon() local
63 q1s32 = vmull_s16(d17s16, d20s16); in vpx_idct4x4_16_add_neon()
68 q1s32 = vmlal_s16(q1s32, d19s16, d22s16); in vpx_idct4x4_16_add_neon()
73 d28s16 = vqrshrn_n_s32(q1s32, 14); in vpx_idct4x4_16_add_neon()
104 q1s32 = vmull_s16(d17s16, d20s16); in vpx_idct4x4_16_add_neon()
109 q1s32 = vmlal_s16(q1s32, d19s16, d22s16); in vpx_idct4x4_16_add_neon()
114 d28s16 = vqrshrn_n_s32(q1s32, 14); in vpx_idct4x4_16_add_neon()
Didct16x16_add_neon.c97 int32x4_t q0s32, q1s32, q2s32, q3s32, q5s32, q6s32, q9s32; in vpx_idct16x16_256_add_neon_pass1() local
192 q1s32 = vmull_s16(d25s16, d30s16); in vpx_idct16x16_256_add_neon_pass1()
198 q12s32 = vaddq_s32(q11s32, q1s32); in vpx_idct16x16_256_add_neon_pass1()
200 q1s32 = vsubq_s32(q11s32, q1s32); in vpx_idct16x16_256_add_neon_pass1()
205 d19s16 = vqrshrn_n_s32(q1s32, 14); in vpx_idct16x16_256_add_neon_pass1()
210 q1s32 = vmull_s16(d21s16, d31s16); in vpx_idct16x16_256_add_neon_pass1()
215 q1s32 = vmlal_s16(q1s32, d29s16, d30s16); in vpx_idct16x16_256_add_neon_pass1()
220 d23s16 = vqrshrn_n_s32(q1s32, 14); in vpx_idct16x16_256_add_neon_pass1()
342 int32x4_t q0s32, q1s32, q2s32, q3s32, q4s32, q5s32, q6s32, q8s32, q9s32; in vpx_idct16x16_256_add_neon_pass2() local
396 q1s32 = vmull_s16(d16s16, d13s16); in vpx_idct16x16_256_add_neon_pass2()
[all …]
Dvpx_convolve8_neon.c68 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_horiz_neon() local
169 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d20s16, d22s16, in vpx_convolve8_horiz_neon()
180 d2u16 = vqrshrun_n_s32(q1s32, 7); in vpx_convolve8_horiz_neon()
241 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_vert_neon() local
297 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d18s16, d19s16, in vpx_convolve8_vert_neon()
312 d2u16 = vqrshrun_n_s32(q1s32, 7); in vpx_convolve8_vert_neon()
Dvpx_convolve8_avg_neon.c68 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_avg_horiz_neon() local
176 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d20s16, d22s16, in vpx_convolve8_avg_horiz_neon()
187 d2u16 = vqrshrun_n_s32(q1s32, 7); in vpx_convolve8_avg_horiz_neon()
257 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_avg_vert_neon() local
322 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d18s16, d19s16, in vpx_convolve8_avg_vert_neon()
337 d2u16 = vqrshrun_n_s32(q1s32, 7); in vpx_convolve8_avg_vert_neon()
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_iht8x8_add_neon.c273 int32x4_t q0s32, q1s32, q2s32, q3s32, q4s32, q5s32, q6s32, q7s32, q8s32; in IADST8X8_1D() local
296 q1s32 = vmull_s16(d30s16, d14s16); in IADST8X8_1D()
304 q1s32 = vmlal_s16(q1s32, d16s16, d15s16); in IADST8X8_1D()
319 q11s32 = vaddq_s32(q1s32, q5s32); in IADST8X8_1D()
321 q1s32 = vsubq_s32(q1s32, q5s32); in IADST8X8_1D()
333 d2s16 = vqrshrn_n_s32(q1s32, 14); in IADST8X8_1D()
403 q1s32 = vmull_s16(d4s16, d30s16); in IADST8X8_1D()
408 q1s32 = vmlsl_s16(q1s32, d8s16, d31s16); in IADST8X8_1D()
418 q14s32 = vaddq_s32(q5s32, q1s32); in IADST8X8_1D()
420 q5s32 = vsubq_s32(q5s32, q1s32); in IADST8X8_1D()
[all …]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dvp8_shortwalsh4x4_neon.c30 int32x4_t qEmptys32, q0s32, q1s32, q2s32, q3s32, q8s32; in vp8_short_walsh4x4_neon() local
93 q1s32 = vaddq_s32(q11s32, q10s32); in vp8_short_walsh4x4_neon()
98 q9u32 = vcltq_s32(q1s32, qEmptys32); in vp8_short_walsh4x4_neon()
108 q1s32 = vsubq_s32(q1s32, q9s32); in vp8_short_walsh4x4_neon()
113 q9s32 = vaddq_s32(q1s32, q15s32); in vp8_short_walsh4x4_neon()