Home
last modified time | relevance | path

Searched refs:d24s16 (Results 1 – 9 of 9) sorted by relevance

/external/libvpx/libvpx/vpx_dsp/arm/
Dvariance_neon.c163 int16x4_t d22s16, d23s16, d24s16, d25s16, d26s16, d27s16, d28s16, d29s16; in vpx_variance16x8_neon() local
199 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_variance16x8_neon()
202 q9s32 = vmlal_s16(q9s32, d24s16, d24s16); in vpx_variance16x8_neon()
243 int16x4_t d22s16, d23s16, d24s16, d25s16; in vpx_variance8x16_neon() local
276 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_variance8x16_neon()
279 q9s32 = vmlal_s16(q9s32, d24s16, d24s16); in vpx_variance8x16_neon()
307 int16x4_t d22s16, d23s16, d24s16, d25s16, d26s16, d27s16, d28s16, d29s16; in vpx_mse16x16_neon() local
339 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_mse16x16_neon()
341 q9s32 = vmlal_s16(q9s32, d24s16, d24s16); in vpx_mse16x16_neon()
371 int16x4_t d22s16, d24s16, d26s16, d28s16; in vpx_get4x4sse_cs_neon() local
[all …]
Dvpx_convolve8_neon.c64 int16x4_t d24s16, d25s16, d26s16, d27s16; in vpx_convolve8_horiz_neon() local
164 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_convolve8_horiz_neon()
170 d18s16, d19s16, d23s16, d24s16, q0s16); in vpx_convolve8_horiz_neon()
172 d19s16, d23s16, d24s16, d26s16, q0s16); in vpx_convolve8_horiz_neon()
174 d23s16, d24s16, d26s16, d27s16, q0s16); in vpx_convolve8_horiz_neon()
176 d24s16, d26s16, d27s16, d25s16, q0s16); in vpx_convolve8_horiz_neon()
237 int16x4_t d24s16, d25s16, d26s16, d27s16; in vpx_convolve8_vert_neon() local
290 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_convolve8_vert_neon()
298 d20s16, d21s16, d22s16, d24s16, q0s16); in vpx_convolve8_vert_neon()
302 d21s16, d22s16, d24s16, d26s16, q0s16); in vpx_convolve8_vert_neon()
[all …]
Dvpx_convolve8_avg_neon.c64 int16x4_t d24s16, d25s16, d26s16, d27s16; in vpx_convolve8_avg_horiz_neon() local
171 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_convolve8_avg_horiz_neon()
177 d18s16, d19s16, d23s16, d24s16, q0s16); in vpx_convolve8_avg_horiz_neon()
179 d19s16, d23s16, d24s16, d26s16, q0s16); in vpx_convolve8_avg_horiz_neon()
181 d23s16, d24s16, d26s16, d27s16, q0s16); in vpx_convolve8_avg_horiz_neon()
183 d24s16, d26s16, d27s16, d25s16, q0s16); in vpx_convolve8_avg_horiz_neon()
253 int16x4_t d24s16, d25s16, d26s16, d27s16; in vpx_convolve8_avg_vert_neon() local
315 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_convolve8_avg_vert_neon()
323 d20s16, d21s16, d22s16, d24s16, q0s16); in vpx_convolve8_avg_vert_neon()
327 d21s16, d22s16, d24s16, d26s16, q0s16); in vpx_convolve8_avg_vert_neon()
[all …]
Didct4x4_add_neon.c21 int16x4_t d22s16, d23s16, d24s16, d26s16, d27s16, d28s16, d29s16; in vpx_idct4x4_16_add_neon() local
60 d24s16 = vsub_s16(d16s16, d18s16); in vpx_idct4x4_16_add_neon()
65 q14s32 = vmull_s16(d24s16, d21s16); in vpx_idct4x4_16_add_neon()
101 d24s16 = vsub_s16(d16s16, d18s16); in vpx_idct4x4_16_add_neon()
106 q14s32 = vmull_s16(d24s16, d21s16); in vpx_idct4x4_16_add_neon()
Didct8x8_add_neon.c26 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in TRANSPOSE8X8() local
38 d24s16 = vget_low_s16(*q12s16); in TRANSPOSE8X8()
47 *q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 in TRANSPOSE8X8()
97 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in IDCT8x8_1D() local
115 d24s16 = vget_low_s16(*q12s16); in IDCT8x8_1D()
165 q2s32 = vmlal_s16(q2s32, d24s16, d0s16); in IDCT8x8_1D()
167 q13s32 = vmlsl_s16(q13s32, d24s16, d0s16); in IDCT8x8_1D()
Didct16x16_add_neon.c26 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in TRANSPOSE8X8() local
38 d24s16 = vget_low_s16(*q12s16); in TRANSPOSE8X8()
47 *q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 in TRANSPOSE8X8()
92 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in vpx_idct16x16_256_add_neon_pass1() local
136 d24s16 = vget_low_s16(q12s16); in vpx_idct16x16_256_add_neon_pass1()
191 q0s32 = vmull_s16(d24s16, d30s16); in vpx_idct16x16_256_add_neon_pass1()
335 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in vpx_idct16x16_256_add_neon_pass2() local
381 d24s16 = vget_low_s16(q12s16); in vpx_idct16x16_256_add_neon_pass2()
414 q2s32 = vmull_s16(d24s16, d30s16); in vpx_idct16x16_256_add_neon_pass2()
416 q4s32 = vmull_s16(d24s16, d31s16); in vpx_idct16x16_256_add_neon_pass2()
[all …]
Didct32x32_add_neon.c175 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in idct32_transpose_pair() local
206 d24s16 = vget_low_s16(q12s16); in idct32_transpose_pair()
215 q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 in idct32_transpose_pair()
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_iht8x8_add_neon.c44 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in TRANSPOSE8X8() local
56 d24s16 = vget_low_s16(*q12s16); in TRANSPOSE8X8()
65 *q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 in TRANSPOSE8X8()
115 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in IDCT8x8_1D() local
133 d24s16 = vget_low_s16(*q12s16); in IDCT8x8_1D()
183 q2s32 = vmlal_s16(q2s32, d24s16, d0s16); in IDCT8x8_1D()
185 q13s32 = vmlsl_s16(q13s32, d24s16, d0s16); in IDCT8x8_1D()
271 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in IADST8X8_1D() local
284 d24s16 = vget_low_s16(*q12s16); in IADST8X8_1D()
314 q5s32 = vmlal_s16(q5s32, d24s16, d31s16); in IADST8X8_1D()
[all …]
Dvp9_iht4x4_add_neon.c73 int16x4_t d16s16, d17s16, d18s16, d19s16, d23s16, d24s16; in IDCT4x4_1D() local
84 d24s16 = vsub_s16(d16s16, d18s16); in IDCT4x4_1D()
89 q14s32 = vmull_s16(d24s16, *d1s16); in IDCT4x4_1D()