Home
last modified time | relevance | path

Searched refs:d22s16 (Results 1 – 8 of 8) sorted by relevance

/external/libvpx/libvpx/vpx_dsp/arm/
Dvariance_neon.c163 int16x4_t d22s16, d23s16, d24s16, d25s16, d26s16, d27s16, d28s16, d29s16; in vpx_variance16x8_neon() local
193 d22s16 = vreinterpret_s16_u16(vget_low_u16(q11u16)); in vpx_variance16x8_neon()
196 q9s32 = vmlal_s16(q9s32, d22s16, d22s16); in vpx_variance16x8_neon()
243 int16x4_t d22s16, d23s16, d24s16, d25s16; in vpx_variance8x16_neon() local
270 d22s16 = vreinterpret_s16_u16(vget_low_u16(q11u16)); in vpx_variance8x16_neon()
273 q9s32 = vmlal_s16(q9s32, d22s16, d22s16); in vpx_variance8x16_neon()
307 int16x4_t d22s16, d23s16, d24s16, d25s16, d26s16, d27s16, d28s16, d29s16; in vpx_mse16x16_neon() local
334 d22s16 = vreinterpret_s16_u16(vget_low_u16(q11u16)); in vpx_mse16x16_neon()
336 q7s32 = vmlal_s16(q7s32, d22s16, d22s16); in vpx_mse16x16_neon()
371 int16x4_t d22s16, d24s16, d26s16, d28s16; in vpx_get4x4sse_cs_neon() local
[all …]
Dvpx_convolve8_neon.c63 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d22s16, d23s16; in vpx_convolve8_horiz_neon() local
163 d22s16 = vreinterpret_s16_u16(vget_low_u16(q11u16)); in vpx_convolve8_horiz_neon()
169 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d20s16, d22s16, in vpx_convolve8_horiz_neon()
171 q2s32 = MULTIPLY_BY_Q0(d17s16, d20s16, d22s16, d18s16, in vpx_convolve8_horiz_neon()
173 q14s32 = MULTIPLY_BY_Q0(d20s16, d22s16, d18s16, d19s16, in vpx_convolve8_horiz_neon()
175 q15s32 = MULTIPLY_BY_Q0(d22s16, d18s16, d19s16, d23s16, in vpx_convolve8_horiz_neon()
236 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16; in vpx_convolve8_vert_neon() local
271 d22s16 = vreinterpret_s16_u16(vget_low_u16(q11u16)); in vpx_convolve8_vert_neon()
298 d20s16, d21s16, d22s16, d24s16, q0s16); in vpx_convolve8_vert_neon()
302 d21s16, d22s16, d24s16, d26s16, q0s16); in vpx_convolve8_vert_neon()
[all …]
Dvpx_convolve8_avg_neon.c63 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d22s16, d23s16; in vpx_convolve8_avg_horiz_neon() local
170 d22s16 = vreinterpret_s16_u16(vget_low_u16(q11u16)); in vpx_convolve8_avg_horiz_neon()
176 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d20s16, d22s16, in vpx_convolve8_avg_horiz_neon()
178 q2s32 = MULTIPLY_BY_Q0(d17s16, d20s16, d22s16, d18s16, in vpx_convolve8_avg_horiz_neon()
180 q14s32 = MULTIPLY_BY_Q0(d20s16, d22s16, d18s16, d19s16, in vpx_convolve8_avg_horiz_neon()
182 q15s32 = MULTIPLY_BY_Q0(d22s16, d18s16, d19s16, d23s16, in vpx_convolve8_avg_horiz_neon()
252 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16; in vpx_convolve8_avg_vert_neon() local
287 d22s16 = vreinterpret_s16_u16(vget_low_u16(q11u16)); in vpx_convolve8_avg_vert_neon()
323 d20s16, d21s16, d22s16, d24s16, q0s16); in vpx_convolve8_avg_vert_neon()
327 d21s16, d22s16, d24s16, d26s16, q0s16); in vpx_convolve8_avg_vert_neon()
[all …]
Didct4x4_add_neon.c21 int16x4_t d22s16, d23s16, d24s16, d26s16, d27s16, d28s16, d29s16; in vpx_idct4x4_16_add_neon() local
56 d22s16 = vdup_n_s16(cospi_24_64); in vpx_idct4x4_16_add_neon()
62 q15s32 = vmull_s16(d17s16, d22s16); in vpx_idct4x4_16_add_neon()
68 q1s32 = vmlal_s16(q1s32, d19s16, d22s16); in vpx_idct4x4_16_add_neon()
103 q15s32 = vmull_s16(d17s16, d22s16); in vpx_idct4x4_16_add_neon()
109 q1s32 = vmlal_s16(q1s32, d19s16, d22s16); in vpx_idct4x4_16_add_neon()
Didct8x8_add_neon.c25 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local
36 d22s16 = vget_low_s16(*q11s16); in TRANSPOSE8X8()
50 *q11s16 = vcombine_s16(d22s16, d30s16); // vswp d23, d30 in TRANSPOSE8X8()
96 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IDCT8x8_1D() local
113 d22s16 = vget_low_s16(*q11s16); in IDCT8x8_1D()
131 q5s32 = vmlsl_s16(q5s32, d22s16, d3s16); in IDCT8x8_1D()
148 q9s32 = vmlal_s16(q9s32, d22s16, d2s16); in IDCT8x8_1D()
175 d22s16 = vqrshrn_n_s32(q13s32, 14); in IDCT8x8_1D()
178 *q11s16 = vcombine_s16(d22s16, d23s16); in IDCT8x8_1D()
Didct16x16_add_neon.c25 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local
36 d22s16 = vget_low_s16(*q11s16); in TRANSPOSE8X8()
50 *q11s16 = vcombine_s16(d22s16, d30s16); // vswp d23, d30 in TRANSPOSE8X8()
91 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in vpx_idct16x16_256_add_neon_pass1() local
134 d22s16 = vget_low_s16(q11s16); in vpx_idct16x16_256_add_neon_pass1()
174 q2s32 = vmlsl_s16(q2s32, d22s16, d3s16); in vpx_idct16x16_256_add_neon_pass1()
176 q9s32 = vmlal_s16(q9s32, d22s16, d2s16); in vpx_idct16x16_256_add_neon_pass1()
219 d22s16 = vqrshrn_n_s32(q0s32, 14); in vpx_idct16x16_256_add_neon_pass1()
224 q11s16 = vcombine_s16(d22s16, d23s16); in vpx_idct16x16_256_add_neon_pass1()
334 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in vpx_idct16x16_256_add_neon_pass2() local
[all …]
Didct32x32_add_neon.c174 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in idct32_transpose_pair() local
204 d22s16 = vget_low_s16(q11s16); in idct32_transpose_pair()
218 q11s16 = vcombine_s16(d22s16, d30s16); // vswp d23, d30 in idct32_transpose_pair()
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_iht8x8_add_neon.c43 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local
54 d22s16 = vget_low_s16(*q11s16); in TRANSPOSE8X8()
68 *q11s16 = vcombine_s16(d22s16, d30s16); // vswp d23, d30 in TRANSPOSE8X8()
114 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IDCT8x8_1D() local
131 d22s16 = vget_low_s16(*q11s16); in IDCT8x8_1D()
149 q5s32 = vmlsl_s16(q5s32, d22s16, d3s16); in IDCT8x8_1D()
166 q9s32 = vmlal_s16(q9s32, d22s16, d2s16); in IDCT8x8_1D()
193 d22s16 = vqrshrn_n_s32(q13s32, 14); in IDCT8x8_1D()
196 *q11s16 = vcombine_s16(d22s16, d23s16); in IDCT8x8_1D()
270 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IADST8X8_1D() local
[all …]