/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | shortfdct_neon.c | 18 int16x4_t d16s16, d17s16, d26s16, dEmptys16; in vp8_short_fdct4x4_neon() local 87 d26s16 = vdup_n_s16(7); in vp8_short_fdct4x4_neon() 88 d4s16 = vadd_s16(d4s16, d26s16); in vp8_short_fdct4x4_neon() 123 int16x4_t d16s16, d17s16, d26s16, d27s16, d28s16, d29s16; in vp8_short_fdct8x4_neon() local 172 d26s16 = vget_low_s16(q13s16); in vp8_short_fdct8x4_neon() 182 q9s32 = vmlal_s16(q9s32, d26s16, d17s16); in vp8_short_fdct8x4_neon() 183 q10s32 = vmlsl_s16(q10s32, d26s16, d16s16); in vp8_short_fdct8x4_neon() 230 d26s16 = vget_low_s16(q13s16); in vp8_short_fdct8x4_neon() 240 q9s32 = vmlal_s16(q9s32, d26s16, d17s16); in vp8_short_fdct8x4_neon() 241 q10s32 = vmlsl_s16(q10s32, d26s16, d16s16); in vp8_short_fdct8x4_neon()
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct8x8_add_neon.c | 26 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in TRANSPOSE8X8() local 40 d26s16 = vget_low_s16(*q13s16); in TRANSPOSE8X8() 48 *q9s16 = vcombine_s16(d18s16, d26s16); // vswp d19, d26 in TRANSPOSE8X8() 97 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in IDCT8x8_1D() local 117 d26s16 = vget_low_s16(*q13s16); in IDCT8x8_1D() 126 q5s32 = vmull_s16(d26s16, d2s16); in IDCT8x8_1D() 143 q9s32 = vmull_s16(d26s16, d3s16); in IDCT8x8_1D() 190 d26s16 = vqrshrn_n_s32(q2s32, 14); in IDCT8x8_1D() 194 *q13s16 = vcombine_s16(d26s16, d27s16); in IDCT8x8_1D() 206 d26s16 = vget_low_s16(*q13s16); in IDCT8x8_1D() [all …]
|
D | variance_neon.c | 163 int16x4_t d22s16, d23s16, d24s16, d25s16, d26s16, d27s16, d28s16, d29s16; in vpx_variance16x8_neon() local 205 d26s16 = vreinterpret_s16_u16(vget_low_u16(q13u16)); in vpx_variance16x8_neon() 208 q9s32 = vmlal_s16(q9s32, d26s16, d26s16); in vpx_variance16x8_neon() 307 int16x4_t d22s16, d23s16, d24s16, d25s16, d26s16, d27s16, d28s16, d29s16; in vpx_mse16x16_neon() local 344 d26s16 = vreinterpret_s16_u16(vget_low_u16(q13u16)); in vpx_mse16x16_neon() 346 q7s32 = vmlal_s16(q7s32, d26s16, d26s16); in vpx_mse16x16_neon() 371 int16x4_t d22s16, d24s16, d26s16, d28s16; in vpx_get4x4sse_cs_neon() local 402 d26s16 = vget_low_s16(vreinterpretq_s16_u16(q13u16)); in vpx_get4x4sse_cs_neon() 407 q9s32 = vmull_s16(d26s16, d26s16); in vpx_get4x4sse_cs_neon()
|
D | vpx_convolve8_neon.c | 64 int16x4_t d24s16, d25s16, d26s16, d27s16; in vpx_convolve8_horiz_neon() local 166 d26s16 = vreinterpret_s16_u16(vget_low_u16(q13u16)); in vpx_convolve8_horiz_neon() 172 d19s16, d23s16, d24s16, d26s16, q0s16); in vpx_convolve8_horiz_neon() 174 d23s16, d24s16, d26s16, d27s16, q0s16); in vpx_convolve8_horiz_neon() 176 d24s16, d26s16, d27s16, d25s16, q0s16); in vpx_convolve8_horiz_neon() 237 int16x4_t d24s16, d25s16, d26s16, d27s16; in vpx_convolve8_vert_neon() local 292 d26s16 = vreinterpret_s16_u16(vget_low_u16(q13u16)); in vpx_convolve8_vert_neon() 302 d21s16, d22s16, d24s16, d26s16, q0s16); in vpx_convolve8_vert_neon() 306 d22s16, d24s16, d26s16, d27s16, q0s16); in vpx_convolve8_vert_neon() 310 d24s16, d26s16, d27s16, d25s16, q0s16); in vpx_convolve8_vert_neon()
|
D | idct4x4_add_neon.c | 21 int16x4_t d22s16, d23s16, d24s16, d26s16, d27s16, d28s16, d29s16; in vpx_idct4x4_16_add_neon() local 70 d26s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct4x4_16_add_neon() 74 q13s16 = vcombine_s16(d26s16, d27s16); in vpx_idct4x4_16_add_neon() 111 d26s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct4x4_16_add_neon() 115 q13s16 = vcombine_s16(d26s16, d27s16); in vpx_idct4x4_16_add_neon()
|
D | vpx_convolve8_avg_neon.c | 64 int16x4_t d24s16, d25s16, d26s16, d27s16; in vpx_convolve8_avg_horiz_neon() local 173 d26s16 = vreinterpret_s16_u16(vget_low_u16(q13u16)); in vpx_convolve8_avg_horiz_neon() 179 d19s16, d23s16, d24s16, d26s16, q0s16); in vpx_convolve8_avg_horiz_neon() 181 d23s16, d24s16, d26s16, d27s16, q0s16); in vpx_convolve8_avg_horiz_neon() 183 d24s16, d26s16, d27s16, d25s16, q0s16); in vpx_convolve8_avg_horiz_neon() 253 int16x4_t d24s16, d25s16, d26s16, d27s16; in vpx_convolve8_avg_vert_neon() local 317 d26s16 = vreinterpret_s16_u16(vget_low_u16(q13u16)); in vpx_convolve8_avg_vert_neon() 327 d21s16, d22s16, d24s16, d26s16, q0s16); in vpx_convolve8_avg_vert_neon() 331 d22s16, d24s16, d26s16, d27s16, q0s16); in vpx_convolve8_avg_vert_neon() 335 d24s16, d26s16, d27s16, d25s16, q0s16); in vpx_convolve8_avg_vert_neon()
|
D | idct16x16_add_neon.c | 26 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in TRANSPOSE8X8() local 40 d26s16 = vget_low_s16(*q13s16); in TRANSPOSE8X8() 48 *q9s16 = vcombine_s16(d18s16, d26s16); // vswp d19, d26 in TRANSPOSE8X8() 92 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in vpx_idct16x16_256_add_neon_pass1() local 138 d26s16 = vget_low_s16(q13s16); in vpx_idct16x16_256_add_neon_pass1() 169 q2s32 = vmull_s16(d26s16, d2s16); in vpx_idct16x16_256_add_neon_pass1() 171 q9s32 = vmull_s16(d26s16, d3s16); in vpx_idct16x16_256_add_neon_pass1() 230 d26s16 = vget_low_s16(q13s16); in vpx_idct16x16_256_add_neon_pass1() 243 q11s32 = vmull_s16(d26s16, d16s16); in vpx_idct16x16_256_add_neon_pass1() 335 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in vpx_idct16x16_256_add_neon_pass2() local [all …]
|
D | idct32x32_add_neon.c | 175 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in idct32_transpose_pair() local 208 d26s16 = vget_low_s16(q13s16); in idct32_transpose_pair() 216 q9s16 = vcombine_s16(d18s16, d26s16); // vswp d19, d26 in idct32_transpose_pair()
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_iht8x8_add_neon.c | 44 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in TRANSPOSE8X8() local 58 d26s16 = vget_low_s16(*q13s16); in TRANSPOSE8X8() 66 *q9s16 = vcombine_s16(d18s16, d26s16); // vswp d19, d26 in TRANSPOSE8X8() 115 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; in IDCT8x8_1D() local 135 d26s16 = vget_low_s16(*q13s16); in IDCT8x8_1D() 144 q5s32 = vmull_s16(d26s16, d2s16); in IDCT8x8_1D() 161 q9s32 = vmull_s16(d26s16, d3s16); in IDCT8x8_1D() 208 d26s16 = vqrshrn_n_s32(q2s32, 14); in IDCT8x8_1D() 212 *q13s16 = vcombine_s16(d26s16, d27s16); in IDCT8x8_1D() 224 d26s16 = vget_low_s16(*q13s16); in IDCT8x8_1D() [all …]
|
D | vp9_iht4x4_add_neon.c | 74 int16x4_t d26s16, d27s16, d28s16, d29s16; in IDCT4x4_1D() local 93 d26s16 = vqrshrn_n_s32(q13s32, 14); in IDCT4x4_1D() 98 q13s16 = vcombine_s16(d26s16, d27s16); in IDCT4x4_1D()
|