/external/libvpx/libvpx/vpx_dsp/arm/ |
D | vpx_convolve8_neon.c | 63 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d22s16, d23s16; in vpx_convolve8_horiz_neon() local 120 d20s16 = vreinterpret_s16_u16(vget_low_u16(q10u16)); in vpx_convolve8_horiz_neon() 169 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d20s16, d22s16, in vpx_convolve8_horiz_neon() 171 q2s32 = MULTIPLY_BY_Q0(d17s16, d20s16, d22s16, d18s16, in vpx_convolve8_horiz_neon() 173 q14s32 = MULTIPLY_BY_Q0(d20s16, d22s16, d18s16, d19s16, in vpx_convolve8_horiz_neon() 211 d20s16 = d23s16; in vpx_convolve8_horiz_neon() 236 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16; in vpx_convolve8_vert_neon() local 288 d20s16 = vreinterpret_s16_u16(vget_low_u16(q10u16)); in vpx_convolve8_vert_neon() 298 d20s16, d21s16, d22s16, d24s16, q0s16); in vpx_convolve8_vert_neon() 301 q2s32 = MULTIPLY_BY_Q0(d17s16, d18s16, d19s16, d20s16, in vpx_convolve8_vert_neon() [all …]
|
D | idct4x4_add_neon.c | 20 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16; in vpx_idct4x4_16_add_neon() local 46 d20s16 = vdup_n_s16(cospi_8_64); in vpx_idct4x4_16_add_neon() 63 q1s32 = vmull_s16(d17s16, d20s16); in vpx_idct4x4_16_add_neon() 67 q15s32 = vmlsl_s16(q15s32, d19s16, d20s16); in vpx_idct4x4_16_add_neon() 104 q1s32 = vmull_s16(d17s16, d20s16); in vpx_idct4x4_16_add_neon() 108 q15s32 = vmlsl_s16(q15s32, d19s16, d20s16); in vpx_idct4x4_16_add_neon()
|
D | vpx_convolve8_avg_neon.c | 63 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d22s16, d23s16; in vpx_convolve8_avg_horiz_neon() local 118 d20s16 = vreinterpret_s16_u16(vget_low_u16(q10u16)); in vpx_convolve8_avg_horiz_neon() 176 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d20s16, d22s16, in vpx_convolve8_avg_horiz_neon() 178 q2s32 = MULTIPLY_BY_Q0(d17s16, d20s16, d22s16, d18s16, in vpx_convolve8_avg_horiz_neon() 180 q14s32 = MULTIPLY_BY_Q0(d20s16, d22s16, d18s16, d19s16, in vpx_convolve8_avg_horiz_neon() 223 d20s16 = d23s16; in vpx_convolve8_avg_horiz_neon() 252 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16; in vpx_convolve8_avg_vert_neon() local 313 d20s16 = vreinterpret_s16_u16(vget_low_u16(q10u16)); in vpx_convolve8_avg_vert_neon() 323 d20s16, d21s16, d22s16, d24s16, q0s16); in vpx_convolve8_avg_vert_neon() 326 q2s32 = MULTIPLY_BY_Q0(d17s16, d18s16, d19s16, d20s16, in vpx_convolve8_avg_vert_neon() [all …]
|
D | idct16x16_add_neon.c | 25 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local 34 d20s16 = vget_low_s16(*q10s16); in TRANSPOSE8X8() 49 *q10s16 = vcombine_s16(d20s16, d28s16); // vswp d21, d28 in TRANSPOSE8X8() 91 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in vpx_idct16x16_256_add_neon_pass1() local 132 d20s16 = vget_low_s16(q10s16); in vpx_idct16x16_256_add_neon_pass1() 209 q0s32 = vmull_s16(d20s16, d31s16); in vpx_idct16x16_256_add_neon_pass1() 211 q12s32 = vmull_s16(d20s16, d30s16); in vpx_idct16x16_256_add_neon_pass1() 221 d20s16 = vqrshrn_n_s32(q12s32, 14); in vpx_idct16x16_256_add_neon_pass1() 223 q10s16 = vcombine_s16(d20s16, d21s16); in vpx_idct16x16_256_add_neon_pass1() 334 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in vpx_idct16x16_256_add_neon_pass2() local [all …]
|
D | idct8x8_add_neon.c | 25 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local 34 d20s16 = vget_low_s16(*q10s16); in TRANSPOSE8X8() 49 *q10s16 = vcombine_s16(d20s16, d28s16); // vswp d21, d28 in TRANSPOSE8X8() 96 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IDCT8x8_1D() local 111 d20s16 = vget_low_s16(*q10s16); in IDCT8x8_1D() 180 q2s32 = vmull_s16(d20s16, d0s16); in IDCT8x8_1D() 182 q8s32 = vmull_s16(d20s16, d1s16); in IDCT8x8_1D()
|
D | idct32x32_add_neon.c | 174 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in idct32_transpose_pair() local 202 d20s16 = vget_low_s16(q10s16); in idct32_transpose_pair() 217 q10s16 = vcombine_s16(d20s16, d28s16); // vswp d21, d28 in idct32_transpose_pair()
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_iht8x8_add_neon.c | 43 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local 52 d20s16 = vget_low_s16(*q10s16); in TRANSPOSE8X8() 67 *q10s16 = vcombine_s16(d20s16, d28s16); // vswp d21, d28 in TRANSPOSE8X8() 114 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IDCT8x8_1D() local 129 d20s16 = vget_low_s16(*q10s16); in IDCT8x8_1D() 198 q2s32 = vmull_s16(d20s16, d0s16); in IDCT8x8_1D() 200 q8s32 = vmull_s16(d20s16, d1s16); in IDCT8x8_1D() 270 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IADST8X8_1D() local 280 d20s16 = vget_low_s16(*q10s16); in IADST8X8_1D() 351 q4s32 = vmlal_s16(q4s32, d20s16, d1s16); in IADST8X8_1D() [all …]
|