/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct4x4_add_neon.c | 20 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16; in vpx_idct4x4_16_add_neon() local 36 d16s16 = vget_low_s16(q8s16); in vpx_idct4x4_16_add_neon() 41 d0x2s16 = vtrn_s16(d16s16, d17s16); in vpx_idct4x4_16_add_neon() 51 d16s16 = vget_low_s16(vreinterpretq_s16_s32(q0x2s32.val[0])); in vpx_idct4x4_16_add_neon() 59 d23s16 = vadd_s16(d16s16, d18s16); in vpx_idct4x4_16_add_neon() 60 d24s16 = vsub_s16(d16s16, d18s16); in vpx_idct4x4_16_add_neon() 81 d16s16 = vget_low_s16(q8s16); in vpx_idct4x4_16_add_neon() 86 d0x2s16 = vtrn_s16(d16s16, d17s16); in vpx_idct4x4_16_add_neon() 93 d16s16 = vget_low_s16(vreinterpretq_s16_s32(q0x2s32.val[0])); in vpx_idct4x4_16_add_neon() 100 d23s16 = vadd_s16(d16s16, d18s16); in vpx_idct4x4_16_add_neon() [all …]
|
D | idct8x8_add_neon.c | 25 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local 30 d16s16 = vget_low_s16(*q8s16); in TRANSPOSE8X8() 47 *q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 in TRANSPOSE8X8() 96 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IDCT8x8_1D() local 107 d16s16 = vget_low_s16(*q8s16); in IDCT8x8_1D() 160 q2s32 = vmull_s16(d16s16, d0s16); in IDCT8x8_1D() 162 q13s32 = vmull_s16(d16s16, d0s16); in IDCT8x8_1D() 211 d16s16 = vdup_n_s16(cospi_16_64); in IDCT8x8_1D() 213 q9s32 = vmull_s16(d28s16, d16s16); in IDCT8x8_1D() 214 q10s32 = vmull_s16(d29s16, d16s16); in IDCT8x8_1D() [all …]
|
D | vpx_convolve8_neon.c | 63 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d22s16, d23s16; in vpx_convolve8_horiz_neon() local 159 d16s16 = vreinterpret_s16_u16(vget_low_u16(q8u16)); in vpx_convolve8_horiz_neon() 169 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d20s16, d22s16, in vpx_convolve8_horiz_neon() 236 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16; in vpx_convolve8_vert_neon() local 286 d16s16 = vreinterpret_s16_u16(vget_low_u16(q8u16)); in vpx_convolve8_vert_neon() 297 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d18s16, d19s16, in vpx_convolve8_vert_neon()
|
D | vpx_convolve8_avg_neon.c | 63 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d22s16, d23s16; in vpx_convolve8_avg_horiz_neon() local 166 d16s16 = vreinterpret_s16_u16(vget_low_u16(q8u16)); in vpx_convolve8_avg_horiz_neon() 176 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d20s16, d22s16, in vpx_convolve8_avg_horiz_neon() 252 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16; in vpx_convolve8_avg_vert_neon() local 311 d16s16 = vreinterpret_s16_u16(vget_low_u16(q8u16)); in vpx_convolve8_avg_vert_neon() 322 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d18s16, d19s16, in vpx_convolve8_avg_vert_neon()
|
D | idct16x16_add_neon.c | 25 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local 30 d16s16 = vget_low_s16(*q8s16); in TRANSPOSE8X8() 47 *q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 in TRANSPOSE8X8() 91 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in vpx_idct16x16_256_add_neon_pass1() local 128 d16s16 = vget_low_s16(q8s16); in vpx_idct16x16_256_add_neon_pass1() 189 q2s32 = vmull_s16(d16s16, d30s16); in vpx_idct16x16_256_add_neon_pass1() 202 d16s16 = vqrshrn_n_s32(q3s32, 14); in vpx_idct16x16_256_add_neon_pass1() 206 q8s16 = vcombine_s16(d16s16, d17s16); in vpx_idct16x16_256_add_neon_pass1() 241 d16s16 = vdup_n_s16(cospi_16_64); in vpx_idct16x16_256_add_neon_pass1() 243 q11s32 = vmull_s16(d26s16, d16s16); in vpx_idct16x16_256_add_neon_pass1() [all …]
|
D | idct32x32_add_neon.c | 174 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in idct32_transpose_pair() local 198 d16s16 = vget_low_s16(q8s16); in idct32_transpose_pair() 215 q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 in idct32_transpose_pair()
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | shortfdct_neon.c | 18 int16x4_t d16s16, d17s16, d26s16, dEmptys16; in vp8_short_fdct4x4_neon() local 25 d16s16 = vdup_n_s16(5352); in vp8_short_fdct4x4_neon() 64 q9s32 = vmlal_s16(q9s32, d7s16, d16s16); in vp8_short_fdct4x4_neon() 67 q10s32 = vmlsl_s16(q10s32, d6s16, d16s16); in vp8_short_fdct4x4_neon() 93 q11s32 = vmlal_s16(q11s32, d7s16, d16s16); in vp8_short_fdct4x4_neon() 103 q12s32 = vmlsl_s16(q12s32, d6s16, d16s16); in vp8_short_fdct4x4_neon() 123 int16x4_t d16s16, d17s16, d26s16, d27s16, d28s16, d29s16; in vp8_short_fdct8x4_neon() local 132 d16s16 = vdup_n_s16(5352); in vp8_short_fdct8x4_neon() 177 q9s32 = vmlal_s16(q9s32, d28s16, d16s16); in vp8_short_fdct8x4_neon() 179 q11s32 = vmlal_s16(q11s32, d29s16, d16s16); in vp8_short_fdct8x4_neon() [all …]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_iht4x4_add_neon.c | 73 int16x4_t d16s16, d17s16, d18s16, d19s16, d23s16, d24s16; in IDCT4x4_1D() local 78 d16s16 = vget_low_s16(*q8s16); in IDCT4x4_1D() 83 d23s16 = vadd_s16(d16s16, d18s16); in IDCT4x4_1D() 84 d24s16 = vsub_s16(d16s16, d18s16); in IDCT4x4_1D() 114 int16x4_t d6s16, d16s16, d17s16, d18s16, d19s16; in IADST4x4_1D() local 119 d16s16 = vget_low_s16(*q8s16); in IADST4x4_1D() 124 q10s32 = vmull_s16(*d3s16, d16s16); in IADST4x4_1D() 125 q11s32 = vmull_s16(*d4s16, d16s16); in IADST4x4_1D() 129 q15s32 = vmovl_s16(d16s16); in IADST4x4_1D() 147 d16s16 = vqrshrn_n_s32(q13s32, 14); in IADST4x4_1D() [all …]
|
D | vp9_iht8x8_add_neon.c | 43 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local 48 d16s16 = vget_low_s16(*q8s16); in TRANSPOSE8X8() 65 *q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 in TRANSPOSE8X8() 114 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IDCT8x8_1D() local 125 d16s16 = vget_low_s16(*q8s16); in IDCT8x8_1D() 178 q2s32 = vmull_s16(d16s16, d0s16); in IDCT8x8_1D() 180 q13s32 = vmull_s16(d16s16, d0s16); in IDCT8x8_1D() 229 d16s16 = vdup_n_s16(cospi_16_64); in IDCT8x8_1D() 231 q9s32 = vmull_s16(d28s16, d16s16); in IDCT8x8_1D() 232 q10s32 = vmull_s16(d29s16, d16s16); in IDCT8x8_1D() [all …]
|