/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_iht4x4_add_neon.c | 75 int32x4_t q10s32, q13s32, q14s32, q15s32; in IDCT4x4_1D() local 86 q15s32 = vmull_s16(d17s16, *d2s16); in IDCT4x4_1D() 90 q15s32 = vmlsl_s16(q15s32, d19s16, *d0s16); in IDCT4x4_1D() 95 d29s16 = vqrshrn_n_s32(q15s32, 14); in IDCT4x4_1D() 115 int32x4_t q8s32, q9s32, q10s32, q11s32, q12s32, q13s32, q14s32, q15s32; in IADST4x4_1D() local 129 q15s32 = vmovl_s16(d16s16); in IADST4x4_1D() 130 q15s32 = vaddw_s16(q15s32, d19s16); in IADST4x4_1D() 132 q15s32 = vsubw_s16(q15s32, d18s16); in IADST4x4_1D() 140 q15s32 = vmulq_s32(q15s32, q8s32); in IADST4x4_1D() 149 d18s16 = vqrshrn_n_s32(q15s32, 14); in IADST4x4_1D()
|
D | vp9_iht8x8_add_neon.c | 118 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in IDCT8x8_1D() local 181 q15s32 = vmull_s16(d17s16, d0s16); in IDCT8x8_1D() 186 q15s32 = vmlsl_s16(q15s32, d25s16, d0s16); in IDCT8x8_1D() 194 d23s16 = vqrshrn_n_s32(q15s32, 14); in IDCT8x8_1D() 274 int32x4_t q9s32, q10s32, q11s32, q12s32, q13s32, q14s32, q15s32; in IADST8X8_1D() local 329 q15s32 = vaddq_s32(q4s32, q8s32); in IADST8X8_1D() 336 d25s16 = vqrshrn_n_s32(q15s32, 14); in IADST8X8_1D() 369 q15s32 = vaddq_s32(q6s32, q9s32); in IADST8X8_1D() 374 d29s16 = vqrshrn_n_s32(q15s32, 14); in IADST8X8_1D() 419 q15s32 = vaddq_s32(q6s32, q3s32); in IADST8X8_1D() [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct4x4_add_neon.c | 23 int32x4_t q1s32, q13s32, q14s32, q15s32; in vpx_idct4x4_16_add_neon() local 62 q15s32 = vmull_s16(d17s16, d22s16); in vpx_idct4x4_16_add_neon() 67 q15s32 = vmlsl_s16(q15s32, d19s16, d20s16); in vpx_idct4x4_16_add_neon() 72 d29s16 = vqrshrn_n_s32(q15s32, 14); in vpx_idct4x4_16_add_neon() 103 q15s32 = vmull_s16(d17s16, d22s16); in vpx_idct4x4_16_add_neon() 108 q15s32 = vmlsl_s16(q15s32, d19s16, d20s16); in vpx_idct4x4_16_add_neon() 113 d29s16 = vqrshrn_n_s32(q15s32, 14); in vpx_idct4x4_16_add_neon()
|
D | vpx_convolve8_neon.c | 68 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_horiz_neon() local 175 q15s32 = MULTIPLY_BY_Q0(d22s16, d18s16, d19s16, d23s16, in vpx_convolve8_horiz_neon() 183 d5u16 = vqrshrun_n_s32(q15s32, 7); in vpx_convolve8_horiz_neon() 241 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_vert_neon() local 309 q15s32 = MULTIPLY_BY_Q0(d19s16, d20s16, d21s16, d22s16, in vpx_convolve8_vert_neon() 315 d5u16 = vqrshrun_n_s32(q15s32, 7); in vpx_convolve8_vert_neon()
|
D | vpx_convolve8_avg_neon.c | 68 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_avg_horiz_neon() local 182 q15s32 = MULTIPLY_BY_Q0(d22s16, d18s16, d19s16, d23s16, in vpx_convolve8_avg_horiz_neon() 190 d5u16 = vqrshrun_n_s32(q15s32, 7); in vpx_convolve8_avg_horiz_neon() 257 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_avg_vert_neon() local 334 q15s32 = MULTIPLY_BY_Q0(d19s16, d20s16, d21s16, d22s16, in vpx_convolve8_avg_vert_neon() 340 d5u16 = vqrshrun_n_s32(q15s32, 7); in vpx_convolve8_avg_vert_neon()
|
D | idct8x8_add_neon.c | 100 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in IDCT8x8_1D() local 163 q15s32 = vmull_s16(d17s16, d0s16); in IDCT8x8_1D() 168 q15s32 = vmlsl_s16(q15s32, d25s16, d0s16); in IDCT8x8_1D() 176 d23s16 = vqrshrn_n_s32(q15s32, 14); in IDCT8x8_1D()
|
D | idct16x16_add_neon.c | 98 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in vpx_idct16x16_256_add_neon_pass1() local 172 q15s32 = vmull_s16(d27s16, d3s16); in vpx_idct16x16_256_add_neon_pass1() 177 q15s32 = vmlal_s16(q15s32, d23s16, d2s16); in vpx_idct16x16_256_add_neon_pass1() 182 d13s16 = vqrshrn_n_s32(q15s32, 14); in vpx_idct16x16_256_add_neon_pass1() 893 int32x4_t q10s32, q11s32, q12s32, q15s32; in vpx_idct16x16_10_add_neon_pass1() local 945 q15s32 = vsubq_s32(q10s32, q12s32); in vpx_idct16x16_10_add_neon_pass1() 950 d11s16 = vqrshrn_n_s32(q15s32, 14); in vpx_idct16x16_10_add_neon_pass1()
|
D | idct32x32_add_neon.c | 134 int32x4_t q8s32, q9s32, q10s32, q11s32, q12s32, q15s32; in DO_BUTTERFLY() local 156 q15s32 = vmull_s16(dBs16, d30s16); in DO_BUTTERFLY() 159 q10s32 = vaddq_s32(q10s32, q15s32); in DO_BUTTERFLY()
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | vp8_shortwalsh4x4_neon.c | 31 int32x4_t q9s32, q10s32, q11s32, q15s32; in vp8_short_walsh4x4_neon() local 38 q15s32 = vdupq_n_s32(3); in vp8_short_walsh4x4_neon() 112 q8s32 = vaddq_s32(q0s32, q15s32); in vp8_short_walsh4x4_neon() 113 q9s32 = vaddq_s32(q1s32, q15s32); in vp8_short_walsh4x4_neon() 114 q10s32 = vaddq_s32(q2s32, q15s32); in vp8_short_walsh4x4_neon() 115 q11s32 = vaddq_s32(q3s32, q15s32); in vp8_short_walsh4x4_neon()
|