/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct4x4_add_neon.c | 23 int32x4_t q1s32, q13s32, q14s32, q15s32; in vpx_idct4x4_16_add_neon() local 63 q1s32 = vmull_s16(d17s16, d20s16); in vpx_idct4x4_16_add_neon() 68 q1s32 = vmlal_s16(q1s32, d19s16, d22s16); in vpx_idct4x4_16_add_neon() 73 d28s16 = vqrshrn_n_s32(q1s32, 14); in vpx_idct4x4_16_add_neon() 104 q1s32 = vmull_s16(d17s16, d20s16); in vpx_idct4x4_16_add_neon() 109 q1s32 = vmlal_s16(q1s32, d19s16, d22s16); in vpx_idct4x4_16_add_neon() 114 d28s16 = vqrshrn_n_s32(q1s32, 14); in vpx_idct4x4_16_add_neon()
|
D | idct16x16_add_neon.c | 97 int32x4_t q0s32, q1s32, q2s32, q3s32, q5s32, q6s32, q9s32; in vpx_idct16x16_256_add_neon_pass1() local 192 q1s32 = vmull_s16(d25s16, d30s16); in vpx_idct16x16_256_add_neon_pass1() 198 q12s32 = vaddq_s32(q11s32, q1s32); in vpx_idct16x16_256_add_neon_pass1() 200 q1s32 = vsubq_s32(q11s32, q1s32); in vpx_idct16x16_256_add_neon_pass1() 205 d19s16 = vqrshrn_n_s32(q1s32, 14); in vpx_idct16x16_256_add_neon_pass1() 210 q1s32 = vmull_s16(d21s16, d31s16); in vpx_idct16x16_256_add_neon_pass1() 215 q1s32 = vmlal_s16(q1s32, d29s16, d30s16); in vpx_idct16x16_256_add_neon_pass1() 220 d23s16 = vqrshrn_n_s32(q1s32, 14); in vpx_idct16x16_256_add_neon_pass1() 342 int32x4_t q0s32, q1s32, q2s32, q3s32, q4s32, q5s32, q6s32, q8s32, q9s32; in vpx_idct16x16_256_add_neon_pass2() local 396 q1s32 = vmull_s16(d16s16, d13s16); in vpx_idct16x16_256_add_neon_pass2() [all …]
|
D | vpx_convolve8_neon.c | 68 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_horiz_neon() local 169 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d20s16, d22s16, in vpx_convolve8_horiz_neon() 180 d2u16 = vqrshrun_n_s32(q1s32, 7); in vpx_convolve8_horiz_neon() 241 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_vert_neon() local 297 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d18s16, d19s16, in vpx_convolve8_vert_neon() 312 d2u16 = vqrshrun_n_s32(q1s32, 7); in vpx_convolve8_vert_neon()
|
D | vpx_convolve8_avg_neon.c | 68 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_avg_horiz_neon() local 176 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d20s16, d22s16, in vpx_convolve8_avg_horiz_neon() 187 d2u16 = vqrshrun_n_s32(q1s32, 7); in vpx_convolve8_avg_horiz_neon() 257 int32x4_t q1s32, q2s32, q14s32, q15s32; in vpx_convolve8_avg_vert_neon() local 322 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d18s16, d19s16, in vpx_convolve8_avg_vert_neon() 337 d2u16 = vqrshrun_n_s32(q1s32, 7); in vpx_convolve8_avg_vert_neon()
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_iht8x8_add_neon.c | 273 int32x4_t q0s32, q1s32, q2s32, q3s32, q4s32, q5s32, q6s32, q7s32, q8s32; in IADST8X8_1D() local 296 q1s32 = vmull_s16(d30s16, d14s16); in IADST8X8_1D() 304 q1s32 = vmlal_s16(q1s32, d16s16, d15s16); in IADST8X8_1D() 319 q11s32 = vaddq_s32(q1s32, q5s32); in IADST8X8_1D() 321 q1s32 = vsubq_s32(q1s32, q5s32); in IADST8X8_1D() 333 d2s16 = vqrshrn_n_s32(q1s32, 14); in IADST8X8_1D() 403 q1s32 = vmull_s16(d4s16, d30s16); in IADST8X8_1D() 408 q1s32 = vmlsl_s16(q1s32, d8s16, d31s16); in IADST8X8_1D() 418 q14s32 = vaddq_s32(q5s32, q1s32); in IADST8X8_1D() 420 q5s32 = vsubq_s32(q5s32, q1s32); in IADST8X8_1D() [all …]
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | vp8_shortwalsh4x4_neon.c | 30 int32x4_t qEmptys32, q0s32, q1s32, q2s32, q3s32, q8s32; in vp8_short_walsh4x4_neon() local 93 q1s32 = vaddq_s32(q11s32, q10s32); in vp8_short_walsh4x4_neon() 98 q9u32 = vcltq_s32(q1s32, qEmptys32); in vp8_short_walsh4x4_neon() 108 q1s32 = vsubq_s32(q1s32, q9s32); in vp8_short_walsh4x4_neon() 113 q9s32 = vaddq_s32(q1s32, q15s32); in vp8_short_walsh4x4_neon()
|