/external/libvpx/libvpx/vpx_dsp/arm/ |
D | variance_neon.c | 167 uint16x8_t q11u16, q12u16, q13u16, q14u16; in vpx_variance16x8_neon() local 189 q12u16 = vsubl_u8(vget_high_u8(q0u8), vget_high_u8(q2u8)); in vpx_variance16x8_neon() 199 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_variance16x8_neon() 200 d25s16 = vreinterpret_s16_u16(vget_high_u16(q12u16)); in vpx_variance16x8_neon() 201 q8s32 = vpadalq_s16(q8s32, vreinterpretq_s16_u16(q12u16)); in vpx_variance16x8_neon() 246 uint16x8_t q11u16, q12u16; in vpx_variance8x16_neon() local 268 q12u16 = vsubl_u8(d2u8, d6u8); in vpx_variance8x16_neon() 276 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_variance8x16_neon() 277 d25s16 = vreinterpret_s16_u16(vget_high_u16(q12u16)); in vpx_variance8x16_neon() 278 q8s32 = vpadalq_s16(q8s32, vreinterpretq_s16_u16(q12u16)); in vpx_variance8x16_neon() [all …]
|
D | idct8x8_1_add_neon.c | 22 uint16x8_t q0u16, q9u16, q10u16, q11u16, q12u16; in vpx_idct8x8_1_add_neon() local 47 q12u16 = vaddw_u8(q0u16, vreinterpret_u8_u64(d5u64)); in vpx_idct8x8_1_add_neon() 52 d31u8 = vqmovun_s16(vreinterpretq_s16_u16(q12u16)); in vpx_idct8x8_1_add_neon()
|
D | idct16x16_1_add_neon.c | 22 uint16x8_t q0u16, q9u16, q10u16, q11u16, q12u16; in vpx_idct16x16_1_add_neon() local 45 q12u16 = vaddw_u8(q0u16, vreinterpret_u8_u64(d5u64)); in vpx_idct16x16_1_add_neon() 50 d31u8 = vqmovun_s16(vreinterpretq_s16_u16(q12u16)); in vpx_idct16x16_1_add_neon()
|
D | vpx_convolve8_neon.c | 67 uint16x8_t q1u16, q2u16, q8u16, q9u16, q10u16, q11u16, q12u16, q13u16; in vpx_convolve8_horiz_neon() local 154 q12u16 = vmovl_u8(d28u8); in vpx_convolve8_horiz_neon() 164 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_convolve8_horiz_neon() 165 d25s16 = vreinterpret_s16_u16(vget_high_u16(q12u16)); in vpx_convolve8_horiz_neon() 212 q11u16 = q12u16; in vpx_convolve8_horiz_neon() 240 uint16x8_t q1u16, q2u16, q8u16, q9u16, q10u16, q11u16, q12u16, q13u16; in vpx_convolve8_vert_neon() local 283 q12u16 = vmovl_u8(vreinterpret_u8_u32(d24u32)); in vpx_convolve8_vert_neon() 290 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_convolve8_vert_neon() 291 d25s16 = vreinterpret_s16_u16(vget_high_u16(q12u16)); in vpx_convolve8_vert_neon()
|
D | vpx_convolve8_avg_neon.c | 67 uint16x8_t q1u16, q2u16, q8u16, q9u16, q10u16, q11u16, q12u16, q13u16; in vpx_convolve8_avg_horiz_neon() local 152 q12u16 = vmovl_u8(d28u8); in vpx_convolve8_avg_horiz_neon() 171 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_convolve8_avg_horiz_neon() 172 d25s16 = vreinterpret_s16_u16(vget_high_u16(q12u16)); in vpx_convolve8_avg_horiz_neon() 224 q11u16 = q12u16; in vpx_convolve8_avg_horiz_neon() 256 uint16x8_t q1u16, q2u16, q8u16, q9u16, q10u16, q11u16, q12u16, q13u16; in vpx_convolve8_avg_vert_neon() local 299 q12u16 = vmovl_u8(vreinterpret_u8_u32(d24u32)); in vpx_convolve8_avg_vert_neon() 315 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); in vpx_convolve8_avg_vert_neon() 316 d25s16 = vreinterpret_s16_u16(vget_high_u16(q12u16)); in vpx_convolve8_avg_vert_neon()
|
D | idct16x16_add_neon.c | 339 uint16x8_t q9u16, q12u16, q13u16, q14u16, q15u16; in vpx_idct16x16_256_add_neon_pass2() local 605 q12u16 = vaddw_u8(vreinterpretq_u16_s16(q12s16), in vpx_idct16x16_256_add_neon_pass2() 609 d12u8 = vqmovun_s16(vreinterpretq_s16_u16(q12u16)); in vpx_idct16x16_256_add_neon_pass2() 630 q12u16 = vaddw_u8(vreinterpretq_u16_s16(q12s16), in vpx_idct16x16_256_add_neon_pass2() 634 d12u8 = vqmovun_s16(vreinterpretq_s16_u16(q12u16)); in vpx_idct16x16_256_add_neon_pass2() 655 q12u16 = vaddw_u8(vreinterpretq_u16_s16(q12s16), in vpx_idct16x16_256_add_neon_pass2() 659 d12u8 = vqmovun_s16(vreinterpretq_s16_u16(q12u16)); in vpx_idct16x16_256_add_neon_pass2() 679 q12u16 = vaddw_u8(vreinterpretq_u16_s16(q12s16), in vpx_idct16x16_256_add_neon_pass2() 683 d12u8 = vqmovun_s16(vreinterpretq_s16_u16(q12u16)); in vpx_idct16x16_256_add_neon_pass2()
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | sixtappredict_neon.c | 37 uint16x8_t q8u16, q9u16, q10u16, q11u16, q12u16; in vp8_sixtap_predict4x4_neon() local 275 q12u16 = vmull_u8(d31u8, d5u8); in vp8_sixtap_predict4x4_neon() 288 q12u16 = vmlal_u8(q12u16, vget_low_u8(q11u8), d0u8); in vp8_sixtap_predict4x4_neon() 299 q12u16 = vmlsl_u8(q12u16, d31u8, d1u8); in vp8_sixtap_predict4x4_neon() 310 q12u16 = vmlsl_u8(q12u16, d31u8, d4u8); in vp8_sixtap_predict4x4_neon() 321 q12u16 = vmlal_u8(q12u16, d31u8, d2u8); in vp8_sixtap_predict4x4_neon() 337 q12s16 = vreinterpretq_s16_u16(q12u16); in vp8_sixtap_predict4x4_neon() 415 uint16x8_t q8u16, q9u16, q10u16, q11u16, q12u16; in vp8_sixtap_predict8x4_neon() local 644 q12u16 = vmull_u8(vget_low_u8(q7u8), d0u8); in vp8_sixtap_predict8x4_neon() 656 q12u16 = vmlsl_u8(q12u16, d31u8, d1u8); in vp8_sixtap_predict8x4_neon() [all …]
|
D | bilinearpredict_neon.c | 372 uint16x8_t q9u16, q10u16, q11u16, q12u16, q13u16, q14u16; in vp8_bilinear_predict16x16_neon() local 451 q12u16 = vmull_u8(d9u8, d0u8); in vp8_bilinear_predict16x16_neon() 472 q12u16 = vmlal_u8(q12u16, d9u8, d1u8); in vp8_bilinear_predict16x16_neon() 480 d19u8 = vqrshrn_n_u16(q12u16, 7); in vp8_bilinear_predict16x16_neon() 521 q12u16 = vmull_u8(d9u8, d0u8); in vp8_bilinear_predict16x16_neon() 542 q12u16 = vmlal_u8(q12u16, d9u8, d1u8); in vp8_bilinear_predict16x16_neon() 550 d19u8 = vqrshrn_n_u16(q12u16, 7); in vp8_bilinear_predict16x16_neon() 586 q12u16 = vmull_u8(d6u8, d0u8); in vp8_bilinear_predict16x16_neon() 603 q12u16 = vmlal_u8(q12u16, d6u8, d1u8); in vp8_bilinear_predict16x16_neon() 626 d13u8 = vqrshrn_n_u16(q12u16, 7); in vp8_bilinear_predict16x16_neon()
|
D | mbloopfilter_neon.c | 35 uint16x8_t q0u16, q11u16, q12u16, q13u16, q14u16, q15u16; in vp8_mbloop_filter_neon() local 115 q0u16 = q11u16 = q12u16 = q13u16 = q14u16 = q15u16 = vdupq_n_u16(63); in vp8_mbloop_filter_neon() 122 q12s16 = vmlal_s8(vreinterpretq_s16_u16(q12u16), vget_low_s8(q1s8), d4); in vp8_mbloop_filter_neon()
|