/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct32x32_1_add_neon.c | 26 uint8x16_t *q13u8, in LD_16x8() argument 39 *q13u8 = vld1q_u8(d); in LD_16x8() 54 uint8x16_t *q13u8, in ADD_DIFF_16x8() argument 62 *q13u8 = vqaddq_u8(*q13u8, qdiffu8); in ADD_DIFF_16x8() 75 uint8x16_t *q13u8, in SUB_DIFF_16x8() argument 83 *q13u8 = vqsubq_u8(*q13u8, qdiffu8); in SUB_DIFF_16x8() 97 uint8x16_t *q13u8, in ST_16x8() argument 110 vst1q_u8(d, *q13u8); in ST_16x8() 122 uint8x16_t q0u8, q8u8, q9u8, q10u8, q11u8, q12u8, q13u8, q14u8, q15u8; in vpx_idct32x32_1_add_neon() local 139 &q12u8, &q13u8, &q14u8, &q15u8); in vpx_idct32x32_1_add_neon() [all …]
|
D | loopfilter_16_neon.c | 33 uint8x16_t q1u8, q2u8, q11u8, q12u8, q13u8, q14u8, q15u8; in loop_filter_neon_16() local 41 q13u8 = vabdq_u8(q5, q6); in loop_filter_neon_16() 47 q12u8 = vmaxq_u8(q13u8, q14u8); in loop_filter_neon_16() 54 q13u8 = vcgtq_u8(q13u8, qthresh); in loop_filter_neon_16() 84 q14u8 = vorrq_u8(q13u8, q14u8); in loop_filter_neon_16()
|
D | vpx_convolve8_neon.c | 62 uint8x16_t q12u8, q13u8, q14u8, q15u8; in vpx_convolve8_horiz_neon() local 93 q13u8 = vcombine_u8(d26u8, d27u8); in vpx_convolve8_horiz_neon() 96 vreinterpretq_u16_u8(q13u8)); in vpx_convolve8_horiz_neon()
|
D | vpx_convolve8_avg_neon.c | 62 uint8x16_t q1u8, q3u8, q12u8, q13u8, q14u8, q15u8; in vpx_convolve8_avg_horiz_neon() local 91 q13u8 = vcombine_u8(d26u8, d27u8); in vpx_convolve8_avg_horiz_neon() 94 vreinterpretq_u16_u8(q13u8)); in vpx_convolve8_avg_horiz_neon()
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | bilinearpredict_neon.c | 370 uint8x16_t q11u8, q12u8, q13u8, q14u8, q15u8; in vp8_bilinear_predict16x16_neon() local 382 q13u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line; in vp8_bilinear_predict16x16_neon() 390 q5u16 = vmull_u8(vget_low_u8(q13u8), d0u8); in vp8_bilinear_predict16x16_neon() 391 q6u16 = vmull_u8(vget_high_u8(q13u8), d0u8); in vp8_bilinear_predict16x16_neon() 397 q3u16 = vmlal_u8(q3u16, vget_low_u8(q13u8), d1u8); in vp8_bilinear_predict16x16_neon() 398 q4u16 = vmlal_u8(q4u16, vget_high_u8(q13u8), d1u8); in vp8_bilinear_predict16x16_neon() 655 q13u8 = vld1q_u8(tmpp); tmpp += 16; in vp8_bilinear_predict16x16_neon() 663 q5u16 = vmull_u8(vget_low_u8(q13u8), d0u8); in vp8_bilinear_predict16x16_neon() 664 q6u16 = vmull_u8(vget_high_u8(q13u8), d0u8); in vp8_bilinear_predict16x16_neon() 670 q3u16 = vmlal_u8(q3u16, vget_low_u8(q13u8), d1u8); in vp8_bilinear_predict16x16_neon() [all …]
|
D | vp8_loopfilter_neon.c | 31 uint8x16_t q0u8, q1u8, q2u8, q11u8, q12u8, q13u8, q14u8, q15u8; in vp8_loop_filter_neon() local 39 q13u8 = vabdq_u8(q5, q6); in vp8_loop_filter_neon() 45 q12u8 = vmaxq_u8(q13u8, q14u8); in vp8_loop_filter_neon() 52 q13u8 = vcgtq_u8(q13u8, qthresh); in vp8_loop_filter_neon() 84 q14u8 = vorrq_u8(q13u8, q14u8); in vp8_loop_filter_neon()
|
D | mbloopfilter_neon.c | 32 uint8x16_t q0u8, q1u8, q11u8, q12u8, q13u8, q14u8, q15u8; in vp8_mbloop_filter_neon() local 41 q13u8 = vabdq_u8(q5, q6); in vp8_mbloop_filter_neon() 47 q12u8 = vmaxq_u8(q13u8, q14u8); in vp8_mbloop_filter_neon() 54 q13u8 = vcgtq_u8(q13u8, qthresh); in vp8_mbloop_filter_neon() 76 q14u8 = vorrq_u8(q13u8, q14u8); in vp8_mbloop_filter_neon()
|