Home
last modified time | relevance | path

Searched refs:q13u8 (Results 1 – 7 of 7) sorted by relevance

/external/libvpx/libvpx/vpx_dsp/arm/
Didct32x32_1_add_neon.c26 uint8x16_t *q13u8, in LD_16x8() argument
39 *q13u8 = vld1q_u8(d); in LD_16x8()
54 uint8x16_t *q13u8, in ADD_DIFF_16x8() argument
62 *q13u8 = vqaddq_u8(*q13u8, qdiffu8); in ADD_DIFF_16x8()
75 uint8x16_t *q13u8, in SUB_DIFF_16x8() argument
83 *q13u8 = vqsubq_u8(*q13u8, qdiffu8); in SUB_DIFF_16x8()
97 uint8x16_t *q13u8, in ST_16x8() argument
110 vst1q_u8(d, *q13u8); in ST_16x8()
122 uint8x16_t q0u8, q8u8, q9u8, q10u8, q11u8, q12u8, q13u8, q14u8, q15u8; in vpx_idct32x32_1_add_neon() local
139 &q12u8, &q13u8, &q14u8, &q15u8); in vpx_idct32x32_1_add_neon()
[all …]
Dloopfilter_16_neon.c33 uint8x16_t q1u8, q2u8, q11u8, q12u8, q13u8, q14u8, q15u8; in loop_filter_neon_16() local
41 q13u8 = vabdq_u8(q5, q6); in loop_filter_neon_16()
47 q12u8 = vmaxq_u8(q13u8, q14u8); in loop_filter_neon_16()
54 q13u8 = vcgtq_u8(q13u8, qthresh); in loop_filter_neon_16()
84 q14u8 = vorrq_u8(q13u8, q14u8); in loop_filter_neon_16()
Dvpx_convolve8_neon.c62 uint8x16_t q12u8, q13u8, q14u8, q15u8; in vpx_convolve8_horiz_neon() local
93 q13u8 = vcombine_u8(d26u8, d27u8); in vpx_convolve8_horiz_neon()
96 vreinterpretq_u16_u8(q13u8)); in vpx_convolve8_horiz_neon()
Dvpx_convolve8_avg_neon.c62 uint8x16_t q1u8, q3u8, q12u8, q13u8, q14u8, q15u8; in vpx_convolve8_avg_horiz_neon() local
91 q13u8 = vcombine_u8(d26u8, d27u8); in vpx_convolve8_avg_horiz_neon()
94 vreinterpretq_u16_u8(q13u8)); in vpx_convolve8_avg_horiz_neon()
/external/libvpx/libvpx/vp8/common/arm/neon/
Dbilinearpredict_neon.c370 uint8x16_t q11u8, q12u8, q13u8, q14u8, q15u8; in vp8_bilinear_predict16x16_neon() local
382 q13u8 = vld1q_u8(src_ptr); src_ptr += src_pixels_per_line; in vp8_bilinear_predict16x16_neon()
390 q5u16 = vmull_u8(vget_low_u8(q13u8), d0u8); in vp8_bilinear_predict16x16_neon()
391 q6u16 = vmull_u8(vget_high_u8(q13u8), d0u8); in vp8_bilinear_predict16x16_neon()
397 q3u16 = vmlal_u8(q3u16, vget_low_u8(q13u8), d1u8); in vp8_bilinear_predict16x16_neon()
398 q4u16 = vmlal_u8(q4u16, vget_high_u8(q13u8), d1u8); in vp8_bilinear_predict16x16_neon()
655 q13u8 = vld1q_u8(tmpp); tmpp += 16; in vp8_bilinear_predict16x16_neon()
663 q5u16 = vmull_u8(vget_low_u8(q13u8), d0u8); in vp8_bilinear_predict16x16_neon()
664 q6u16 = vmull_u8(vget_high_u8(q13u8), d0u8); in vp8_bilinear_predict16x16_neon()
670 q3u16 = vmlal_u8(q3u16, vget_low_u8(q13u8), d1u8); in vp8_bilinear_predict16x16_neon()
[all …]
Dvp8_loopfilter_neon.c31 uint8x16_t q0u8, q1u8, q2u8, q11u8, q12u8, q13u8, q14u8, q15u8; in vp8_loop_filter_neon() local
39 q13u8 = vabdq_u8(q5, q6); in vp8_loop_filter_neon()
45 q12u8 = vmaxq_u8(q13u8, q14u8); in vp8_loop_filter_neon()
52 q13u8 = vcgtq_u8(q13u8, qthresh); in vp8_loop_filter_neon()
84 q14u8 = vorrq_u8(q13u8, q14u8); in vp8_loop_filter_neon()
Dmbloopfilter_neon.c32 uint8x16_t q0u8, q1u8, q11u8, q12u8, q13u8, q14u8, q15u8; in vp8_mbloop_filter_neon() local
41 q13u8 = vabdq_u8(q5, q6); in vp8_mbloop_filter_neon()
47 q12u8 = vmaxq_u8(q13u8, q14u8); in vp8_mbloop_filter_neon()
54 q13u8 = vcgtq_u8(q13u8, qthresh); in vp8_mbloop_filter_neon()
76 q14u8 = vorrq_u8(q13u8, q14u8); in vp8_mbloop_filter_neon()