Home
last modified time | relevance | path

Searched refs:d18s16 (Results 1 – 8 of 8) sorted by relevance

/external/libvpx/libvpx/vpx_dsp/arm/
Didct4x4_add_neon.c20 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16; in vpx_idct4x4_16_add_neon() local
38 d18s16 = vget_low_s16(q9s16); in vpx_idct4x4_16_add_neon()
42 d1x2s16 = vtrn_s16(d18s16, d19s16); in vpx_idct4x4_16_add_neon()
53 d18s16 = vget_low_s16(vreinterpretq_s16_s32(q0x2s32.val[1])); in vpx_idct4x4_16_add_neon()
59 d23s16 = vadd_s16(d16s16, d18s16); in vpx_idct4x4_16_add_neon()
60 d24s16 = vsub_s16(d16s16, d18s16); in vpx_idct4x4_16_add_neon()
83 d18s16 = vget_high_s16(q9s16); // vswp d18 d19 in vpx_idct4x4_16_add_neon()
87 d1x2s16 = vtrn_s16(d18s16, d19s16); in vpx_idct4x4_16_add_neon()
95 d18s16 = vget_low_s16(vreinterpretq_s16_s32(q0x2s32.val[1])); in vpx_idct4x4_16_add_neon()
100 d23s16 = vadd_s16(d16s16, d18s16); in vpx_idct4x4_16_add_neon()
[all …]
Dvpx_convolve8_neon.c63 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d22s16, d23s16; in vpx_convolve8_horiz_neon() local
161 d18s16 = vreinterpret_s16_u16(vget_low_u16(q9u16)); in vpx_convolve8_horiz_neon()
170 d18s16, d19s16, d23s16, d24s16, q0s16); in vpx_convolve8_horiz_neon()
171 q2s32 = MULTIPLY_BY_Q0(d17s16, d20s16, d22s16, d18s16, in vpx_convolve8_horiz_neon()
173 q14s32 = MULTIPLY_BY_Q0(d20s16, d22s16, d18s16, d19s16, in vpx_convolve8_horiz_neon()
175 q15s32 = MULTIPLY_BY_Q0(d22s16, d18s16, d19s16, d23s16, in vpx_convolve8_horiz_neon()
236 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16; in vpx_convolve8_vert_neon() local
269 d18s16 = vreinterpret_s16_u16(vget_low_u16(q9u16)); in vpx_convolve8_vert_neon()
297 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d18s16, d19s16, in vpx_convolve8_vert_neon()
301 q2s32 = MULTIPLY_BY_Q0(d17s16, d18s16, d19s16, d20s16, in vpx_convolve8_vert_neon()
[all …]
Dvpx_convolve8_avg_neon.c63 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d22s16, d23s16; in vpx_convolve8_avg_horiz_neon() local
168 d18s16 = vreinterpret_s16_u16(vget_low_u16(q9u16)); in vpx_convolve8_avg_horiz_neon()
177 d18s16, d19s16, d23s16, d24s16, q0s16); in vpx_convolve8_avg_horiz_neon()
178 q2s32 = MULTIPLY_BY_Q0(d17s16, d20s16, d22s16, d18s16, in vpx_convolve8_avg_horiz_neon()
180 q14s32 = MULTIPLY_BY_Q0(d20s16, d22s16, d18s16, d19s16, in vpx_convolve8_avg_horiz_neon()
182 q15s32 = MULTIPLY_BY_Q0(d22s16, d18s16, d19s16, d23s16, in vpx_convolve8_avg_horiz_neon()
252 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16; in vpx_convolve8_avg_vert_neon() local
285 d18s16 = vreinterpret_s16_u16(vget_low_u16(q9u16)); in vpx_convolve8_avg_vert_neon()
322 q1s32 = MULTIPLY_BY_Q0(d16s16, d17s16, d18s16, d19s16, in vpx_convolve8_avg_vert_neon()
326 q2s32 = MULTIPLY_BY_Q0(d17s16, d18s16, d19s16, d20s16, in vpx_convolve8_avg_vert_neon()
[all …]
Didct8x8_add_neon.c25 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local
32 d18s16 = vget_low_s16(*q9s16); in TRANSPOSE8X8()
48 *q9s16 = vcombine_s16(d18s16, d26s16); // vswp d19, d26 in TRANSPOSE8X8()
96 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IDCT8x8_1D() local
109 d18s16 = vget_low_s16(*q9s16); in IDCT8x8_1D()
124 q2s32 = vmull_s16(d18s16, d0s16); in IDCT8x8_1D()
141 q2s32 = vmull_s16(d18s16, d1s16); in IDCT8x8_1D()
173 d18s16 = vqrshrn_n_s32(q2s32, 14); in IDCT8x8_1D()
177 *q9s16 = vcombine_s16(d18s16, d19s16); in IDCT8x8_1D()
Didct16x16_add_neon.c25 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local
32 d18s16 = vget_low_s16(*q9s16); in TRANSPOSE8X8()
48 *q9s16 = vcombine_s16(d18s16, d26s16); // vswp d19, d26 in TRANSPOSE8X8()
91 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in vpx_idct16x16_256_add_neon_pass1() local
130 d18s16 = vget_low_s16(q9s16); in vpx_idct16x16_256_add_neon_pass1()
149 q2s32 = vmull_s16(d18s16, d0s16); in vpx_idct16x16_256_add_neon_pass1()
151 q5s32 = vmull_s16(d18s16, d1s16); in vpx_idct16x16_256_add_neon_pass1()
204 d18s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct16x16_256_add_neon_pass1()
207 q9s16 = vcombine_s16(d18s16, d19s16); in vpx_idct16x16_256_add_neon_pass1()
334 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in vpx_idct16x16_256_add_neon_pass2() local
[all …]
Didct32x32_add_neon.c174 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in idct32_transpose_pair() local
200 d18s16 = vget_low_s16(q9s16); in idct32_transpose_pair()
216 q9s16 = vcombine_s16(d18s16, d26s16); // vswp d19, d26 in idct32_transpose_pair()
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_iht4x4_add_neon.c73 int16x4_t d16s16, d17s16, d18s16, d19s16, d23s16, d24s16; in IDCT4x4_1D() local
80 d18s16 = vget_low_s16(*q9s16); in IDCT4x4_1D()
83 d23s16 = vadd_s16(d16s16, d18s16); in IDCT4x4_1D()
84 d24s16 = vsub_s16(d16s16, d18s16); in IDCT4x4_1D()
114 int16x4_t d6s16, d16s16, d17s16, d18s16, d19s16; in IADST4x4_1D() local
121 d18s16 = vget_low_s16(*q9s16); in IADST4x4_1D()
127 q13s32 = vmull_s16(*d5s16, d18s16); in IADST4x4_1D()
128 q14s32 = vmull_s16(*d3s16, d18s16); in IADST4x4_1D()
132 q15s32 = vsubw_s16(q15s32, d18s16); in IADST4x4_1D()
149 d18s16 = vqrshrn_n_s32(q15s32, 14); in IADST4x4_1D()
[all …]
Dvp9_iht8x8_add_neon.c43 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in TRANSPOSE8X8() local
50 d18s16 = vget_low_s16(*q9s16); in TRANSPOSE8X8()
66 *q9s16 = vcombine_s16(d18s16, d26s16); // vswp d19, d26 in TRANSPOSE8X8()
114 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IDCT8x8_1D() local
127 d18s16 = vget_low_s16(*q9s16); in IDCT8x8_1D()
142 q2s32 = vmull_s16(d18s16, d0s16); in IDCT8x8_1D()
159 q2s32 = vmull_s16(d18s16, d1s16); in IDCT8x8_1D()
191 d18s16 = vqrshrn_n_s32(q2s32, 14); in IDCT8x8_1D()
195 *q9s16 = vcombine_s16(d18s16, d19s16); in IDCT8x8_1D()
270 int16x4_t d16s16, d17s16, d18s16, d19s16, d20s16, d21s16, d22s16, d23s16; in IADST8X8_1D() local
[all …]