Searched refs:q13s32 (Results 1 – 5 of 5) sorted by relevance
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_iht8x8_add_neon.c | 118 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in IDCT8x8_1D() local 162 q13s32 = vmull_s16(d27s16, d3s16); in IDCT8x8_1D() 167 q13s32 = vmlal_s16(q13s32, d23s16, d2s16); in IDCT8x8_1D() 172 d13s16 = vqrshrn_n_s32(q13s32, 14); in IDCT8x8_1D() 180 q13s32 = vmull_s16(d16s16, d0s16); in IDCT8x8_1D() 185 q13s32 = vmlsl_s16(q13s32, d24s16, d0s16); in IDCT8x8_1D() 193 d22s16 = vqrshrn_n_s32(q13s32, 14); in IDCT8x8_1D() 274 int32x4_t q9s32, q10s32, q11s32, q12s32, q13s32, q14s32, q15s32; in IADST8X8_1D() local 357 q13s32 = vmull_s16(d19s16, d30s16); in IADST8X8_1D() 360 q13s32 = vmlal_s16(q13s32, d29s16, d31s16); in IADST8X8_1D() [all …]
|
D | vp9_iht4x4_add_neon.c | 75 int32x4_t q10s32, q13s32, q14s32, q15s32; in IDCT4x4_1D() local 88 q13s32 = vmull_s16(d23s16, *d1s16); in IDCT4x4_1D() 93 d26s16 = vqrshrn_n_s32(q13s32, 14); in IDCT4x4_1D() 115 int32x4_t q8s32, q9s32, q10s32, q11s32, q12s32, q13s32, q14s32, q15s32; in IADST4x4_1D() local 127 q13s32 = vmull_s16(*d5s16, d18s16); in IADST4x4_1D() 135 q10s32 = vaddq_s32(q10s32, q13s32); in IADST4x4_1D() 142 q13s32 = vaddq_s32(q10s32, q12s32); in IADST4x4_1D() 147 d16s16 = vqrshrn_n_s32(q13s32, 14); in IADST4x4_1D()
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct4x4_add_neon.c | 23 int32x4_t q1s32, q13s32, q14s32, q15s32; in vpx_idct4x4_16_add_neon() local 64 q13s32 = vmull_s16(d23s16, d21s16); in vpx_idct4x4_16_add_neon() 70 d26s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct4x4_16_add_neon() 105 q13s32 = vmull_s16(d23s16, d21s16); in vpx_idct4x4_16_add_neon() 111 d26s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct4x4_16_add_neon()
|
D | idct16x16_add_neon.c | 98 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in vpx_idct16x16_256_add_neon_pass1() local 199 q13s32 = vsubq_s32(q2s32, q0s32); in vpx_idct16x16_256_add_neon_pass1() 204 d18s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct16x16_256_add_neon_pass1() 212 q13s32 = vmull_s16(d21s16, d30s16); in vpx_idct16x16_256_add_neon_pass1() 217 q13s32 = vmlsl_s16(q13s32, d29s16, d31s16); in vpx_idct16x16_256_add_neon_pass1() 222 d21s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct16x16_256_add_neon_pass1() 249 q13s32 = vsubq_s32(q10s32, q12s32); in vpx_idct16x16_256_add_neon_pass1() 254 d11s16 = vqrshrn_n_s32(q13s32, 14); in vpx_idct16x16_256_add_neon_pass1() 343 int32x4_t q10s32, q11s32, q12s32, q13s32; in vpx_idct16x16_256_add_neon_pass2() local 457 q13s32 = vmull_s16(d29s16, d31s16); in vpx_idct16x16_256_add_neon_pass2() [all …]
|
D | idct8x8_add_neon.c | 100 int32x4_t q10s32, q11s32, q12s32, q13s32, q15s32; in IDCT8x8_1D() local 144 q13s32 = vmull_s16(d27s16, d3s16); in IDCT8x8_1D() 149 q13s32 = vmlal_s16(q13s32, d23s16, d2s16); in IDCT8x8_1D() 154 d13s16 = vqrshrn_n_s32(q13s32, 14); in IDCT8x8_1D() 162 q13s32 = vmull_s16(d16s16, d0s16); in IDCT8x8_1D() 167 q13s32 = vmlsl_s16(q13s32, d24s16, d0s16); in IDCT8x8_1D() 175 d22s16 = vqrshrn_n_s32(q13s32, 14); in IDCT8x8_1D()
|