/external/libvpx/vp8/encoder/arm/neon/ |
D | sad8_neon.asm | 32 vld1.8 {d10}, [r2], r3 39 vabal.u8 q12, d2, d10 52 vld1.8 {d10}, [r2], r3 59 vabal.u8 q12, d2, d10 89 vld1.8 {d10}, [r2], r3 96 vabal.u8 q12, d2, d10 109 vld1.8 {d10}, [r2], r3 116 vabal.u8 q12, d2, d10 129 vld1.8 {d10}, [r2], r3 136 vabal.u8 q12, d2, d10 [all …]
|
D | vp8_subpixelvariance16x16s_neon.asm | 47 vld1.u8 {d8, d9, d10, d11}, [r0], r1 82 vmlal.s16 q9, d10, d10 115 vshr.s32 d10, d10, #8 116 vsub.s32 d0, d1, d10 163 vsubl.u8 q0, d8, d10 211 vshr.s32 d10, d10, #8 212 vsub.s32 d0, d1, d10 246 vld1.u8 {d8, d9, d10, d11}, [r0], r1 273 vsubl.u8 q9, d0, d10 ;diff 310 vmlal.s16 q14, d10, d10 ;sse [all …]
|
D | variance_neon.asm | 86 vshr.s32 d10, d10, #8 87 vsub.s32 d0, d1, d10 148 vshr.s32 d10, d10, #7 149 vsub.s32 d0, d1, d10 203 vshr.s32 d10, d10, #7 204 vsub.s32 d0, d1, d10 268 vshr.s32 d10, d10, #6 269 vsub.s32 d0, d1, d10
|
D | sad16_neon.asm | 39 vabal.u8 q12, d2, d10 64 vabal.u8 q12, d2, d10 89 vabal.u8 q12, d2, d10 114 vabal.u8 q12, d2, d10 158 vabal.u8 q12, d2, d10 182 vabal.u8 q12, d2, d10
|
D | vp8_subpixelvariance8x8_neon.asm | 80 vmull.u8 q10, d10, d0 86 vext.8 d11, d10, d11, #1 183 vmlal.s16 q9, d10, d10 209 vshr.s32 d10, d10, #6 210 vsub.s32 d0, d1, d10
|
D | subtract_neon.asm | 69 vsubl.u8 q12, d8, d10 108 vld1.8 {d10}, [r1], r12 120 vsubl.u8 q13, d10, d11 144 vld1.8 {d10}, [r2], r12 156 vsubl.u8 q13, d10, d11
|
D | vp8_subpixelvariance16x16_neon.asm | 52 vld1.u8 {d8, d9, d10}, [r0], r1 86 vext.8 d9, d9, d10, #1 109 vld1.u8 {d8, d9, d10}, [r0], r1 135 vext.8 d9, d9, d10, #1 158 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8 169 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result 246 vld1.u8 {d8, d9, d10}, [r0], r1 274 vext.8 d9, d9, d10, #1 408 vshr.s32 d10, d10, #8 409 vsub.s32 d0, d1, d10
|
D | fastfdct8x4_neon.asm | 50 vadd.s16 d10, d2, d8 ;ip[0]+ip[3] 64 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1 65 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1 106 vadd.s16 d10, d2, d8 ;a1 = ip[0]+ip[12] 115 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1 116 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1
|
D | fastfdct4x4_neon.asm | 52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1 64 vadd.s16 d2, d10, d12 ;op[0] = ((temp1 * x_c2 )>>16) + temp1 81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1 94 vadd.s16 d2, d10, d12 ;a2 = ((temp1 * x_c2 )>>16) + temp1
|
D | vp8_mse16x16_neon.asm | 128 vshr.s32 d10, d10, #8 129 vsub.s32 d0, d1, d10
|
/external/libvpx/vp8/common/arm/neon/ |
D | sixtappredict16x16_neon.asm | 71 vld1.u8 {d9, d10, d11}, [r0], r1 81 vmull.u8 q11, d10, d0 86 vext.8 d29, d9, d10, #1 94 vext.8 d29, d10, d11, #1 102 vext.8 d29, d9, d10, #4 110 vext.8 d29, d10, d11, #4 118 vext.8 d29, d9, d10, #5 126 vext.8 d29, d10, d11, #5 134 vext.8 d29, d9, d10, #2 142 vext.8 d29, d10, d11, #2 [all …]
|
D | loopfilter_neon.asm | 84 vld1.u8 {d10}, [r3], r1 ; p1 110 vst1.u8 {d10}, [r0], r1 ; store u op1 143 vld1.u8 {d10}, [r2], r1 185 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 186 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1 187 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 188 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1 189 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 190 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1 191 vst4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1 [all …]
|
D | sixtappredict4x4_neon.asm | 66 vext.8 d20, d10, d11, #5 81 vzip.32 d10, d11 85 vmlal.u8 q8, d10, d0 95 vzip.32 d10, d11 99 vmlsl.u8 q8, d10, d4 109 vzip.32 d10, d11 111 vmull.u8 q10, d10, d3 130 vext.8 d20, d10, d11, #5 147 vzip.32 d10, d11 152 vmlal.u8 q8, d10, d0 [all …]
|
D | loopfiltersimpleverticaledge_neon.asm | 43 vld4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 45 vld4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1 47 vld4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 49 vld4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1 50 vld4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 51 vld4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1 52 vld4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1 53 vld4.8 {d10[7], d11[7], d12[7], d13[7]}, [r0], r1 55 vswp d7, d10 80 vsubl.s8 q2, d8, d10 ; ( qs0 - ps0)
|
D | sixtappredict8x4_neon.asm | 70 vmull.u8 q9, d10, d0 75 vext.8 d30, d10, d11, #1 85 vext.8 d30, d10, d11, #4 95 vext.8 d30, d10, d11, #2 105 vext.8 d30, d10, d11, #5 115 vext.8 d30, d10, d11, #3 147 vmull.u8 q10, d10, d0 153 vext.8 d29, d10, d11, #1 165 vext.8 d29, d10, d11, #4 177 vext.8 d29, d10, d11, #2 [all …]
|
D | sixtappredict8x8_neon.asm | 74 vmull.u8 q9, d10, d0 79 vext.8 d30, d10, d11, #1 89 vext.8 d30, d10, d11, #4 99 vext.8 d30, d10, d11, #2 109 vext.8 d30, d10, d11, #5 119 vext.8 d30, d10, d11, #3 160 vmull.u8 q10, d10, d0 166 vext.8 d29, d10, d11, #1 178 vext.8 d29, d10, d11, #4 190 vext.8 d29, d10, d11, #2 [all …]
|
D | bilinearpredict16x16_neon.asm | 49 vld1.u8 {d8, d9, d10}, [r0], r1 83 vext.8 d9, d9, d10, #1 106 vld1.u8 {d8, d9, d10}, [r0], r1 132 vext.8 d9, d9, d10, #1 155 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8 166 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result 240 vld1.u8 {d8, d9, d10}, [r0], r1 268 vext.8 d9, d9, d10, #1
|
D | save_neon_reg.asm | 22 vst1.i64 {d8, d9, d10, d11}, [r0]! 29 vld1.i64 {d8, d9, d10, d11}, [r0]!
|
D | mbloopfilter_neon.asm | 93 vld1.u8 {d10}, [r0], r1 ; p1 118 vst1.u8 {d10}, [r0], r1 ; store u op1 151 vld1.u8 {d10}, [r0], r1 220 vst1.8 {d10}, [r3] 268 vld1.u8 {d10}, [r0], r1 332 vst1.8 {d10}, [r0], r1
|
D | bilinearpredict4x4_neon.asm | 55 vzip.32 d10, d11 62 vmlal.u8 q8, d10, d1
|
D | bilinearpredict8x4_neon.asm | 51 vmull.u8 q10, d10, d0 57 vext.8 d11, d10, d11, #1
|
/external/libvpx/vp8/decoder/arm/neon/ |
D | idct_dequant_dc_0_2x_neon.asm | 34 vld1.32 {d10[0]}, [r1], r12 35 vld1.32 {d10[1]}, [r1] 49 vaddw.u8 q5, q3, d10 54 vqmovun.s16 d10, q5 63 vst1.32 {d10[0]}, [r0], r3 64 vst1.32 {d10[1]}, [r0]
|
D | idct_dequant_0_2x_neon.asm | 33 vld1.32 {d10[0]}, [r12], r3 34 vld1.32 {d10[1]}, [r12] 56 vaddw.u8 q5, q3, d10 64 vqmovun.s16 d10, q5 73 vst1.32 {d10[0]}, [r0], r3 74 vst1.32 {d10[1]}, [r0]
|
D | dequant_idct_neon.asm | 59 vqsub.s16 d10, d6, d9 ;c1 63 vqadd.s16 d3, d13, d10 64 vqsub.s16 d4, d13, d10 90 vqsub.s16 d10, d6, d9 ;c1 94 vqadd.s16 d3, d13, d10 95 vqsub.s16 d4, d13, d10
|
/external/libvpx/vp8/encoder/x86/ |
D | fwalsh_sse2.asm | 78 pmaddwd xmm0, [GLOBAL(c1)] ; d11 a11 d10 a10 84 pshufd xmm4, xmm0, 0xd8 ; d11 d10 a11 a10 91 punpckhqdq xmm4, xmm5 ; c11 c10 d11 d10
|