/external/libvpx/vp8/encoder/arm/neon/ |
D | sad8_neon.asm | 34 vabdl.u8 q12, d0, d8 39 vabal.u8 q12, d2, d10 44 vabal.u8 q12, d4, d12 49 vabal.u8 q12, d6, d14 54 vabal.u8 q12, d0, d8 59 vabal.u8 q12, d2, d10 64 vabal.u8 q12, d4, d12 65 vabal.u8 q12, d6, d14 67 vpaddl.u16 q1, q12 91 vabdl.u8 q12, d0, d8 [all …]
|
D | sad16_neon.asm | 33 vabdl.u8 q12, d0, d8 39 vabal.u8 q12, d2, d10 45 vabal.u8 q12, d4, d12 52 vabal.u8 q12, d6, d14 58 vabal.u8 q12, d0, d8 64 vabal.u8 q12, d2, d10 70 vabal.u8 q12, d4, d12 77 vabal.u8 q12, d6, d14 83 vabal.u8 q12, d0, d8 89 vabal.u8 q12, d2, d10 [all …]
|
D | subtract_neon.asm | 37 vsubl.u8 q12, d4, d5 69 vsubl.u8 q12, d8, d10 78 vst1.16 {q12}, [r0]! 119 vsubl.u8 q12, d8, d9 128 vst1.16 {q12}, [r0]! 155 vsubl.u8 q12, d8, d9 164 vst1.16 {q12}, [r0]!
|
D | variance_neon.asm | 42 vsubl.u8 q12, d1, d5 55 vpadal.s16 q8, q12 115 vsubl.u8 q12, d1, d5 125 vpadal.s16 q8, q12 178 vsubl.u8 q12, d2, d6 186 vpadal.s16 q8, q12 235 vsubl.u8 q12, d1, d5 245 vpadal.s16 q8, q12
|
D | shortfdct_neon.asm | 35 vmull.s16 q12, d4, d1[0] ;i=1 40 vmlal.s16 q12, d5, d1[1] 45 vmlal.s16 q12, d6, d1[2] 50 vmlal.s16 q12, d7, d1[3] ;sumtemp for i=1 56 vrshrn.i32 d24, q12, #14
|
D | vp8_subpixelvariance16x16_neon.asm | 70 vmull.u8 q12, d9, d0 91 vmlal.u8 q12, d9, d1 101 vqrshrn.u16 d19, q12, #7 121 vmull.u8 q12, d6, d0 138 vmlal.u8 q12, d6, d1 161 vqrshrn.u16 d13, q12, #7 258 vmull.u8 q12, d9, d0 279 vmlal.u8 q12, d9, d1 289 vqrshrn.u16 d19, q12, #7 377 vsubl.u8 q12, d1, d5 [all …]
|
D | vp8_mse16x16_neon.asm | 45 vsubl.u8 q12, d1, d5 98 vsubl.u8 q12, d1, d5 108 vpadal.s16 q8, q12 152 vsubl.u8 q12, d1, d5
|
D | fastfdct8x4_neon.asm | 62 vshl.i16 q2, q12, #1 70 vqdmulh.s16 q13, q12, d0[1] 123 vqdmulh.s16 q15, q12, d0[0] 125 vqdmulh.s16 q14, q12, d0[2] 134 …vadd.s16 q15, q12, q15 ;d30:temp2 = ((c1 * x_c1)>>16) + c1; d31:temp2 = ((d1 * x…
|
D | vp8_memcpy_neon.asm | 42 vld1.8 {q12, q13}, [r1]! 45 vst1.8 {q12, q13}, [r0]!
|
D | vp8_subpixelvariance16x16s_neon.asm | 46 vld1.8 {q12}, [r2], r3 160 vsubl.u8 q12, d1, d3 174 vpadal.s16 q8, q12 276 vsubl.u8 q12, d3, d13 295 vpadal.s16 q13, q12 ;sum 432 vext.8 q13, q12, q13, #1 441 vrhadd.u8 q6, q12, q13 515 vsubl.u8 q12, d1, d3 529 vpadal.s16 q8, q12
|
/external/libvpx/vp8/common/arm/neon/ |
D | mbloopfilter_neon.asm | 379 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 385 vmax.u8 q11, q11, q12 386 vmax.u8 q12, q13, q14 388 vmax.u8 q15, q11, q12 390 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 406 vqadd.u8 q12, q12, q12 ; b = abs(p0 - q0) * 2 408 vqadd.u8 q12, q12, q1 ; a = b + a 409 vcge.u8 q12, q2, q12 ; (a > flimit * 2 + limit) * -1 429 vand q15, q15, q12 ; vp8_filter_mask 434 vld1.u8 {q12}, [r12]! ; #3 [all …]
|
D | recon16x16mb_neon.asm | 30 vld1.u8 {q12, q13}, [r0]! ;load data from pred_ptr 42 vld1.16 {q12, q13}, [r1]! 54 vadd.s16 q4, q4, q12 81 vld1.u8 {q12, q13}, [r0]! ;load data from pred_ptr 93 vld1.16 {q12, q13}, [r1]! 101 vadd.s16 q4, q4, q12
|
D | sixtappredict8x8_neon.asm | 47 vabs.s32 q12, q14 162 vmull.u8 q12, d14, d0 174 vmlsl.u8 q12, d31, d1 186 vmlsl.u8 q12, d31, d4 198 vmlal.u8 q12, d31, d2 210 vmlal.u8 q12, d31, d5 228 vqadd.s16 q12, q7 247 vqrshrun.s16 d30, q12, #7 248 vld1.u8 {q12}, [lr]! 305 vmov q10, q12 [all …]
|
D | sixtappredict16x16_neon.asm | 54 vabs.s32 q12, q14 82 vmull.u8 q12, d12, d0 91 vmlsl.u8 q12, d30, d1 107 vmlsl.u8 q12, d30, d4 123 vmlal.u8 q12, d30, d5 139 vmlal.u8 q12, d30, d2 163 vqadd.s16 q12, q6 179 vqrshrun.s16 d10, q12, #7 266 vmov q10, q12 287 vabs.s32 q12, q14 [all …]
|
D | bilinearpredict16x16_neon.asm | 67 vmull.u8 q12, d9, d0 88 vmlal.u8 q12, d9, d1 98 vqrshrn.u16 d19, q12, #7 118 vmull.u8 q12, d6, d0 135 vmlal.u8 q12, d6, d1 158 vqrshrn.u16 d13, q12, #7 252 vmull.u8 q12, d9, d0 273 vmlal.u8 q12, d9, d1 283 vqrshrn.u16 d19, q12, #7
|
D | recon4b_neon.asm | 25 vld1.u8 {q12, q13}, [r0]! ;load data from pred_ptr 37 vld1.16 {q12, q13}, [r1]! 45 vadd.s16 q4, q4, q12
|
D | sixtappredict8x4_neon.asm | 44 vabs.s32 q12, q14 149 vmull.u8 q12, d14, d0 161 vmlsl.u8 q12, d31, d1 173 vmlsl.u8 q12, d31, d4 185 vmlal.u8 q12, d31, d2 197 vmlal.u8 q12, d31, d5 215 vqadd.s16 q12, q7 221 vqrshrun.s16 d30, q12, #7 234 vld1.u8 {q12}, [lr]! 293 vabs.s32 q12, q14
|
D | sixtappredict4x4_neon.asm | 42 vabs.s32 q12, q14 ;get abs(filer_parameters) 141 vmull.u8 q12, d31, d5 ;(src_ptr[3] * vp8_filter[5]) 153 vmlal.u8 q12, d22, d0 ;(src_ptr[-2] * vp8_filter[0]) 163 vmlsl.u8 q12, d31, d1 ;-(src_ptr[-1] * vp8_filter[1]) 173 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4]) 183 vmlal.u8 q12, d31, d2 ;(src_ptr[0] * vp8_filter[2]) 196 vqadd.s16 q12, q11 203 vqrshrun.s16 d31, q12, #7 258 vabs.s32 q12, q14 ;get abs(filer_parameters)
|
D | reconb_neon.asm | 30 vld1.16 {q11, q12}, [r1]! 32 vld1.16 {q12, q13}, [r1]!
|
D | copymem16x16_neon.asm | 44 vld1.u8 {q12}, [r0], r1 49 vst1.u8 {q12}, [r2], r3
|
D | loopfilter_neon.asm | 315 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 322 vmax.u8 q11, q11, q12 323 vmax.u8 q12, q13, q14 325 vmax.u8 q15, q11, q12 390 vqsub.s8 q12, q8, q1 ; u = clamp(qs1 - vp8_filter) 395 veor q8, q12, q0 ; *oq1 = u^0x80
|
D | loopfiltersimplehorizontaledge_neon.asm | 67 vadd.s16 q12, q3, q3 72 vadd.s16 q3, q3, q12
|
/external/libvpx/vpx_scale/arm/neon/ |
D | vp8_vpxyv12_copyframeyonly_neon.asm | 53 vld1.8 {q12, q13}, [r10]! 64 vst1.8 {q12, q13}, [r11]! 125 vmov q13, q12 136 vst1.8 {q12, q13}, [r5], lr 158 vld1.8 {q12, q13}, [r2]! 172 vst1.8 {q12, q13}, [r6]! 266 vst1.8 {q12}, [r5], lr 288 vld1.8 {q12, q13}, [r2]! 302 vst1.8 {q12, q13}, [r6]! 430 vld1.8 {q12, q13}, [r10]! [all …]
|
D | vp8_vpxyv12_extendframeborders_neon.asm | 67 vmov q13, q12 78 vst1.8 {q12, q13}, [r5], lr 100 vld1.8 {q12, q13}, [r2]! 114 vst1.8 {q12, q13}, [r6]! 189 vst1.8 {q12}, [r5], lr 349 vst1.8 {q12}, [r5], lr 371 vld1.8 {q12, q13}, [r2]! 385 vst1.8 {q12, q13}, [r6]!
|
D | vp8_vpxyv12_copyframe_func_neon.asm | 63 vld1.8 {q12, q13}, [r10]! 74 vst1.8 {q12, q13}, [r11]!
|