/external/libvpx/vp8/decoder/arm/neon/ |
D | idct_dequant_dc_full_2x_neon.asm | 77 vqsub.s16 q11, q2, q3 ; b1 = 0 - 8 105 vqadd.s16 q5, q11, q2 106 vqsub.s16 q6, q11, q2 123 ; q11: 3 * cospi 127 vqdmulh.s16 q11, q7, d0[0] 134 vshr.s16 q11, q11, #1 137 ; q11: 3 + 3 * cospi : c1/temp2 139 vqadd.s16 q11, q7, q11 143 vqsub.s16 q8, q8, q11
|
D | idct_dequant_full_2x_neon.asm | 69 vqsub.s16 q11, q2, q3 ; b1 = 0 - 8 97 vqadd.s16 q5, q11, q2 98 vqsub.s16 q6, q11, q2 115 ; q11: 3 * cospi 119 vqdmulh.s16 q11, q7, d0[0] 126 vshr.s16 q11, q11, #1 129 ; q11: 3 + 3 * cospi : c1/temp2 131 vqadd.s16 q11, q7, q11 135 vqsub.s16 q8, q8, q11
|
/external/libvpx/vp8/encoder/arm/neon/ |
D | fastquantizeb_neon.asm | 32 vld1.16 {q10, q11}, [r1] ;load zbin 38 vcge.s16 q11, q5, q11 40 ;if x<zbin (q10 & q11 are all 0), go to zero_output 41 vorr.s16 q6, q10, q11
|
D | subtract_neon.asm | 36 vsubl.u8 q11, d2, d3 68 vsubl.u8 q11, d5, d7 77 vst1.16 {q11}, [r0]! 118 vsubl.u8 q11, d6, d7 127 vst1.16 {q11}, [r0]! 154 vsubl.u8 q11, d6, d7 163 vst1.16 {q11}, [r0]!
|
D | vp8_subpixelvariance16x16_neon.asm | 69 vmull.u8 q11, d8, d0 81 vmlal.u8 q11, d8, d1 100 vqrshrn.u16 d18, q11, #7 120 vmull.u8 q11, d5, d0 130 vmlal.u8 q11, d5, d1 160 vqrshrn.u16 d12, q11, #7 227 vmov q11, q15 257 vmull.u8 q11, d8, d0 269 vmlal.u8 q11, d8, d1 288 vqrshrn.u16 d18, q11, #7 [all …]
|
D | variance_neon.asm | 41 vsubl.u8 q11, d0, d4 ;calculate diff 49 vpadal.s16 q8, q11 ;calculate sum 114 vsubl.u8 q11, d0, d4 ;calculate diff 119 vpadal.s16 q8, q11 ;calculate sum 177 vsubl.u8 q11, d0, d4 ;calculate diff 180 vpadal.s16 q8, q11 ;calculate sum 234 vsubl.u8 q11, d0, d4 ;calculate diff 239 vpadal.s16 q8, q11 ;calculate sum
|
D | shortfdct_neon.asm | 34 vmull.s16 q11, d4, d0[0] ;i=0 39 vmlal.s16 q11, d5, d0[1] 44 vmlal.s16 q11, d6, d0[2] 49 vmlal.s16 q11, d7, d0[3] ;sumtemp for i=0 55 vrshrn.i32 d22, q11, #14
|
D | vp8_mse16x16_neon.asm | 44 vsubl.u8 q11, d0, d4 97 vsubl.u8 q11, d0, d4 102 vpadal.s16 q8, q11 151 vsubl.u8 q11, d0, d4
|
D | vp8_subpixelvariance16x16s_neon.asm | 44 vld1.8 {q11}, [r2], r3 159 vsubl.u8 q11, d0, d2 ;diff 168 vpadal.s16 q8, q11 ;sum 275 vsubl.u8 q11, d2, d12 291 vpadal.s16 q13, q11 ;sum 431 vext.8 q11, q10, q11, #1 440 vrhadd.u8 q5, q10, q11 514 vsubl.u8 q11, d0, d2 ;diff 523 vpadal.s16 q8, q11 ;sum
|
D | vp8_memcpy_neon.asm | 40 vld1.8 {q10, q11}, [r1]! 43 vst1.8 {q10, q11}, [r0]!
|
/external/libvpx/vp8/common/arm/neon/ |
D | bilinearpredict16x16_neon.asm | 66 vmull.u8 q11, d8, d0 78 vmlal.u8 q11, d8, d1 97 vqrshrn.u16 d18, q11, #7 117 vmull.u8 q11, d5, d0 127 vmlal.u8 q11, d5, d1 157 vqrshrn.u16 d12, q11, #7 221 vmov q11, q15 251 vmull.u8 q11, d8, d0 263 vmlal.u8 q11, d8, d1 282 vqrshrn.u16 d18, q11, #7 [all …]
|
D | loopfilter_neon.asm | 314 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 322 vmax.u8 q11, q11, q12 325 vmax.u8 q15, q11, q12 354 vsubl.s8 q11, d15, d13 362 vmul.i16 q11, q11, q4 368 vaddw.s8 q11, q11, d3 374 vqmovn.s16 d3, q11 382 vqadd.s8 q11, q6, q2 ; u = clamp(ps0 + Filter2) 393 veor q6, q11, q0 ; *op0 = u^0x80
|
D | mbloopfilter_neon.asm | 378 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 385 vmax.u8 q11, q11, q12 388 vmax.u8 q15, q11, q12 428 vadd.s16 q11, q13, q13 432 vadd.s16 q13, q13, q11 439 vld1.u8 {q11}, [r12]! ; #4 453 vqadd.s8 q2, q13, q11 ; Filter1 = clamp(Filter2+4) 475 vmov q11, q15 480 vmlal.s8 q11, d3, d7 486 vqshrn.s16 d21, q11, #7 [all …]
|
D | sixtappredict8x8_neon.asm | 161 vmull.u8 q11, d12, d0 173 vmlsl.u8 q11, d30, d1 185 vmlsl.u8 q11, d30, d4 197 vmlal.u8 q11, d30, d2 209 vmlal.u8 q11, d30, d5 227 vqadd.s16 q11, q6 241 vqrshrun.s16 d29, q11, #7 242 vld1.u8 {q11}, [lr]! 303 vmov q9, q11 307 vmov q11, q13 [all …]
|
D | sixtappredict16x16_neon.asm | 81 vmull.u8 q11, d10, d0 98 vmlsl.u8 q11, d29, d1 114 vmlsl.u8 q11, d29, d4 130 vmlal.u8 q11, d29, d5 146 vmlal.u8 q11, d29, d2 172 vqadd.s16 q11, q7 178 vqrshrun.s16 d9, q11, #7 264 vmov q9, q11 355 vmull.u8 q11, d27, d3 360 vqadd.s16 q8, q11 [all …]
|
D | recon16x16mb_neon.asm | 33 vld1.16 {q10, q11}, [r1]! 53 vadd.s16 q3, q3, q11 84 vld1.16 {q10, q11}, [r1]! 100 vadd.s16 q3, q3, q11
|
D | loopfiltersimplehorizontaledge_neon.asm | 66 vadd.s16 q11, q2, q2 ; 3 * ( qs0 - ps0) 71 vadd.s16 q2, q2, q11 92 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 97 veor q6, q11, q0 ; *op0 = u^0x80
|
D | loopfiltersimpleverticaledge_neon.asm | 46 vld1.u8 {q11}, [r12]! ; 0x03 85 …;vmul.i8 q2, q2, q11 ; vp8_filter = vp8_signed_char_clamp(vp8_filter + 3 * ( qs… 104 vqadd.s8 q2, q1, q11 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3) 111 vqadd.s8 q11, q5, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 114 veor q6, q11, q0 ; *op0 = u^0x80
|
D | sixtappredict8x4_neon.asm | 148 vmull.u8 q11, d12, d0 160 vmlsl.u8 q11, d30, d1 172 vmlsl.u8 q11, d30, d4 184 vmlal.u8 q11, d30, d2 196 vmlal.u8 q11, d30, d5 214 vqadd.s16 q11, q6 220 vqrshrun.s16 d29, q11, #7 ;load intermediate data from stack 229 vld1.u8 {q11}, [lr]!
|
D | reconb_neon.asm | 28 vld1.16 {q10, q11}, [r1]! ;load data from diff_ptr 30 vld1.16 {q11, q12}, [r1]!
|
D | copymem16x16_neon.asm | 42 vld1.u8 {q11}, [r0], r1 47 vst1.u8 {q11}, [r2], r3
|
/external/libvpx/vpx_scale/arm/neon/ |
D | vp8_vpxyv12_copyframeyonly_neon.asm | 51 vld1.8 {q10, q11}, [r10]! 62 vst1.8 {q10, q11}, [r11]! 124 vmov q11, q10 135 vst1.8 {q10, q11}, [r6], lr 156 vld1.8 {q10, q11}, [r2]! 170 vst1.8 {q10, q11}, [r6]! 286 vld1.8 {q10, q11}, [r2]! 300 vst1.8 {q10, q11}, [r6]! 428 vld1.8 {q10, q11}, [r10]! 439 vst1.8 {q10, q11}, [r11]!
|
D | vp8_vpxyv12_extendframeborders_neon.asm | 66 vmov q11, q10 77 vst1.8 {q10, q11}, [r6], lr 98 vld1.8 {q10, q11}, [r2]! 112 vst1.8 {q10, q11}, [r6]! 188 vst1.8 {q11}, [r6], lr 208 vld1.8 {q10, q11}, [r2]! 218 vst1.8 {q10, q11}, [r6]! 369 vld1.8 {q10, q11}, [r2]! 383 vst1.8 {q10, q11}, [r6]! 479 vld1.8 {q10, q11}, [r2]! [all …]
|
D | vp8_vpxyv12_copyframe_func_neon.asm | 61 vld1.8 {q10, q11}, [r10]! 72 vst1.8 {q10, q11}, [r11]! 119 vld1.8 {q10, q11}, [r10]! 126 vst1.8 {q10, q11}, [r11]!
|
D | vp8_vpxyv12_copysrcframe_func_neon.asm | 58 vld1.8 {q10, q11}, [r2]! 68 vst1.8 {q10, q11}, [r3]! 112 vld1.8 {q10, q11}, [r2]! 118 vst1.8 {q10, q11}, [r3]!
|