/external/libvpx/vp8/decoder/arm/neon/ |
D | idct_dequant_dc_full_2x_neon.asm | 68 ; q7: 12 * sinpi : d1/temp2 72 vqdmulh.s16 q7, q5, d0[2] 98 vqadd.s16 q3, q4, q7 107 vqsub.s16 q7, q10, q3 111 vtrn.32 q5, q7 113 vtrn.16 q6, q7 118 ; q7: l 3, 7,11,15 r 3, 7,11,15 125 vqdmulh.s16 q9, q7, d0[2] 127 vqdmulh.s16 q11, q7, d0[0] 139 vqadd.s16 q11, q7, q11 [all …]
|
D | idct_dequant_full_2x_neon.asm | 60 ; q7: 12 * sinpi : d1/temp2 64 vqdmulh.s16 q7, q5, d0[2] 90 vqadd.s16 q3, q4, q7 99 vqsub.s16 q7, q10, q3 103 vtrn.32 q5, q7 105 vtrn.16 q6, q7 110 ; q7: l 3, 7,11,15 r 3, 7,11,15 117 vqdmulh.s16 q9, q7, d0[2] 119 vqdmulh.s16 q11, q7, d0[0] 131 vqadd.s16 q11, q7, q11 [all …]
|
/external/libvpx/vp8/encoder/arm/neon/ |
D | vp8_mse16x16_neon.asm | 31 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse 49 vmlal.s16 q7, d22, d22 56 vmlal.s16 q7, d26, d26 63 vadd.u32 q7, q7, q8 68 vadd.u32 q10, q7, q9 156 vmull.s16 q7, d22, d22 161 vadd.u32 q7, q7, q8 163 vadd.u32 q9, q7, q9
|
D | vp8_subpixelvariance8x8_neon.asm | 50 vmull.u8 q7, d4, d0 60 vmlal.u8 q7, d5, d1 67 vqrshrn.u16 d23, q7, #7 77 vmull.u8 q7, d4, d0 89 vmlal.u8 q7, d5, d1 95 vqrshrn.u16 d27, q7, #7 119 vmull.u8 q7, d28, d0 128 vmlal.u8 q7, d29, d1 137 vqrshrn.u16 d28, q7, #7 180 vsubl.u8 q7, d25, d3 [all …]
|
D | vp8_subpixelvariance16x16s_neon.asm | 58 vext.8 q7, q6, q7, #1 64 vrhadd.u8 q3, q6, q7 69 vsubl.u8 q7, d3, d25 87 vpadal.s16 q8, q7 154 vld1.8 {q7}, [r2], r3 256 vext.8 q7, q6, q7, #1 261 vrhadd.u8 q3, q6, q7 268 vld1.8 {q7}, [r2], r3 383 vext.8 q7, q6, q7, #1 388 vrhadd.u8 q3, q6, q7 [all …]
|
D | sad16_neon.asm | 43 vld1.8 {q7}, [r2], r3 68 vld1.8 {q7}, [r2], r3 93 vld1.8 {q7}, [r2], r3 118 vld1.8 {q7}, [r2] 162 vld1.8 {q7}, [r2], r3 186 vld1.8 {q7}, [r2], r3
|
D | fastfdct4x4_neon.asm | 57 vqdmulh.s16 q7, q4, d0[2] 61 …vshr.s16 q7, q7, #1 ;d14:temp1 = ( c1 * x_c3)>>16; d15:temp1 = (d1 * x_c3)>>… 87 vqdmulh.s16 q7, q4, d0[2] 91 …vshr.s16 q7, q7, #1 ;d14:temp1 = ( c1 * x_c3)>>16; d15:temp1 = (d1 * x_c3)>>…
|
D | vp8_subpixelvariance16x16_neon.asm | 65 vmull.u8 q7, d2, d0 ;(src_ptr[0] * Filter[0]) 79 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * Filter[1]) 96 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 201 vmull.u8 q7, d28, d0 210 vmlal.u8 q7, d30, d1 221 vqrshrn.u16 d8, q7, #7 253 vmull.u8 q7, d2, d0 ;(src_ptr[0] * Filter[0]) 267 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * Filter[1]) 284 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 328 vmull.u8 q7, d28, d0 [all …]
|
D | shortfdct_neon.asm | 64 vmull.s16 q7, d22, d4[3] ;i=3 69 vmlal.s16 q7, d24, d5[3] 74 vmlal.s16 q7, d26, d6[3] 79 vmlal.s16 q7, d28, d7[3] ;sumtemp for i=3 84 vrshr.s32 q3, q7, #16
|
D | vp8_memcpy_neon.asm | 36 vld1.8 {q6, q7}, [r1]! 39 vst1.8 {q6, q7}, [r0]!
|
/external/libvpx/vp8/common/arm/neon/ |
D | sixtappredict8x4_neon.asm | 68 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 78 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 88 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 98 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 108 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 123 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 130 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8 141 vld1.u8 {q7}, [r0], r1 209 vmull.u8 q7, d31, d3 215 vqadd.s16 q12, q7 [all …]
|
D | sixtappredict4x4_neon.asm | 74 vmull.u8 q7, d18, d5 ;(src_ptr[3] * vp8_filter[5]) 84 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0]) 91 vmlsl.u8 q7, d18, d1 ;-(src_ptr[-1] * vp8_filter[1]) 98 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 105 vmlal.u8 q7, d18, d2 ;(src_ptr[0] * vp8_filter[2]) 116 vqadd.s16 q7, q9 ;sum of all (src_data*filter_parameters) 122 vqrshrun.s16 d27, q7, #7 ;shift/round/saturate to u8 139 vmull.u8 q7, d18, d5 ;(src_ptr[3] * vp8_filter[5]) 151 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0]) 161 vmlsl.u8 q7, d18, d1 ;-(src_ptr[-1] * vp8_filter[1]) [all …]
|
D | sixtappredict8x8_neon.asm | 72 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 82 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 102 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 112 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 129 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 136 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8 156 vld1.u8 {q7}, [r0], r1 222 vmull.u8 q7, d31, d3 228 vqadd.s16 q12, q7 [all …]
|
D | mbloopfilter_neon.asm | 47 vld1.u8 {q7}, [r0], r1 ; q0 63 vst1.u8 {q7}, [r3] ; store oq0 168 vtrn.32 q3, q7 175 vtrn.16 q7, q9 180 vtrn.8 q7, q8 201 vtrn.32 q3, q7 209 vtrn.16 q7, q9 214 vtrn.8 q7, q8 282 vtrn.32 q3, q7 289 vtrn.16 q7, q9 [all …]
|
D | recon16x16mb_neon.asm | 43 vmovl.u8 q7, d31 57 vadd.s16 q7, q7, q15 68 vqmovun.s16 d7, q7 94 vmovl.u8 q7, d31 106 vadd.s16 q7, q7, q15 117 vqmovun.s16 d7, q7
|
D | loopfiltersimplehorizontaledge_neon.asm | 37 vld1.u8 {q7}, [r0], r1 ; q0 42 vabd.u8 q15, q6, q7 ; abs(p0 - q0) 49 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 59 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 93 vqsub.s8 q10, q7, q4 ; u = vp8_signed_char_clamp(qs0 - Filter1) 98 veor q7, q10, q0 ; *oq0 = u^0x80 101 vst1.u8 {q7}, [r3] ; store oq0
|
D | bilinearpredict8x8_neon.asm | 47 vmull.u8 q7, d4, d0 57 vmlal.u8 q7, d5, d1 64 vqrshrn.u16 d23, q7, #7 74 vmull.u8 q7, d4, d0 86 vmlal.u8 q7, d5, d1 92 vqrshrn.u16 d27, q7, #7 117 vmull.u8 q7, d28, d0 126 vmlal.u8 q7, d29, d1 135 vqrshrn.u16 d8, q7, #7
|
D | loopfilter_neon.asm | 47 vld1.u8 {q7}, [r2], r1 ; q0 58 vst1.u8 {q7}, [r0], r1 ; store oq0 162 vtrn.32 q3, q7 169 vtrn.16 q7, q9 174 vtrn.8 q7, q8 246 vtrn.32 q3, q7 253 vtrn.16 q7, q9 258 vtrn.8 q7, q8 306 ; q7 q0 317 vabd.u8 q14, q8, q7 ; abs(q1 - q0) [all …]
|
D | sixtappredict16x16_neon.asm | 166 vmull.u8 q7, d31, d3 172 vqadd.s16 q11, q7 195 vabs.s32 q7, q5 246 vmull.u8 q7, d21, d3 ;(src_ptr[1] * vp8_filter[3]) 253 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 258 vqrshrun.s16 d6, q7, #7 ;shift/round/saturate to u8 309 vmull.u8 q7, d7, d0 326 vmlsl.u8 q7, d22, d1 ;-(src_ptr[-1] * vp8_filter[1]) 330 vmlsl.u8 q7, d26, d4 ;-(src_ptr[2] * vp8_filter[4]) 347 vmlal.u8 q7, d20, d5 ;(src_ptr[3] * vp8_filter[5]) [all …]
|
D | bilinearpredict16x16_neon.asm | 62 vmull.u8 q7, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 76 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * vp8_filter[1]) 93 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 195 vmull.u8 q7, d28, d0 204 vmlal.u8 q7, d30, d1 215 vqrshrn.u16 d8, q7, #7 247 vmull.u8 q7, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 261 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * vp8_filter[1]) 278 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 319 vmull.u8 q7, d28, d0 [all …]
|
D | recon4b_neon.asm | 38 vmovl.u8 q7, d31 48 vadd.s16 q7, q7, q15 57 vqmovun.s16 d7, q7
|
D | recon2b_neon.asm | 29 vld1.16 {q6, q7}, [r1]! 37 vadd.s16 q3, q3, q7
|
D | bilinearpredict4x4_neon.asm | 57 vmull.u8 q7, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 61 vmlal.u8 q7, d8, d1 ;(src_ptr[1] * vp8_filter[1]) 65 vqrshrn.u16 d28, q7, #7 ;shift/round/saturate to u8
|
/external/libvpx/vpx_scale/arm/neon/ |
D | vp8_vpxyv12_copyframeyonly_neon.asm | 54 vld1.8 {q6, q7}, [r8]! 65 vst1.8 {q6, q7}, [r9]! 122 vmov q7, q6 133 vst1.8 {q6, q7}, [r6], lr 159 vld1.8 {q6, q7}, [r1]! 173 vst1.8 {q6, q7}, [r5]! 289 vld1.8 {q6, q7}, [r1]! 303 vst1.8 {q6, q7}, [r5]! 431 vld1.8 {q6, q7}, [r8]! 442 vst1.8 {q6, q7}, [r9]!
|
D | vp8_vpxyv12_copysrcframe_func_neon.asm | 55 vld1.8 {q6, q7}, [r10]! 65 vst1.8 {q6, q7}, [r11]! 169 vld1.8 {q6, q7}, [r10]! 175 vst1.8 {q6, q7}, [r11]!
|