Home
last modified time | relevance | path

Searched refs:d10 (Results 1 – 25 of 37) sorted by relevance

12

/external/libvpx/vp8/encoder/arm/neon/
Dsad8_neon.asm32 vld1.8 {d10}, [r2], r3
39 vabal.u8 q12, d2, d10
52 vld1.8 {d10}, [r2], r3
59 vabal.u8 q12, d2, d10
89 vld1.8 {d10}, [r2], r3
96 vabal.u8 q12, d2, d10
109 vld1.8 {d10}, [r2], r3
116 vabal.u8 q12, d2, d10
129 vld1.8 {d10}, [r2], r3
136 vabal.u8 q12, d2, d10
[all …]
Dvp8_subpixelvariance16x16s_neon.asm47 vld1.u8 {d8, d9, d10, d11}, [r0], r1
82 vmlal.s16 q9, d10, d10
115 vshr.s32 d10, d10, #8
116 vsub.s32 d0, d1, d10
163 vsubl.u8 q0, d8, d10
211 vshr.s32 d10, d10, #8
212 vsub.s32 d0, d1, d10
246 vld1.u8 {d8, d9, d10, d11}, [r0], r1
273 vsubl.u8 q9, d0, d10 ;diff
310 vmlal.s16 q14, d10, d10 ;sse
[all …]
Dvariance_neon.asm86 vshr.s32 d10, d10, #8
87 vsub.s32 d0, d1, d10
148 vshr.s32 d10, d10, #7
149 vsub.s32 d0, d1, d10
203 vshr.s32 d10, d10, #7
204 vsub.s32 d0, d1, d10
268 vshr.s32 d10, d10, #6
269 vsub.s32 d0, d1, d10
Dsad16_neon.asm39 vabal.u8 q12, d2, d10
64 vabal.u8 q12, d2, d10
89 vabal.u8 q12, d2, d10
114 vabal.u8 q12, d2, d10
158 vabal.u8 q12, d2, d10
182 vabal.u8 q12, d2, d10
Dvp8_subpixelvariance8x8_neon.asm80 vmull.u8 q10, d10, d0
86 vext.8 d11, d10, d11, #1
183 vmlal.s16 q9, d10, d10
209 vshr.s32 d10, d10, #6
210 vsub.s32 d0, d1, d10
Dsubtract_neon.asm69 vsubl.u8 q12, d8, d10
108 vld1.8 {d10}, [r1], r12
120 vsubl.u8 q13, d10, d11
144 vld1.8 {d10}, [r2], r12
156 vsubl.u8 q13, d10, d11
Dvp8_subpixelvariance16x16_neon.asm52 vld1.u8 {d8, d9, d10}, [r0], r1
86 vext.8 d9, d9, d10, #1
109 vld1.u8 {d8, d9, d10}, [r0], r1
135 vext.8 d9, d9, d10, #1
158 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8
169 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result
246 vld1.u8 {d8, d9, d10}, [r0], r1
274 vext.8 d9, d9, d10, #1
408 vshr.s32 d10, d10, #8
409 vsub.s32 d0, d1, d10
Dfastfdct8x4_neon.asm50 vadd.s16 d10, d2, d8 ;ip[0]+ip[3]
64 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1
65 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1
106 vadd.s16 d10, d2, d8 ;a1 = ip[0]+ip[12]
115 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1
116 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1
Dfastfdct4x4_neon.asm52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1
64 vadd.s16 d2, d10, d12 ;op[0] = ((temp1 * x_c2 )>>16) + temp1
81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1
94 vadd.s16 d2, d10, d12 ;a2 = ((temp1 * x_c2 )>>16) + temp1
Dvp8_mse16x16_neon.asm128 vshr.s32 d10, d10, #8
129 vsub.s32 d0, d1, d10
/external/libvpx/vp8/common/arm/neon/
Dsixtappredict16x16_neon.asm71 vld1.u8 {d9, d10, d11}, [r0], r1
81 vmull.u8 q11, d10, d0
86 vext.8 d29, d9, d10, #1
94 vext.8 d29, d10, d11, #1
102 vext.8 d29, d9, d10, #4
110 vext.8 d29, d10, d11, #4
118 vext.8 d29, d9, d10, #5
126 vext.8 d29, d10, d11, #5
134 vext.8 d29, d9, d10, #2
142 vext.8 d29, d10, d11, #2
[all …]
Dloopfilter_neon.asm84 vld1.u8 {d10}, [r3], r1 ; p1
110 vst1.u8 {d10}, [r0], r1 ; store u op1
143 vld1.u8 {d10}, [r2], r1
185 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1
186 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1
187 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1
188 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1
189 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1
190 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1
191 vst4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1
[all …]
Dsixtappredict4x4_neon.asm66 vext.8 d20, d10, d11, #5
81 vzip.32 d10, d11
85 vmlal.u8 q8, d10, d0
95 vzip.32 d10, d11
99 vmlsl.u8 q8, d10, d4
109 vzip.32 d10, d11
111 vmull.u8 q10, d10, d3
130 vext.8 d20, d10, d11, #5
147 vzip.32 d10, d11
152 vmlal.u8 q8, d10, d0
[all …]
Dloopfiltersimpleverticaledge_neon.asm43 vld4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1
45 vld4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1
47 vld4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1
49 vld4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1
50 vld4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1
51 vld4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1
52 vld4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1
53 vld4.8 {d10[7], d11[7], d12[7], d13[7]}, [r0], r1
55 vswp d7, d10
80 vsubl.s8 q2, d8, d10 ; ( qs0 - ps0)
Dsixtappredict8x4_neon.asm70 vmull.u8 q9, d10, d0
75 vext.8 d30, d10, d11, #1
85 vext.8 d30, d10, d11, #4
95 vext.8 d30, d10, d11, #2
105 vext.8 d30, d10, d11, #5
115 vext.8 d30, d10, d11, #3
147 vmull.u8 q10, d10, d0
153 vext.8 d29, d10, d11, #1
165 vext.8 d29, d10, d11, #4
177 vext.8 d29, d10, d11, #2
[all …]
Dsixtappredict8x8_neon.asm74 vmull.u8 q9, d10, d0
79 vext.8 d30, d10, d11, #1
89 vext.8 d30, d10, d11, #4
99 vext.8 d30, d10, d11, #2
109 vext.8 d30, d10, d11, #5
119 vext.8 d30, d10, d11, #3
160 vmull.u8 q10, d10, d0
166 vext.8 d29, d10, d11, #1
178 vext.8 d29, d10, d11, #4
190 vext.8 d29, d10, d11, #2
[all …]
Dbilinearpredict16x16_neon.asm49 vld1.u8 {d8, d9, d10}, [r0], r1
83 vext.8 d9, d9, d10, #1
106 vld1.u8 {d8, d9, d10}, [r0], r1
132 vext.8 d9, d9, d10, #1
155 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8
166 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result
240 vld1.u8 {d8, d9, d10}, [r0], r1
268 vext.8 d9, d9, d10, #1
Dsave_neon_reg.asm22 vst1.i64 {d8, d9, d10, d11}, [r0]!
29 vld1.i64 {d8, d9, d10, d11}, [r0]!
Dmbloopfilter_neon.asm93 vld1.u8 {d10}, [r0], r1 ; p1
118 vst1.u8 {d10}, [r0], r1 ; store u op1
151 vld1.u8 {d10}, [r0], r1
220 vst1.8 {d10}, [r3]
268 vld1.u8 {d10}, [r0], r1
332 vst1.8 {d10}, [r0], r1
Dbilinearpredict4x4_neon.asm55 vzip.32 d10, d11
62 vmlal.u8 q8, d10, d1
Dbilinearpredict8x4_neon.asm51 vmull.u8 q10, d10, d0
57 vext.8 d11, d10, d11, #1
/external/libvpx/vp8/decoder/arm/neon/
Didct_dequant_dc_0_2x_neon.asm34 vld1.32 {d10[0]}, [r1], r12
35 vld1.32 {d10[1]}, [r1]
49 vaddw.u8 q5, q3, d10
54 vqmovun.s16 d10, q5
63 vst1.32 {d10[0]}, [r0], r3
64 vst1.32 {d10[1]}, [r0]
Didct_dequant_0_2x_neon.asm33 vld1.32 {d10[0]}, [r12], r3
34 vld1.32 {d10[1]}, [r12]
56 vaddw.u8 q5, q3, d10
64 vqmovun.s16 d10, q5
73 vst1.32 {d10[0]}, [r0], r3
74 vst1.32 {d10[1]}, [r0]
Ddequant_idct_neon.asm59 vqsub.s16 d10, d6, d9 ;c1
63 vqadd.s16 d3, d13, d10
64 vqsub.s16 d4, d13, d10
90 vqsub.s16 d10, d6, d9 ;c1
94 vqadd.s16 d3, d13, d10
95 vqsub.s16 d4, d13, d10
/external/libvpx/vp8/encoder/x86/
Dfwalsh_sse2.asm78 pmaddwd xmm0, [GLOBAL(c1)] ; d11 a11 d10 a10
84 pshufd xmm4, xmm0, 0xd8 ; d11 d10 a11 a10
91 punpckhqdq xmm4, xmm5 ; c11 c10 d11 d10

12