Home
last modified time | relevance | path

Searched refs:d4 (Results 1 – 25 of 66) sorted by relevance

123

/external/kernel-headers/original/asm-generic/
Dxor.h109 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_2() local
114 d4 = p1[4]; in xor_32regs_2()
122 d4 ^= p2[4]; in xor_32regs_2()
130 p1[4] = d4; in xor_32regs_2()
146 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_3() local
151 d4 = p1[4]; in xor_32regs_3()
159 d4 ^= p2[4]; in xor_32regs_3()
167 d4 ^= p3[4]; in xor_32regs_3()
175 p1[4] = d4; in xor_32regs_3()
192 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_4() local
[all …]
/external/libvpx/vp8/encoder/arm/neon/
Dvp8_shortwalsh4x4_neon.asm24 vld1.16 {d4}, [r0], r2
28 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3]
29 vtrn.32 d2, d4
32 vtrn.16 d4, d5
35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2]
36 vsub.s16 d8, d3, d4 ;c1 = ip[1]-ip[2]
40 vsub.s16 d4, d6, d7 ;op[2] = a1 - b1
45 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12]
46 vtrn.32 d2, d4
49 vtrn.16 d4, d5
[all …]
Dfastfdct4x4_neon.asm34 vld1.16 {d4}, [r0], r2
39 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3]
40 vtrn.32 d2, d4
43 vtrn.16 d4, d5
46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2]
47 vsub.s16 d8, d3, d4 ;ip[1]-ip[2]
65 vadd.s16 d4, d11, d13 ;op[2] = ((temp2 * x_c2 )>>16) + temp2
70 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12]
71 vtrn.32 d2, d4
74 vtrn.16 d4, d5
[all …]
Dsad8_neon.asm36 vld1.8 {d4}, [r0], r1
44 vabal.u8 q12, d4, d12
56 vld1.8 {d4}, [r0], r1
64 vabal.u8 q12, d4, d12
93 vld1.8 {d4}, [r0], r1
101 vabal.u8 q12, d4, d12
113 vld1.8 {d4}, [r0], r1
121 vabal.u8 q12, d4, d12
133 vld1.8 {d4}, [r0], r1
141 vabal.u8 q12, d4, d12
[all …]
Dfastfdct8x4_neon.asm39 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[1], d6=ip[2], d8=ip[3]
43 vtrn.32 d4, d8
45 vtrn.16 d2, d4
51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2]
52 vsub.s16 d12, d4, d6 ;ip[1]-ip[2]
89 …vadd.s16 d4, d18, d21 ;op[1] = temp1 + temp2 -- q is not necessary, just for pr…
95 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[4], d6=ip[8], d8=ip[12]
99 vtrn.32 d4, d8
101 vtrn.16 d2, d4
107 vadd.s16 d11, d4, d6 ;b1 = ip[4]+ip[8]
[all …]
Dshortfdct_neon.asm34 vmull.s16 q11, d4, d0[0] ;i=0
35 vmull.s16 q12, d4, d1[0] ;i=1
36 vmull.s16 q13, d4, d2[0] ;i=2
37 vmull.s16 q14, d4, d3[0] ;i=3
61 vmull.s16 q4, d22, d4[0] ;i=0
62 vmull.s16 q5, d22, d4[1] ;i=1
63 vmull.s16 q6, d22, d4[2] ;i=2
64 vmull.s16 q7, d22, d4[3] ;i=3
Dsubtract_neon.asm30 vld1.8 {d4}, [r1], r3
37 vsubl.u8 q12, d4, d5
67 vsubl.u8 q10, d4, d6
102 vld1.8 {d4}, [r1], r12
117 vsubl.u8 q10, d4, d5
138 vld1.8 {d4}, [r2], r12
153 vsubl.u8 q10, d4, d5
Dvp8_subpixelvariance16x16s_neon.asm45 vld1.u8 {d4, d5, d6, d7}, [r0], r1
70 vsubl.u8 q0, d4, d26
98 vmlal.s16 q9, d4, d4
161 vsubl.u8 q13, d4, d6
191 vmlal.s16 q9, d4, d4
245 vld1.u8 {d4, d5, d6, d7}, [r0], r1
278 vsubl.u8 q0, d4, d14 ;diff
372 vld1.u8 {d4, d5, d6, d7}, [r0], r1
399 vst1.u8 {d4, d5, d6, d7}, [r3]!
414 vld1.u8 {d4, d5, d6, d7}, [r0], r1
[all …]
Dsad16_neon.asm45 vabal.u8 q12, d4, d12
70 vabal.u8 q12, d4, d12
95 vabal.u8 q12, d4, d12
120 vabal.u8 q12, d4, d12
164 vabal.u8 q12, d4, d12
188 vabal.u8 q12, d4, d12
Dvp8_subpixelvariance16x16_neon.asm47 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
84 vext.8 d3, d3, d4, #1
104 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
133 vext.8 d3, d3, d4, #1
217 vqrshrn.u16 d4, q3, #7
225 vst1.u8 {d4, d5}, [r3]!
244 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
272 vext.8 d3, d3, d4, #1
342 vqrshrn.u16 d4, q3, #7
351 vst1.u8 {d4, d5}, [r3]!
[all …]
Dvariance_neon.asm41 vsubl.u8 q11, d0, d4 ;calculate diff
114 vsubl.u8 q11, d0, d4 ;calculate diff
173 vld1.8 {d4}, [r2], r3
177 vsubl.u8 q11, d0, d4 ;calculate diff
226 vld1.8 {d4}, [r2], r3
234 vsubl.u8 q11, d0, d4 ;calculate diff
/external/libvpx/vp8/decoder/arm/neon/
Ddequant_idct_neon.asm45 vswp d3, d4 ;q2(vp[4] vp[12])
64 vqsub.s16 d4, d13, d10
67 vtrn.32 d2, d4
70 vtrn.16 d4, d5
75 vswp d3, d4
95 vqsub.s16 d4, d13, d10
102 vrshr.s16 d4, d4, #3
105 vtrn.32 d2, d4
108 vtrn.16 d4, d5
Didct_dequant_dc_0_2x_neon.asm29 vld1.32 {d4[0]}, [r1], r12
30 vld1.32 {d4[1]}, [r1]
47 vaddw.u8 q2, q0, d4
52 vqmovun.s16 d4, q2
59 vst1.32 {d4[0]}, [r2], r3
60 vst1.32 {d4[1]}, [r2]
Didct_dequant_0_2x_neon.asm29 vld1.32 {d4[0]}, [r2], r3
30 vld1.32 {d4[1]}, [r2]
54 vaddw.u8 q2, q0, d4
62 vqmovun.s16 d4, q2
69 vst1.32 {d4[0]}, [r2], r3
70 vst1.32 {d4[1]}, [r2]
/external/libvpx/vp8/common/arm/neon/
Ddc_only_idct_add_neon.asm32 vld1.32 {d4[0]}, [r1], r3
33 vld1.32 {d4[1]}, [r1]
36 vaddw.u8 q2, q0, d4
39 vqmovun.s16 d4, q2
43 vst1.32 {d4[0]}, [r2], r12
44 vst1.32 {d4[1]}, [r2]
Dsixtappredict8x4_neon.asm59 vdup.8 d4, d26[0]
88 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
89 vmlsl.u8 q8, d29, d4
90 vmlsl.u8 q9, d30, d4
91 vmlsl.u8 q10, d31, d4
169 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4])
170 vmlsl.u8 q9, d28, d4
171 vmlsl.u8 q10, d29, d4
172 vmlsl.u8 q11, d30, d4
173 vmlsl.u8 q12, d31, d4
[all …]
Dsixtappredict8x8_neon.asm62 vdup.8 d4, d26[0]
92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
93 vmlsl.u8 q8, d29, d4
94 vmlsl.u8 q9, d30, d4
95 vmlsl.u8 q10, d31, d4
182 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4])
183 vmlsl.u8 q9, d28, d4
184 vmlsl.u8 q10, d29, d4
185 vmlsl.u8 q11, d30, d4
186 vmlsl.u8 q12, d31, d4
[all …]
Dsixtappredict4x4_neon.asm57 vdup.8 d4, d26[0]
98 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4])
99 vmlsl.u8 q8, d10, d4
171 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4])
172 vmlsl.u8 q8, d10, d4
173 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4])
217 vdup.8 d4, d16[0]
226 vmlsl.u8 q3, d29, d4 ;-(src_ptr[2] * vp8_filter[4])
227 vmlsl.u8 q4, d30, d4
246 vqrshrun.s16 d4, q6, #7
[all …]
Dsixtappredict16x16_neon.asm65 vdup.8 d4, d26[0]
105 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
106 vmlsl.u8 q10, d29, d4
107 vmlsl.u8 q12, d30, d4
113 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
114 vmlsl.u8 q11, d29, d4
115 vmlsl.u8 q13, d30, d4
204 vdup.8 d4, d16[0]
231 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4])
232 vmlsl.u8 q4, d23, d4
[all …]
Diwalsh_neon.asm27 vadd.s16 d4, d0, d3 ;a = [0] + [12]
32 vadd.s16 d0, d4, d5 ;a + b
34 vsub.s16 d2, d4, d5 ;a - b
49 vadd.s16 d4, d0, d3 ;a = [0] + [3]
54 vadd.s16 d0, d4, d5 ;e = a + b
56 vsub.s16 d2, d4, d5 ;g = a - b
Dbilinearpredict16x16_neon.asm44 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
81 vext.8 d3, d3, d4, #1
101 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
130 vext.8 d3, d3, d4, #1
211 vqrshrn.u16 d4, q3, #7
219 vst1.u8 {d4, d5}, [r4], r5
238 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
266 vext.8 d3, d3, d4, #1
333 vqrshrn.u16 d4, q3, #7
342 vst1.u8 {d4, d5}, [r4], r5
Dbilinearpredict8x8_neon.asm47 vmull.u8 q7, d4, d0
52 vext.8 d5, d4, d5, #1
74 vmull.u8 q7, d4, d0
80 vext.8 d5, d4, d5, #1
131 vqrshrn.u16 d4, q3, #7
140 vst1.u8 {d4}, [r1], lr
Dreconb_neon.asm37 vmovl.u8 q1, d29 ;Pred data in d0, d2, d4, d6
43 vadd.s16 d4, d4, d24
Dbilinearpredict8x4_neon.asm48 vmull.u8 q7, d4, d0
54 vext.8 d5, d4, d5, #1
99 vqrshrn.u16 d4, q3, #7
104 vst1.u8 {d4}, [r1]
/external/webkit/WebCore/platform/graphics/transforms/
DTransformationMatrix.cpp122 double d4 = m[3][3]; in determinant4x4() local
124 return a1 * determinant3x3(b2, b3, b4, c2, c3, c4, d2, d3, d4) in determinant4x4()
125 - b1 * determinant3x3(a2, a3, a4, c2, c3, c4, d2, d3, d4) in determinant4x4()
126 + c1 * determinant3x3(a2, a3, a4, b2, b3, b4, d2, d3, d4) in determinant4x4()
168 double d4 = matrix[3][3]; in adjoint() local
171 result[0][0] = determinant3x3(b2, b3, b4, c2, c3, c4, d2, d3, d4); in adjoint()
172 result[1][0] = - determinant3x3(a2, a3, a4, c2, c3, c4, d2, d3, d4); in adjoint()
173 result[2][0] = determinant3x3(a2, a3, a4, b2, b3, b4, d2, d3, d4); in adjoint()
176 result[0][1] = - determinant3x3(b1, b3, b4, c1, c3, c4, d1, d3, d4); in adjoint()
177 result[1][1] = determinant3x3(a1, a3, a4, c1, c3, c4, d1, d3, d4); in adjoint()
[all …]

123