Home
last modified time | relevance | path

Searched refs:d3 (Results 1 – 25 of 65) sorted by relevance

123

/external/kernel-headers/original/asm-generic/
Dxor.h109 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_2() local
113 d3 = p1[3]; in xor_32regs_2()
121 d3 ^= p2[3]; in xor_32regs_2()
129 p1[3] = d3; in xor_32regs_2()
146 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_3() local
150 d3 = p1[3]; in xor_32regs_3()
158 d3 ^= p2[3]; in xor_32regs_3()
166 d3 ^= p3[3]; in xor_32regs_3()
174 p1[3] = d3; in xor_32regs_3()
192 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_4() local
[all …]
/external/qemu/distrib/sdl-1.2.12/src/video/ataricommon/
DSDL_ataric2p.S72 movel a0@+,d3
87 movel d3,d7
93 eorl d7,d3
103 movel d3,d7
109 eorl d7,d3
123 movel a0@+,d3
139 movel d3,d7
146 eorl d7,d3
157 movel d3,d7
164 eorl d7,d3
[all …]
/external/libvpx/vp8/encoder/arm/neon/
Dvp8_shortwalsh4x4_neon.asm23 vld1.16 {d3}, [r0], r2
28 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3]
30 vtrn.32 d3, d5
31 vtrn.16 d2, d3
35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2]
36 vsub.s16 d8, d3, d4 ;c1 = ip[1]-ip[2]
41 vadd.s16 d3, d8, d9 ;op[1] = c1 + d1
45 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12]
47 vtrn.32 d3, d5
48 vtrn.16 d2, d3
[all …]
Dfastfdct4x4_neon.asm33 vld1.16 {d3}, [r0], r2
39 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3]
41 vtrn.32 d3, d5
42 vtrn.16 d2, d3
46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2]
47 vsub.s16 d8, d3, d4 ;ip[1]-ip[2]
66 …vadd.s16 d3, d14, d17 ;op[1] = temp1 + temp2 -- q is not necessary, just for pr…
70 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12]
72 vtrn.32 d3, d5
73 vtrn.16 d2, d3
[all …]
Dfastfdct8x4_neon.asm40 ;transpose d3, d5, d7, d9. Then, d3=ip[0], d5=ip[1], d7=ip[2], d9=ip[3]
42 vtrn.32 d3, d7
46 vtrn.16 d3, d5
54 vadd.s16 d22, d3, d9
57 vsub.s16 d25, d3, d9
66 vadd.s16 d24, d2, d3
67 vsub.s16 d25, d2, d3
86 vadd.s16 d3, d24, d26 ;op[0] = ((temp1 * x_c2 )>>16) + temp1
96 ;transpose d3, d5, d7, d9. Then, d3=ip[0], d5=ip[4], d7=ip[8], d9=ip[12]
98 vtrn.32 d3, d7
[all …]
Dvp8_subpixelvariance16x16_neon.asm47 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
66 vmull.u8 q8, d3, d0
74 vext.8 d2, d2, d3, #1 ;construct src_ptr[1]
84 vext.8 d3, d3, d4, #1
89 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * Filter[1])
104 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
119 vmull.u8 q10, d3, d0
125 vext.8 d2, d2, d3, #1 ;construct src_ptr[1]
133 vext.8 d3, d3, d4, #1
137 vmlal.u8 q10, d3, d1 ;(src_ptr[0] * Filter[1])
[all …]
Dvp8_subpixelvariance16x16s_neon.asm43 vld1.u8 {d0, d1, d2, d3}, [r0], r1 ;load src data
69 vsubl.u8 q7, d3, d25
96 vmlal.s16 q10, d3, d3
111 vadd.u64 d1, d2, d3
160 vsubl.u8 q12, d1, d3
189 vmlal.s16 q10, d3, d3
207 vadd.u64 d1, d2, d3
231 vld1.u8 {d0, d1, d2, d3}, [r0], r1 ;load src data
276 vsubl.u8 q12, d3, d13
307 vmlal.s16 q15, d3, d3
[all …]
Dsubtract_neon.asm29 vld1.8 {d3}, [r2], r12
36 vsubl.u8 q11, d2, d3
66 vsubl.u8 q9, d1, d3
101 vld1.8 {d3}, [r3]!
116 vsubl.u8 q9, d2, d3
137 vld1.8 {d3}, [r3]!
152 vsubl.u8 q9, d2, d3
Dvp8_mse16x16_neon.asm47 vsubl.u8 q14, d3, d7
70 vadd.u64 d0, d2, d3
100 vsubl.u8 q14, d3, d7
125 vadd.u64 d1, d2, d3
148 vld1.8 {d3}, [r0], r1
154 vsubl.u8 q14, d3, d7
166 vadd.u64 d0, d2, d3
Dvp8_subpixelvariance8x8_neon.asm54 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1]
59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1])
82 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1]
88 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1])
171 vld1.8 {d3}, [r4], r5
180 vsubl.u8 q7, d25, d3
205 vadd.u64 d1, d2, d3
Dshortfdct_neon.asm30 vld1.16 d3, [r0]
37 vmull.s16 q14, d4, d3[0] ;i=3
42 vmlal.s16 q14, d5, d3[1]
47 vmlal.s16 q14, d6, d3[2]
52 vmlal.s16 q14, d7, d3[3] ;sumtemp for i=3
89 vmovn.i32 d3, q3
Dsad16_neon.asm40 vabal.u8 q13, d3, d11
65 vabal.u8 q13, d3, d11
90 vabal.u8 q13, d3, d11
115 vabal.u8 q13, d3, d11
159 vabal.u8 q13, d3, d11
183 vabal.u8 q13, d3, d11
Dvariance_neon.asm44 vsubl.u8 q14, d3, d7
74 vadd.u64 d1, d2, d3
117 vsubl.u8 q14, d3, d7
144 vadd.u64 d1, d2, d3
199 vadd.u64 d1, d2, d3
231 vld1.8 {d3}, [r0], r1
237 vsubl.u8 q14, d3, d7
264 vadd.u64 d1, d2, d3
/external/libvpx/vp8/common/arm/neon/
Diwalsh_neon.asm22 ; read in all four lines of values: d0->d3
27 vadd.s16 d4, d0, d3 ;a = [0] + [12]
30 vsub.s16 d7, d0, d3 ;d = [0] - [12]
35 vsub.s16 d3, d7, d6 ;d - c
39 vtrn.32 d1, d3 ;d1: 4 5 12 13
40 ;d3: 6 7 14 15
44 vtrn.16 d2, d3 ;d2: 2 6 10 14
45 ;d3: 3 7 11 15
49 vadd.s16 d4, d0, d3 ;a = [0] + [3]
52 vsub.s16 d7, d0, d3 ;d = [0] - [3]
[all …]
Dbilinearpredict16x16_neon.asm44 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
63 vmull.u8 q8, d3, d0
71 vext.8 d2, d2, d3, #1 ;construct src_ptr[1]
81 vext.8 d3, d3, d4, #1
86 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * vp8_filter[1])
101 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
116 vmull.u8 q10, d3, d0
122 vext.8 d2, d2, d3, #1 ;construct src_ptr[1]
130 vext.8 d3, d3, d4, #1
134 vmlal.u8 q10, d3, d1 ;(src_ptr[0] * vp8_filter[1])
[all …]
Dsixtappredict8x4_neon.asm57 vdup.8 d3, d25[4]
118 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3])
119 vmull.u8 q4, d29, d3
120 vmull.u8 q5, d30, d3
121 vmull.u8 q6, d31, d3
205 vmull.u8 q3, d27, d3 ;(src_ptr[1] * vp8_filter[3])
206 vmull.u8 q4, d28, d3
207 vmull.u8 q5, d29, d3
208 vmull.u8 q6, d30, d3
209 vmull.u8 q7, d31, d3
[all …]
Dsixtappredict8x8_neon.asm60 vdup.8 d3, d25[4]
122 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3])
123 vmull.u8 q4, d29, d3
124 vmull.u8 q5, d30, d3
125 vmull.u8 q6, d31, d3
218 vmull.u8 q3, d27, d3 ;(src_ptr[1] * vp8_filter[3])
219 vmull.u8 q4, d28, d3
220 vmull.u8 q5, d29, d3
221 vmull.u8 q6, d30, d3
222 vmull.u8 q7, d31, d3
[all …]
Dsixtappredict4x4_neon.asm56 vdup.8 d3, d25[4]
110 vmull.u8 q9, d6, d3 ;(src_ptr[1] * vp8_filter[3])
111 vmull.u8 q10, d10, d3
188 vmull.u8 q9, d6, d3 ;(src_ptr[1] * vp8_filter[3])
189 vmull.u8 q10, d10, d3
190 vmull.u8 q11, d31, d3 ;(src_ptr[1] * vp8_filter[3])
216 vdup.8 d3, d15[4]
235 vmlal.u8 q5, d24, d3 ;(src_ptr[1] * vp8_filter[3])
236 vmlal.u8 q6, d25, d3
245 vqrshrun.s16 d3, q5, #7 ;shift/round/saturate to u8
[all …]
Dsixtappredict16x16_neon.asm64 vdup.8 d3, d25[4]
157 vmull.u8 q4, d28, d3 ;(src_ptr[1] * vp8_filter[3])
158 vmull.u8 q5, d29, d3
159 vmull.u8 q6, d30, d3
165 vmull.u8 q6, d15, d3 ;(src_ptr[1] * vp8_filter[3])
166 vmull.u8 q7, d31, d3
167 vmull.u8 q3, d6, d3
203 vdup.8 d3, d15[4]
246 vmull.u8 q7, d21, d3 ;(src_ptr[1] * vp8_filter[3])
247 vmull.u8 q8, d22, d3
[all …]
Dbilinearpredict8x8_neon.asm51 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1]
56 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1])
79 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1]
85 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1])
130 vqrshrn.u16 d3, q2, #7
139 vst1.u8 {d3}, [r0]
Dbilinearpredict4x4_neon.asm39 vld1.u8 {d3}, [r0], r1
52 vzip.32 d2, d3 ;put 2-line data in 1 register (src_ptr[0])
94 vqrshrn.u16 d3, q2, #7
98 vst1.32 {d3[0]}, [r1]
99 vst1.32 {d3[1]}, [r2]
Dbilinearpredict8x4_neon.asm53 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1]
59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1])
98 vqrshrn.u16 d3, q2, #7
103 vst1.u8 {d3}, [r0]
/external/libvpx/vp8/decoder/arm/neon/
Ddequant_idct_neon.asm45 vswp d3, d4 ;q2(vp[4] vp[12])
50 vqadd.s16 d12, d2, d3 ;a1
51 vqsub.s16 d13, d2, d3 ;b1
63 vqadd.s16 d3, d13, d10
68 vtrn.32 d3, d5
69 vtrn.16 d2, d3
75 vswp d3, d4
79 vqadd.s16 d12, d2, d3 ;a1
80 vqsub.s16 d13, d2, d3 ;b1
94 vqadd.s16 d3, d13, d10
[all …]
/external/chromium/third_party/modp_b64/
Dmodp_b64.cc147 d2[y >> 8 & 0xff] | d3[y & 0xff]; in modp_b64_decode()
159 d2[y >> 8 & 0xff] | d3[y & 0xff]; in modp_b64_decode()
166 x = d3[y >> 24]; in modp_b64_decode()
170 x = d3[y >> 24] *64 + d3[(y >> 16) & 0xff]; in modp_b64_decode()
174 x = (d3[y >> 24] *64 + d3[(y >> 16) & 0xff])*64 + in modp_b64_decode()
175 d3[(y >> 8) & 0xff]; in modp_b64_decode()
219 d3[(y >> 24) & 0xff]; in modp_b64_decode()
233 d3[(y >> 24) & 0xff]; in modp_b64_decode()
Dmodp_b64_data.h243 static const uint32_t d3[256] = { variable
436 static const uint32_t d3[256] = { variable

123