Home
last modified time | relevance | path

Searched refs:d6 (Results 1 – 25 of 64) sorted by relevance

123

/external/kernel-headers/original/asm-generic/
Dxor.h109 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_2() local
116 d6 = p1[6]; in xor_32regs_2()
124 d6 ^= p2[6]; in xor_32regs_2()
132 p1[6] = d6; in xor_32regs_2()
146 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_3() local
153 d6 = p1[6]; in xor_32regs_3()
161 d6 ^= p2[6]; in xor_32regs_3()
169 d6 ^= p3[6]; in xor_32regs_3()
177 p1[6] = d6; in xor_32regs_3()
192 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_4() local
[all …]
/external/libvpx/vp8/encoder/arm/neon/
Dsad8_neon.asm41 vld1.8 {d6}, [r0], r1
49 vabal.u8 q12, d6, d14
61 vld1.8 {d6}, [r0], r1
65 vabal.u8 q12, d6, d14
98 vld1.8 {d6}, [r0], r1
106 vabal.u8 q12, d6, d14
118 vld1.8 {d6}, [r0], r1
126 vabal.u8 q12, d6, d14
138 vld1.8 {d6}, [r0], r1
146 vabal.u8 q12, d6, d14
[all …]
Dvp8_subpixelvariance16x16_neon.asm49 vld1.u8 {d5, d6, d7}, [r0], r1
68 vmull.u8 q10, d6, d0
75 vext.8 d5, d5, d6, #1
85 vext.8 d6, d6, d7, #1
90 vmlal.u8 q10, d6, d1
106 vld1.u8 {d5, d6, d7}, [r0], r1
121 vmull.u8 q12, d6, d0
126 vext.8 d5, d5, d6, #1
134 vext.8 d6, d6, d7, #1
138 vmlal.u8 q12, d6, d1
[all …]
Dfastfdct8x4_neon.asm39 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[1], d6=ip[2], d8=ip[3]
41 vtrn.32 d2, d6
47 vtrn.16 d6, d8
51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2]
52 vsub.s16 d12, d4, d6 ;ip[1]-ip[2]
87 vadd.s16 d6, d15, d17 ;op[2] = ((temp2 * x_c2 )>>16) + temp2
95 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[4], d6=ip[8], d8=ip[12]
97 vtrn.32 d2, d6
103 vtrn.16 d6, d8
107 vadd.s16 d11, d4, d6 ;b1 = ip[4]+ip[8]
[all …]
Dshortfdct_neon.asm44 vmlal.s16 q11, d6, d0[2]
45 vmlal.s16 q12, d6, d1[2]
46 vmlal.s16 q13, d6, d2[2]
47 vmlal.s16 q14, d6, d3[2]
71 vmlal.s16 q4, d26, d6[0]
72 vmlal.s16 q5, d26, d6[1]
73 vmlal.s16 q6, d26, d6[2]
74 vmlal.s16 q7, d26, d6[3]
Dvp8_shortwalsh4x4_neon.asm34 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[3]
39 vadd.s16 d2, d6, d7 ;op[0] = a1 + b1
40 vsub.s16 d4, d6, d7 ;op[2] = a1 - b1
51 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12]
56 vadd.s16 d2, d6, d7 ;a2 = a1 + b1;
57 vsub.s16 d4, d6, d7 ;c2 = a1 - b1;
Dsubtract_neon.asm32 vld1.8 {d6}, [r1], r3
38 vsubl.u8 q13, d6, d7
67 vsubl.u8 q10, d4, d6
104 vld1.8 {d6}, [r1], r12
118 vsubl.u8 q11, d6, d7
140 vld1.8 {d6}, [r2], r12
154 vsubl.u8 q11, d6, d7
Dvp8_subpixelvariance16x16s_neon.asm45 vld1.u8 {d4, d5, d6, d7}, [r0], r1
72 vsubl.u8 q2, d6, d28
101 vmlal.s16 q9, d6, d6
161 vsubl.u8 q13, d4, d6
197 vmlal.s16 q9, d6, d6
245 vld1.u8 {d4, d5, d6, d7}, [r0], r1
280 vsubl.u8 q5, d6, d16
372 vld1.u8 {d4, d5, d6, d7}, [r0], r1
399 vst1.u8 {d4, d5, d6, d7}, [r3]!
414 vld1.u8 {d4, d5, d6, d7}, [r0], r1
[all …]
Dsad16_neon.asm52 vabal.u8 q12, d6, d14
77 vabal.u8 q12, d6, d14
102 vabal.u8 q12, d6, d14
123 vabal.u8 q12, d6, d14
170 vabal.u8 q12, d6, d14
191 vabal.u8 q12, d6, d14
Dfastfdct4x4_neon.asm45 vadd.s16 d6, d2, d5 ;ip[0]+ip[3]
52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1
53 vsub.s16 d11, d6, d7 ;temp2 = a1 - b1
76 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12]
81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1
82 vsub.s16 d11, d6, d7 ;temp2 = a1 - b1
Dvariance_neon.asm43 vsubl.u8 q13, d2, d6
116 vsubl.u8 q13, d2, d6
175 vld1.8 {d6}, [r2], r3
178 vsubl.u8 q12, d2, d6
230 vld1.8 {d6}, [r2], r3
236 vsubl.u8 q13, d2, d6
Dvp8_mse16x16_neon.asm46 vsubl.u8 q13, d2, d6
99 vsubl.u8 q13, d2, d6
147 vld1.8 {d6}, [r2], r3
153 vsubl.u8 q13, d2, d6
/external/libvpx/vp8/common/arm/neon/
Dbilinearpredict16x16_neon.asm46 vld1.u8 {d5, d6, d7}, [r0], r1
65 vmull.u8 q10, d6, d0
72 vext.8 d5, d5, d6, #1
82 vext.8 d6, d6, d7, #1
87 vmlal.u8 q10, d6, d1
103 vld1.u8 {d5, d6, d7}, [r0], r1
118 vmull.u8 q12, d6, d0
123 vext.8 d5, d5, d6, #1
131 vext.8 d6, d6, d7, #1
135 vmlal.u8 q12, d6, d1
[all …]
Dsixtappredict16x16_neon.asm70 vld1.u8 {d6, d7, d8}, [r0], r1 ;load src data
78 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
85 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
101 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
117 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
133 vext.8 d28, d6, d7, #2 ;construct src_ptr[0]
149 vext.8 d28, d6, d7, #3 ;construct src_ptr[1]
155 vext.8 d6, d13, d14, #3
167 vmull.u8 q3, d6, d3
175 vqrshrun.s16 d6, q8, #7 ;shift/round/saturate to u8
[all …]
Dsixtappredict4x4_neon.asm64 vext.8 d18, d6, d7, #5 ;construct src_ptr[3]
80 vzip.32 d6, d7 ;construct src_ptr[-2], and put 2-line data together
84 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0])
94 vzip.32 d6, d7 ;put 2-line data in 1 register (src_ptr[2])
98 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4])
108 vzip.32 d6, d7 ;put 2-line data in 1 register (src_ptr[1])
110 vmull.u8 q9, d6, d3 ;(src_ptr[1] * vp8_filter[3])
128 vext.8 d18, d6, d7, #5 ;construct src_ptr[3]
146 vzip.32 d6, d7 ;construct src_ptr[-2], and put 2-line data together
151 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0])
[all …]
Dsixtappredict8x4_neon.asm68 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
73 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
83 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
93 vext.8 d28, d6, d7, #2 ;construct src_ptr[0]
103 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
113 vext.8 d28, d6, d7, #3 ;construct src_ptr[1]
145 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
151 vext.8 d27, d6, d7, #1 ;construct src_ptr[-1]
163 vext.8 d27, d6, d7, #4 ;construct src_ptr[2]
175 vext.8 d27, d6, d7, #2 ;construct src_ptr[0]
[all …]
Dsixtappredict8x8_neon.asm72 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
77 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
87 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
97 vext.8 d28, d6, d7, #2 ;construct src_ptr[0]
107 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
117 vext.8 d28, d6, d7, #3 ;construct src_ptr[1]
158 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
164 vext.8 d27, d6, d7, #1 ;construct src_ptr[-1]
176 vext.8 d27, d6, d7, #4 ;construct src_ptr[2]
188 vext.8 d27, d6, d7, #2 ;construct src_ptr[0]
[all …]
Diwalsh_neon.asm29 vsub.s16 d6, d1, d2 ;c = [4] - [8]
33 vadd.s16 d1, d6, d7 ;c + d
35 vsub.s16 d3, d7, d6 ;d - c
51 vsub.s16 d6, d1, d2 ;c = [1] - [2]
55 vadd.s16 d1, d6, d7 ;f = c + d
57 vsub.s16 d3, d7, d6 ;h = d - c
Dloopfiltersimpleverticaledge_neon.asm31 vld4.8 {d6[0], d7[0], d8[0], d9[0]}, [r0], r1
34 vld4.8 {d6[1], d7[1], d8[1], d9[1]}, [r0], r1
36 vld4.8 {d6[2], d7[2], d8[2], d9[2]}, [r0], r1
37 vld4.8 {d6[3], d7[3], d8[3], d9[3]}, [r0], r1
38 vld4.8 {d6[4], d7[4], d8[4], d9[4]}, [r0], r1
39 vld4.8 {d6[5], d7[5], d8[5], d9[5]}, [r0], r1
40 vld4.8 {d6[6], d7[6], d8[6], d9[6]}, [r0], r1
41 vld4.8 {d6[7], d7[7], d8[7], d9[7]}, [r0], r1
Dbilinearpredict8x8_neon.asm48 vmull.u8 q8, d6, d0
53 vext.8 d7, d6, d7, #1
75 vmull.u8 q8, d6, d0
81 vext.8 d7, d6, d7, #1
133 vqrshrn.u16 d6, q5, #7
142 vst1.u8 {d6}, [r1], lr
Dreconb_neon.asm37 vmovl.u8 q1, d29 ;Pred data in d0, d2, d4, d6
44 vadd.s16 d6, d6, d26
Dcopymem8x8_neon.asm33 vld1.u8 {d6}, [r0], r1
36 vst1.u8 {d6}, [r2], r3
Dbilinearpredict4x4_neon.asm46 vld1.u8 {d6}, [r0], r1
50 vshr.u64 d12, d6, #8
59 vmull.u8 q9, d6, d0
/external/qemu/distrib/sdl-1.2.12/src/video/ataricommon/
DSDL_ataric2p.S55 movel #0x55555555,d6
177 andl d6,d7
185 andl d6,d7
317 movel c2p_width,d6
318 lsrw #4,d6
319 subql #1,d6
365 dbra d6,c2p4_bclx
376 movel c2p_width,d6
377 lsrw #3,d6
378 subql #1,d6
[all …]
/external/sonivox/arm-wt-22k/vectors/
Dgreensleeves.rtttl1 …=4, o=5, b=140:g, 2a#, c6, d.6, 8d#6, d6, 2c6, a, f., 8g, a, 2a#, g, g., 8f, g, 2a, f, 2d, g, 2a#,…

123