Home
last modified time | relevance | path

Searched refs:d10 (Results 1 – 25 of 43) sorted by relevance

12

/external/libvpx/vp8/encoder/arm/neon/
Dsad8_neon.asm32 vld1.8 {d10}, [r2], r3
39 vabal.u8 q12, d2, d10
52 vld1.8 {d10}, [r2], r3
59 vabal.u8 q12, d2, d10
89 vld1.8 {d10}, [r2], r3
96 vabal.u8 q12, d2, d10
109 vld1.8 {d10}, [r2], r3
116 vabal.u8 q12, d2, d10
129 vld1.8 {d10}, [r2], r3
136 vabal.u8 q12, d2, d10
[all …]
Dvp8_subpixelvariance16x16s_neon.asm47 vld1.u8 {d8, d9, d10, d11}, [r0], r1
82 vmlal.s16 q9, d10, d10
115 vshr.s32 d10, d10, #8
116 vsub.s32 d0, d1, d10
163 vsubl.u8 q0, d8, d10
211 vshr.s32 d10, d10, #8
212 vsub.s32 d0, d1, d10
246 vld1.u8 {d8, d9, d10, d11}, [r0], r1
273 vsubl.u8 q9, d0, d10 ;diff
310 vmlal.s16 q14, d10, d10 ;sse
[all …]
Dvariance_neon.asm86 vshr.s32 d10, d10, #8
87 vsub.s32 d0, d1, d10
148 vshr.s32 d10, d10, #7
149 vsub.s32 d0, d1, d10
203 vshr.s32 d10, d10, #7
204 vsub.s32 d0, d1, d10
268 vshr.s32 d10, d10, #6
269 vsub.s32 d0, d1, d10
Dsad16_neon.asm39 vabal.u8 q12, d2, d10
64 vabal.u8 q12, d2, d10
89 vabal.u8 q12, d2, d10
114 vabal.u8 q12, d2, d10
158 vabal.u8 q12, d2, d10
182 vabal.u8 q12, d2, d10
Dvp8_subpixelvariance8x8_neon.asm80 vmull.u8 q10, d10, d0
86 vext.8 d11, d10, d11, #1
183 vmlal.s16 q9, d10, d10
209 vshr.s32 d10, d10, #6
210 vsub.s32 d0, d1, d10
Dvp8_subpixelvariance16x16_neon.asm52 vld1.u8 {d8, d9, d10}, [r0], r1
86 vext.8 d9, d9, d10, #1
109 vld1.u8 {d8, d9, d10}, [r0], r1
135 vext.8 d9, d9, d10, #1
158 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8
169 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result
246 vld1.u8 {d8, d9, d10}, [r0], r1
274 vext.8 d9, d9, d10, #1
408 vshr.s32 d10, d10, #8
409 vsub.s32 d0, d1, d10
Dsubtract_neon.asm82 vsubl.u8 q12, d8, d10
121 vld1.8 {d10}, [r1], r12
133 vsubl.u8 q13, d10, d11
157 vld1.8 {d10}, [r2], r12
169 vsubl.u8 q13, d10, d11
Dfastfdct8x4_neon.asm50 vadd.s16 d10, d2, d8 ;ip[0]+ip[3]
64 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1
65 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1
106 vadd.s16 d10, d2, d8 ;a1 = ip[0]+ip[12]
115 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1
116 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1
Dfastfdct4x4_neon.asm52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1
64 vadd.s16 d2, d10, d12 ;op[0] = ((temp1 * x_c2 )>>16) + temp1
81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1
94 vadd.s16 d2, d10, d12 ;a2 = ((temp1 * x_c2 )>>16) + temp1
/external/llvm/test/MC/ARM/
Dvpush-vpop.s6 vpush {d8, d9, d10, d11, d12}
8 vpop {d8, d9, d10, d11, d12}
11 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
13 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b]
16 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed]
18 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec]
/external/valgrind/main/none/tests/arm/
Dneon64.c621 TESTINSN_imm("vmov.i32 d10", d10, 0x70000); in main()
633 TESTINSN_imm("vmvn.i32 d10", d10, 0x70000); in main()
652 TESTINSN_imm("vbic.i32 d10", d10, 0x70000); in main()
657 TESTINSN_un("vmvn d10, d15", d10, d15, i32, 24); in main()
662 TESTINSN_un("vmov d10, d15", d10, d15, i32, 24); in main()
667 TESTINSN_un("vmov d10, d11", d10, d11, i16, 7); in main()
680 TESTINSN_bin("vadd.i32 d10, d11, d12", d10, d11, i32, 24, d12, i32, 120); in main()
693 TESTINSN_bin("vsub.i32 d10, d11, d12", d10, d11, i32, 24, d12, i32, 120); in main()
699 TESTINSN_bin("vand d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed); in main()
705 TESTINSN_bin("vbic d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed); in main()
[all …]
Dvfp.c1078 TESTINSN_core_to_scalar("vmov.8 d10[1], r5", d10, r5, f2u(NAN)); in main()
1089 TESTINSN_scalar_to_core("vmov.32 r4, d10[0]", r4, d10, i32, f2u(-INFINITY)); in main()
1100 TESTINSN_scalar_to_core("vmov.u16 r0, d10[1]", r0, d10, i32, 0x11223344); in main()
1116 TESTINSN_scalar_to_core("vmov.s16 r0, d10[1]", r0, d10, i32, 0x11223344); in main()
1132 …TESTINSN_bin_f64("vmla.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0… in main()
1133 …TESTINSN_bin_f64("vmla.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN… in main()
1140 …TESTINSN_bin_f64("vmla.f64 d10, d11, d2", d10, d11, i32, f2u0(48755), f2u1(48755), d2, i32, f2u0(… in main()
1146 …TESTINSN_bin_f64("vmla.f64 d10, d11, d2", d10, d11, i32, f2u0(487.587), f2u1(487.587), d2, i32, f… in main()
1152 …TESTINSN_bin_f64("vmla.f64 d10, d23, d15", d10, d23, i32, f2u0(INFINITY), f2u1(INFINITY), d15, i32… in main()
1182 …TESTINSN_bin_f64("vnmla.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.… in main()
[all …]
/external/libvpx/vp8/decoder/arm/neon/
Didct_dequant_dc_0_2x_neon.asm34 vld1.32 {d10[0]}, [r1], r12
35 vld1.32 {d10[1]}, [r1]
49 vaddw.u8 q5, q3, d10
54 vqmovun.s16 d10, q5
63 vst1.32 {d10[0]}, [r0], r3
64 vst1.32 {d10[1]}, [r0]
Didct_dequant_0_2x_neon.asm33 vld1.32 {d10[0]}, [r12], r3
34 vld1.32 {d10[1]}, [r12]
56 vaddw.u8 q5, q3, d10
64 vqmovun.s16 d10, q5
73 vst1.32 {d10[0]}, [r0], r3
74 vst1.32 {d10[1]}, [r0]
Ddequant_idct_neon.asm59 vqsub.s16 d10, d6, d9 ;c1
63 vqadd.s16 d3, d13, d10
64 vqsub.s16 d4, d13, d10
90 vqsub.s16 d10, d6, d9 ;c1
94 vqadd.s16 d3, d13, d10
95 vqsub.s16 d4, d13, d10
/external/libvpx/vp8/common/arm/neon/
Dsixtappredict16x16_neon.asm71 vld1.u8 {d9, d10, d11}, [r0], r1
81 vmull.u8 q11, d10, d0
86 vext.8 d29, d9, d10, #1
94 vext.8 d29, d10, d11, #1
102 vext.8 d29, d9, d10, #4
110 vext.8 d29, d10, d11, #4
118 vext.8 d29, d9, d10, #5
126 vext.8 d29, d10, d11, #5
134 vext.8 d29, d9, d10, #2
142 vext.8 d29, d10, d11, #2
[all …]
Dsixtappredict4x4_neon.asm66 vext.8 d20, d10, d11, #5
81 vzip.32 d10, d11
85 vmlal.u8 q8, d10, d0
95 vzip.32 d10, d11
99 vmlsl.u8 q8, d10, d4
109 vzip.32 d10, d11
111 vmull.u8 q10, d10, d3
130 vext.8 d20, d10, d11, #5
147 vzip.32 d10, d11
152 vmlal.u8 q8, d10, d0
[all …]
Dloopfiltersimpleverticaledge_neon.asm43 vld4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1
45 vld4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1
47 vld4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1
49 vld4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1
50 vld4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1
51 vld4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1
52 vld4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1
53 vld4.8 {d10[7], d11[7], d12[7], d13[7]}, [r0], r1
55 vswp d7, d10
80 vsubl.s8 q2, d8, d10 ; ( qs0 - ps0)
Dloopfilter_neon.asm84 vld1.u8 {d10}, [r3], r1 ; p1
110 vst1.u8 {d10}, [r0], r1 ; store u op1
143 vld1.u8 {d10}, [r2], r1
185 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1
186 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1
187 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1
188 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1
189 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1
190 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1
191 vst4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1
[all …]
Dsixtappredict8x4_neon.asm70 vmull.u8 q9, d10, d0
75 vext.8 d30, d10, d11, #1
85 vext.8 d30, d10, d11, #4
95 vext.8 d30, d10, d11, #2
105 vext.8 d30, d10, d11, #5
115 vext.8 d30, d10, d11, #3
147 vmull.u8 q10, d10, d0
153 vext.8 d29, d10, d11, #1
165 vext.8 d29, d10, d11, #4
177 vext.8 d29, d10, d11, #2
[all …]
Dsixtappredict8x8_neon.asm74 vmull.u8 q9, d10, d0
79 vext.8 d30, d10, d11, #1
89 vext.8 d30, d10, d11, #4
99 vext.8 d30, d10, d11, #2
109 vext.8 d30, d10, d11, #5
119 vext.8 d30, d10, d11, #3
160 vmull.u8 q10, d10, d0
166 vext.8 d29, d10, d11, #1
178 vext.8 d29, d10, d11, #4
190 vext.8 d29, d10, d11, #2
[all …]
Dsave_neon_reg.asm22 vst1.i64 {d8, d9, d10, d11}, [r0]!
29 vld1.i64 {d8, d9, d10, d11}, [r0]!
Dbilinearpredict16x16_neon.asm49 vld1.u8 {d8, d9, d10}, [r0], r1
83 vext.8 d9, d9, d10, #1
106 vld1.u8 {d8, d9, d10}, [r0], r1
132 vext.8 d9, d9, d10, #1
155 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8
166 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result
240 vld1.u8 {d8, d9, d10}, [r0], r1
268 vext.8 d9, d9, d10, #1
/external/llvm/test/CodeGen/ARM/
D2010-12-07-PEIBug.ll10 ; CHECK-NEXT: vpush {d10, d11}
34 ; CHECK: vpop {d10, d11}
/external/libvpx/vp8/encoder/x86/
Dfwalsh_sse2.asm78 pmaddwd xmm0, [GLOBAL(c1)] ; d11 a11 d10 a10
84 pshufd xmm4, xmm0, 0xd8 ; d11 d10 a11 a10
91 punpckhqdq xmm4, xmm5 ; c11 c10 d11 d10

12