Home
last modified time | relevance | path

Searched refs:d4 (Results 1 – 25 of 134) sorted by relevance

123456

/external/llvm/test/MC/ARM/
Dneon-bitwise-encoding.s123 vand d4, d7, d3
124 vand.8 d4, d7, d3
125 vand.16 d4, d7, d3
126 vand.32 d4, d7, d3
127 vand.64 d4, d7, d3
129 vand.i8 d4, d7, d3
130 vand.i16 d4, d7, d3
131 vand.i32 d4, d7, d3
132 vand.i64 d4, d7, d3
134 vand.s8 d4, d7, d3
[all …]
Dneon-mul-encoding.s106 vmul.i16 d0, d4[2]
110 vmul.s32 d4, d3[1]
111 vmul.u32 d5, d4[0]
114 vmul.i16 q0, d4[2]
119 vmul.u32 q5, d4[0]
122 vmul.i16 d9, d0, d4[2]
126 vmul.s32 d5, d4, d3[1]
127 vmul.u32 d4, d5, d4[0]
130 vmul.i16 q9, q0, d4[2]
135 vmul.u32 q4, q5, d4[0]
[all …]
Dneon-vld-encoding.s12 vld1.16 {d4, d5, d6}, [r3, :64]
15 vld1.8 {d1, d2, d3, d4}, [r3]
16 vld1.16 {d4, d5, d6, d7}, [r3, :64]
39 vld1.16 {d4, d5, d6}, [r3, :64]!
44 vld1.16 {d4, d5, d6}, [r3, :64], r6
48 vld1.8 {d1, d2, d3, d4}, [r3]!
49 vld1.16 {d4, d5, d6, d7}, [r3, :64]!
53 vld1.8 {d1, d2, d3, d4}, [r3], r8
54 vld1.16 {d4, d5, d6, d7}, [r3, :64], r8
67 @ CHECK: vld1.16 {d4, d5, d6}, [r3, :64] @ encoding: [0x5f,0x46,0x23,0xf4]
[all …]
Dneon-shift-encoding.s382 vshl.s8 d4, d5
383 vshl.s16 d4, d5
384 vshl.s32 d4, d5
385 vshl.s64 d4, d5
387 vshl.u8 d4, d5
388 vshl.u16 d4, d5
389 vshl.u32 d4, d5
390 vshl.u64 d4, d5
402 @ CHECK: vshl.s8 d4, d4, d5 @ encoding: [0x04,0x44,0x05,0xf2]
403 @ CHECK: vshl.s16 d4, d4, d5 @ encoding: [0x04,0x44,0x15,0xf2]
[all …]
/external/kernel-headers/original/asm-generic/
Dxor.h109 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_2() local
114 d4 = p1[4]; in xor_32regs_2()
122 d4 ^= p2[4]; in xor_32regs_2()
130 p1[4] = d4; in xor_32regs_2()
146 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_3() local
151 d4 = p1[4]; in xor_32regs_3()
159 d4 ^= p2[4]; in xor_32regs_3()
167 d4 ^= p3[4]; in xor_32regs_3()
175 p1[4] = d4; in xor_32regs_3()
192 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_4() local
[all …]
/external/libvpx/vp8/encoder/arm/neon/
Dvp8_shortwalsh4x4_neon.asm24 vld1.16 {d4}, [r0], r2
28 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3]
29 vtrn.32 d2, d4
32 vtrn.16 d4, d5
35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2]
36 vsub.s16 d8, d3, d4 ;c1 = ip[1]-ip[2]
40 vsub.s16 d4, d6, d7 ;op[2] = a1 - b1
45 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12]
46 vtrn.32 d2, d4
49 vtrn.16 d4, d5
[all …]
Dfastfdct4x4_neon.asm34 vld1.16 {d4}, [r0], r2
39 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3]
40 vtrn.32 d2, d4
43 vtrn.16 d4, d5
46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2]
47 vsub.s16 d8, d3, d4 ;ip[1]-ip[2]
65 vadd.s16 d4, d11, d13 ;op[2] = ((temp2 * x_c2 )>>16) + temp2
70 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12]
71 vtrn.32 d2, d4
74 vtrn.16 d4, d5
[all …]
Dsad8_neon.asm36 vld1.8 {d4}, [r0], r1
44 vabal.u8 q12, d4, d12
56 vld1.8 {d4}, [r0], r1
64 vabal.u8 q12, d4, d12
93 vld1.8 {d4}, [r0], r1
101 vabal.u8 q12, d4, d12
113 vld1.8 {d4}, [r0], r1
121 vabal.u8 q12, d4, d12
133 vld1.8 {d4}, [r0], r1
141 vabal.u8 q12, d4, d12
[all …]
Dfastfdct8x4_neon.asm39 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[1], d6=ip[2], d8=ip[3]
43 vtrn.32 d4, d8
45 vtrn.16 d2, d4
51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2]
52 vsub.s16 d12, d4, d6 ;ip[1]-ip[2]
89 …vadd.s16 d4, d18, d21 ;op[1] = temp1 + temp2 -- q is not necessary, just for pr…
95 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[4], d6=ip[8], d8=ip[12]
99 vtrn.32 d4, d8
101 vtrn.16 d2, d4
107 vadd.s16 d11, d4, d6 ;b1 = ip[4]+ip[8]
[all …]
Dshortfdct_neon.asm34 vmull.s16 q11, d4, d0[0] ;i=0
35 vmull.s16 q12, d4, d1[0] ;i=1
36 vmull.s16 q13, d4, d2[0] ;i=2
37 vmull.s16 q14, d4, d3[0] ;i=3
61 vmull.s16 q4, d22, d4[0] ;i=0
62 vmull.s16 q5, d22, d4[1] ;i=1
63 vmull.s16 q6, d22, d4[2] ;i=2
64 vmull.s16 q7, d22, d4[3] ;i=3
Dsubtract_neon.asm40 vld1.8 {d4}, [r3], r6
47 vsubl.u8 q12, d4, d5
80 vsubl.u8 q10, d4, d6
115 vld1.8 {d4}, [r1], r12
130 vsubl.u8 q10, d4, d5
151 vld1.8 {d4}, [r2], r12
166 vsubl.u8 q10, d4, d5
Dsad16_neon.asm45 vabal.u8 q12, d4, d12
70 vabal.u8 q12, d4, d12
95 vabal.u8 q12, d4, d12
120 vabal.u8 q12, d4, d12
164 vabal.u8 q12, d4, d12
188 vabal.u8 q12, d4, d12
/external/valgrind/main/none/tests/arm/
Dneon64.c700 TESTINSN_bin("vand d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main()
706 TESTINSN_bin("vbic d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main()
713 TESTINSN_bin("vorr d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main()
719 TESTINSN_bin("vorn d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main()
724 TESTINSN_bin("veor d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main()
729 TESTINSN_bin("veor d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main()
734 TESTINSN_bin("vbsl d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main()
739 TESTINSN_bin("vbsl d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main()
744 TESTINSN_bin("vbit d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main()
749 TESTINSN_bin("vbit d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main()
[all …]
/external/libvpx/vp8/decoder/arm/neon/
Ddequant_idct_neon.asm45 vswp d3, d4 ;q2(vp[4] vp[12])
64 vqsub.s16 d4, d13, d10
67 vtrn.32 d2, d4
70 vtrn.16 d4, d5
75 vswp d3, d4
95 vqsub.s16 d4, d13, d10
102 vrshr.s16 d4, d4, #3
105 vtrn.32 d2, d4
108 vtrn.16 d4, d5
Didct_dequant_dc_0_2x_neon.asm29 vld1.32 {d4[0]}, [r1], r12
30 vld1.32 {d4[1]}, [r1]
47 vaddw.u8 q2, q0, d4
52 vqmovun.s16 d4, q2
59 vst1.32 {d4[0]}, [r2], r3
60 vst1.32 {d4[1]}, [r2]
Didct_dequant_0_2x_neon.asm29 vld1.32 {d4[0]}, [r2], r3
30 vld1.32 {d4[1]}, [r2]
54 vaddw.u8 q2, q0, d4
62 vqmovun.s16 d4, q2
69 vst1.32 {d4[0]}, [r2], r3
70 vst1.32 {d4[1]}, [r2]
/external/libvpx/vp8/common/arm/neon/
Ddc_only_idct_add_neon.asm32 vld1.32 {d4[0]}, [r1], r3
33 vld1.32 {d4[1]}, [r1]
36 vaddw.u8 q2, q0, d4
39 vqmovun.s16 d4, q2
43 vst1.32 {d4[0]}, [r2], r12
44 vst1.32 {d4[1]}, [r2]
Dsixtappredict8x4_neon.asm71 vdup.8 d4, d26[0]
100 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
101 vmlsl.u8 q8, d29, d4
102 vmlsl.u8 q9, d30, d4
103 vmlsl.u8 q10, d31, d4
181 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4])
182 vmlsl.u8 q9, d28, d4
183 vmlsl.u8 q10, d29, d4
184 vmlsl.u8 q11, d30, d4
185 vmlsl.u8 q12, d31, d4
[all …]
Dsixtappredict4x4_neon.asm69 vdup.8 d4, d26[0]
110 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4])
111 vmlsl.u8 q8, d10, d4
183 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4])
184 vmlsl.u8 q8, d10, d4
185 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4])
229 vdup.8 d4, d16[0]
238 vmlsl.u8 q3, d29, d4 ;-(src_ptr[2] * vp8_filter[4])
239 vmlsl.u8 q4, d30, d4
258 vqrshrun.s16 d4, q6, #7
[all …]
Dsixtappredict8x8_neon.asm62 vdup.8 d4, d26[0]
92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
93 vmlsl.u8 q8, d29, d4
94 vmlsl.u8 q9, d30, d4
95 vmlsl.u8 q10, d31, d4
182 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4])
183 vmlsl.u8 q9, d28, d4
184 vmlsl.u8 q10, d29, d4
185 vmlsl.u8 q11, d30, d4
186 vmlsl.u8 q12, d31, d4
[all …]
Diwalsh_neon.asm27 vadd.s16 d4, d0, d3 ;a = [0] + [12]
32 vadd.s16 d0, d4, d5 ;a + b
34 vsub.s16 d2, d4, d5 ;a - b
49 vadd.s16 d4, d0, d3 ;a = [0] + [3]
54 vadd.s16 d0, d4, d5 ;e = a + b
56 vsub.s16 d2, d4, d5 ;g = a - b
Dsixtappredict16x16_neon.asm77 vdup.8 d4, d26[0]
117 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
118 vmlsl.u8 q10, d29, d4
119 vmlsl.u8 q12, d30, d4
125 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
126 vmlsl.u8 q11, d29, d4
127 vmlsl.u8 q13, d30, d4
216 vdup.8 d4, d16[0]
243 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4])
244 vmlsl.u8 q4, d23, d4
[all …]
/external/valgrind/main/massif/tests/
Dalloc-fns.c18 void d4(int n) { malloc(n); } in d4() function
19 void d3(int n) { d4(n); } in d3()
33 d4(400); in main()
/external/llvm/test/CodeGen/Mips/
Dsitofp-selectcc-opt.ll3 @foo12.d4 = internal unnamed_addr global double 0.000000e+00, align 8
17 %1 = load double* @foo12.d4, align 8
19 store double %add, double* @foo12.d4, align 8
/external/openssh/
Dumac.c339 UINT32 d0,d1,d2,d3,d4,d5,d6,d7; in nh_aux() local
346 d4 = LOAD_UINT32_LITTLE(d+4); d5 = LOAD_UINT32_LITTLE(d+5); in nh_aux()
350 h += MUL64((k0 + d0), (k4 + d4)); in nh_aux()
372 UINT32 d0,d1,d2,d3,d4,d5,d6,d7; in nh_aux() local
382 d4 = LOAD_UINT32_LITTLE(d+4); d5 = LOAD_UINT32_LITTLE(d+5); in nh_aux()
387 h1 += MUL64((k0 + d0), (k4 + d4)); in nh_aux()
388 h2 += MUL64((k4 + d0), (k8 + d4)); in nh_aux()
419 UINT32 d0,d1,d2,d3,d4,d5,d6,d7; in nh_aux() local
431 d4 = LOAD_UINT32_LITTLE(d+4); d5 = LOAD_UINT32_LITTLE(d+5); in nh_aux()
436 h1 += MUL64((k0 + d0), (k4 + d4)); in nh_aux()
[all …]

123456