/external/llvm/test/MC/ARM/ |
D | neon-bitwise-encoding.s | 123 vand d4, d7, d3 124 vand.8 d4, d7, d3 125 vand.16 d4, d7, d3 126 vand.32 d4, d7, d3 127 vand.64 d4, d7, d3 129 vand.i8 d4, d7, d3 130 vand.i16 d4, d7, d3 131 vand.i32 d4, d7, d3 132 vand.i64 d4, d7, d3 134 vand.s8 d4, d7, d3 [all …]
|
D | neon-mul-encoding.s | 106 vmul.i16 d0, d4[2] 110 vmul.s32 d4, d3[1] 111 vmul.u32 d5, d4[0] 114 vmul.i16 q0, d4[2] 119 vmul.u32 q5, d4[0] 122 vmul.i16 d9, d0, d4[2] 126 vmul.s32 d5, d4, d3[1] 127 vmul.u32 d4, d5, d4[0] 130 vmul.i16 q9, q0, d4[2] 135 vmul.u32 q4, q5, d4[0] [all …]
|
D | neon-vld-encoding.s | 12 vld1.16 {d4, d5, d6}, [r3, :64] 15 vld1.8 {d1, d2, d3, d4}, [r3] 16 vld1.16 {d4, d5, d6, d7}, [r3, :64] 39 vld1.16 {d4, d5, d6}, [r3, :64]! 44 vld1.16 {d4, d5, d6}, [r3, :64], r6 48 vld1.8 {d1, d2, d3, d4}, [r3]! 49 vld1.16 {d4, d5, d6, d7}, [r3, :64]! 53 vld1.8 {d1, d2, d3, d4}, [r3], r8 54 vld1.16 {d4, d5, d6, d7}, [r3, :64], r8 67 @ CHECK: vld1.16 {d4, d5, d6}, [r3, :64] @ encoding: [0x5f,0x46,0x23,0xf4] [all …]
|
D | neon-shift-encoding.s | 382 vshl.s8 d4, d5 383 vshl.s16 d4, d5 384 vshl.s32 d4, d5 385 vshl.s64 d4, d5 387 vshl.u8 d4, d5 388 vshl.u16 d4, d5 389 vshl.u32 d4, d5 390 vshl.u64 d4, d5 402 @ CHECK: vshl.s8 d4, d4, d5 @ encoding: [0x04,0x44,0x05,0xf2] 403 @ CHECK: vshl.s16 d4, d4, d5 @ encoding: [0x04,0x44,0x15,0xf2] [all …]
|
/external/kernel-headers/original/asm-generic/ |
D | xor.h | 109 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_2() local 114 d4 = p1[4]; in xor_32regs_2() 122 d4 ^= p2[4]; in xor_32regs_2() 130 p1[4] = d4; in xor_32regs_2() 146 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_3() local 151 d4 = p1[4]; in xor_32regs_3() 159 d4 ^= p2[4]; in xor_32regs_3() 167 d4 ^= p3[4]; in xor_32regs_3() 175 p1[4] = d4; in xor_32regs_3() 192 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_4() local [all …]
|
/external/libvpx/vp8/encoder/arm/neon/ |
D | vp8_shortwalsh4x4_neon.asm | 24 vld1.16 {d4}, [r0], r2 28 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3] 29 vtrn.32 d2, d4 32 vtrn.16 d4, d5 35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2] 36 vsub.s16 d8, d3, d4 ;c1 = ip[1]-ip[2] 40 vsub.s16 d4, d6, d7 ;op[2] = a1 - b1 45 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12] 46 vtrn.32 d2, d4 49 vtrn.16 d4, d5 [all …]
|
D | fastfdct4x4_neon.asm | 34 vld1.16 {d4}, [r0], r2 39 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3] 40 vtrn.32 d2, d4 43 vtrn.16 d4, d5 46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2] 47 vsub.s16 d8, d3, d4 ;ip[1]-ip[2] 65 vadd.s16 d4, d11, d13 ;op[2] = ((temp2 * x_c2 )>>16) + temp2 70 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12] 71 vtrn.32 d2, d4 74 vtrn.16 d4, d5 [all …]
|
D | sad8_neon.asm | 36 vld1.8 {d4}, [r0], r1 44 vabal.u8 q12, d4, d12 56 vld1.8 {d4}, [r0], r1 64 vabal.u8 q12, d4, d12 93 vld1.8 {d4}, [r0], r1 101 vabal.u8 q12, d4, d12 113 vld1.8 {d4}, [r0], r1 121 vabal.u8 q12, d4, d12 133 vld1.8 {d4}, [r0], r1 141 vabal.u8 q12, d4, d12 [all …]
|
D | fastfdct8x4_neon.asm | 39 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[1], d6=ip[2], d8=ip[3] 43 vtrn.32 d4, d8 45 vtrn.16 d2, d4 51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2] 52 vsub.s16 d12, d4, d6 ;ip[1]-ip[2] 89 …vadd.s16 d4, d18, d21 ;op[1] = temp1 + temp2 -- q is not necessary, just for pr… 95 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[4], d6=ip[8], d8=ip[12] 99 vtrn.32 d4, d8 101 vtrn.16 d2, d4 107 vadd.s16 d11, d4, d6 ;b1 = ip[4]+ip[8] [all …]
|
D | shortfdct_neon.asm | 34 vmull.s16 q11, d4, d0[0] ;i=0 35 vmull.s16 q12, d4, d1[0] ;i=1 36 vmull.s16 q13, d4, d2[0] ;i=2 37 vmull.s16 q14, d4, d3[0] ;i=3 61 vmull.s16 q4, d22, d4[0] ;i=0 62 vmull.s16 q5, d22, d4[1] ;i=1 63 vmull.s16 q6, d22, d4[2] ;i=2 64 vmull.s16 q7, d22, d4[3] ;i=3
|
D | subtract_neon.asm | 40 vld1.8 {d4}, [r3], r6 47 vsubl.u8 q12, d4, d5 80 vsubl.u8 q10, d4, d6 115 vld1.8 {d4}, [r1], r12 130 vsubl.u8 q10, d4, d5 151 vld1.8 {d4}, [r2], r12 166 vsubl.u8 q10, d4, d5
|
D | sad16_neon.asm | 45 vabal.u8 q12, d4, d12 70 vabal.u8 q12, d4, d12 95 vabal.u8 q12, d4, d12 120 vabal.u8 q12, d4, d12 164 vabal.u8 q12, d4, d12 188 vabal.u8 q12, d4, d12
|
/external/valgrind/main/none/tests/arm/ |
D | neon64.c | 700 TESTINSN_bin("vand d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main() 706 TESTINSN_bin("vbic d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main() 713 TESTINSN_bin("vorr d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main() 719 TESTINSN_bin("vorn d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main() 724 TESTINSN_bin("veor d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main() 729 TESTINSN_bin("veor d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main() 734 TESTINSN_bin("vbsl d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main() 739 TESTINSN_bin("vbsl d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main() 744 TESTINSN_bin("vbit d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main() 749 TESTINSN_bin("vbit d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main() [all …]
|
/external/libvpx/vp8/decoder/arm/neon/ |
D | dequant_idct_neon.asm | 45 vswp d3, d4 ;q2(vp[4] vp[12]) 64 vqsub.s16 d4, d13, d10 67 vtrn.32 d2, d4 70 vtrn.16 d4, d5 75 vswp d3, d4 95 vqsub.s16 d4, d13, d10 102 vrshr.s16 d4, d4, #3 105 vtrn.32 d2, d4 108 vtrn.16 d4, d5
|
D | idct_dequant_dc_0_2x_neon.asm | 29 vld1.32 {d4[0]}, [r1], r12 30 vld1.32 {d4[1]}, [r1] 47 vaddw.u8 q2, q0, d4 52 vqmovun.s16 d4, q2 59 vst1.32 {d4[0]}, [r2], r3 60 vst1.32 {d4[1]}, [r2]
|
D | idct_dequant_0_2x_neon.asm | 29 vld1.32 {d4[0]}, [r2], r3 30 vld1.32 {d4[1]}, [r2] 54 vaddw.u8 q2, q0, d4 62 vqmovun.s16 d4, q2 69 vst1.32 {d4[0]}, [r2], r3 70 vst1.32 {d4[1]}, [r2]
|
/external/libvpx/vp8/common/arm/neon/ |
D | dc_only_idct_add_neon.asm | 32 vld1.32 {d4[0]}, [r1], r3 33 vld1.32 {d4[1]}, [r1] 36 vaddw.u8 q2, q0, d4 39 vqmovun.s16 d4, q2 43 vst1.32 {d4[0]}, [r2], r12 44 vst1.32 {d4[1]}, [r2]
|
D | sixtappredict8x4_neon.asm | 71 vdup.8 d4, d26[0] 100 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 101 vmlsl.u8 q8, d29, d4 102 vmlsl.u8 q9, d30, d4 103 vmlsl.u8 q10, d31, d4 181 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 182 vmlsl.u8 q9, d28, d4 183 vmlsl.u8 q10, d29, d4 184 vmlsl.u8 q11, d30, d4 185 vmlsl.u8 q12, d31, d4 [all …]
|
D | sixtappredict4x4_neon.asm | 69 vdup.8 d4, d26[0] 110 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 111 vmlsl.u8 q8, d10, d4 183 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 184 vmlsl.u8 q8, d10, d4 185 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4]) 229 vdup.8 d4, d16[0] 238 vmlsl.u8 q3, d29, d4 ;-(src_ptr[2] * vp8_filter[4]) 239 vmlsl.u8 q4, d30, d4 258 vqrshrun.s16 d4, q6, #7 [all …]
|
D | sixtappredict8x8_neon.asm | 62 vdup.8 d4, d26[0] 92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 93 vmlsl.u8 q8, d29, d4 94 vmlsl.u8 q9, d30, d4 95 vmlsl.u8 q10, d31, d4 182 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 183 vmlsl.u8 q9, d28, d4 184 vmlsl.u8 q10, d29, d4 185 vmlsl.u8 q11, d30, d4 186 vmlsl.u8 q12, d31, d4 [all …]
|
D | iwalsh_neon.asm | 27 vadd.s16 d4, d0, d3 ;a = [0] + [12] 32 vadd.s16 d0, d4, d5 ;a + b 34 vsub.s16 d2, d4, d5 ;a - b 49 vadd.s16 d4, d0, d3 ;a = [0] + [3] 54 vadd.s16 d0, d4, d5 ;e = a + b 56 vsub.s16 d2, d4, d5 ;g = a - b
|
D | sixtappredict16x16_neon.asm | 77 vdup.8 d4, d26[0] 117 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 118 vmlsl.u8 q10, d29, d4 119 vmlsl.u8 q12, d30, d4 125 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 126 vmlsl.u8 q11, d29, d4 127 vmlsl.u8 q13, d30, d4 216 vdup.8 d4, d16[0] 243 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4]) 244 vmlsl.u8 q4, d23, d4 [all …]
|
/external/valgrind/main/massif/tests/ |
D | alloc-fns.c | 18 void d4(int n) { malloc(n); } in d4() function 19 void d3(int n) { d4(n); } in d3() 33 d4(400); in main()
|
/external/llvm/test/CodeGen/Mips/ |
D | sitofp-selectcc-opt.ll | 3 @foo12.d4 = internal unnamed_addr global double 0.000000e+00, align 8 17 %1 = load double* @foo12.d4, align 8 19 store double %add, double* @foo12.d4, align 8
|
/external/openssh/ |
D | umac.c | 339 UINT32 d0,d1,d2,d3,d4,d5,d6,d7; in nh_aux() local 346 d4 = LOAD_UINT32_LITTLE(d+4); d5 = LOAD_UINT32_LITTLE(d+5); in nh_aux() 350 h += MUL64((k0 + d0), (k4 + d4)); in nh_aux() 372 UINT32 d0,d1,d2,d3,d4,d5,d6,d7; in nh_aux() local 382 d4 = LOAD_UINT32_LITTLE(d+4); d5 = LOAD_UINT32_LITTLE(d+5); in nh_aux() 387 h1 += MUL64((k0 + d0), (k4 + d4)); in nh_aux() 388 h2 += MUL64((k4 + d0), (k8 + d4)); in nh_aux() 419 UINT32 d0,d1,d2,d3,d4,d5,d6,d7; in nh_aux() local 431 d4 = LOAD_UINT32_LITTLE(d+4); d5 = LOAD_UINT32_LITTLE(d+5); in nh_aux() 436 h1 += MUL64((k0 + d0), (k4 + d4)); in nh_aux() [all …]
|