/external/llvm/test/MC/ARM/ |
D | neon-bitwise-encoding.s | 118 vand d4, d7, d3 119 vand.8 d4, d7, d3 120 vand.16 d4, d7, d3 121 vand.32 d4, d7, d3 122 vand.64 d4, d7, d3 124 vand.i8 d4, d7, d3 125 vand.i16 d4, d7, d3 126 vand.i32 d4, d7, d3 127 vand.i64 d4, d7, d3 129 vand.s8 d4, d7, d3 [all …]
|
D | neon-mul-encoding.s | 106 vmul.i16 d0, d4[2] 110 vmul.s32 d4, d3[1] 111 vmul.u32 d5, d4[0] 114 vmul.i16 q0, d4[2] 119 vmul.u32 q5, d4[0] 122 vmul.i16 d9, d0, d4[2] 126 vmul.s32 d5, d4, d3[1] 127 vmul.u32 d4, d5, d4[0] 130 vmul.i16 q9, q0, d4[2] 135 vmul.u32 q4, q5, d4[0] [all …]
|
D | neon-vld-encoding.s | 12 vld1.16 {d4, d5, d6}, [r3, :64] 15 vld1.8 {d1, d2, d3, d4}, [r3] 16 vld1.16 {d4, d5, d6, d7}, [r3, :64] 39 vld1.16 {d4, d5, d6}, [r3, :64]! 44 vld1.16 {d4, d5, d6}, [r3, :64], r6 48 vld1.8 {d1, d2, d3, d4}, [r3]! 49 vld1.16 {d4, d5, d6, d7}, [r3, :64]! 53 vld1.8 {d1, d2, d3, d4}, [r3], r8 54 vld1.16 {d4, d5, d6, d7}, [r3, :64], r8 67 @ CHECK: vld1.16 {d4, d5, d6}, [r3, :64] @ encoding: [0x5f,0x46,0x23,0xf4] [all …]
|
D | neon-shift-encoding.s | 382 vshl.s8 d4, d5 383 vshl.s16 d4, d5 384 vshl.s32 d4, d5 385 vshl.s64 d4, d5 387 vshl.u8 d4, d5 388 vshl.u16 d4, d5 389 vshl.u32 d4, d5 390 vshl.u64 d4, d5 402 @ CHECK: vshl.s8 d4, d4, d5 @ encoding: [0x04,0x44,0x05,0xf2] 403 @ CHECK: vshl.s16 d4, d4, d5 @ encoding: [0x04,0x44,0x15,0xf2] [all …]
|
/external/kernel-headers/original/asm-generic/ |
D | xor.h | 109 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_2() local 114 d4 = p1[4]; in xor_32regs_2() 122 d4 ^= p2[4]; in xor_32regs_2() 130 p1[4] = d4; in xor_32regs_2() 146 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_3() local 151 d4 = p1[4]; in xor_32regs_3() 159 d4 ^= p2[4]; in xor_32regs_3() 167 d4 ^= p3[4]; in xor_32regs_3() 175 p1[4] = d4; in xor_32regs_3() 192 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_4() local [all …]
|
/external/libvpx/vp8/encoder/arm/neon/ |
D | vp8_shortwalsh4x4_neon.asm | 24 vld1.16 {d4}, [r0], r2 28 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3] 29 vtrn.32 d2, d4 32 vtrn.16 d4, d5 35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2] 36 vsub.s16 d8, d3, d4 ;c1 = ip[1]-ip[2] 40 vsub.s16 d4, d6, d7 ;op[2] = a1 - b1 45 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12] 46 vtrn.32 d2, d4 49 vtrn.16 d4, d5 [all …]
|
D | fastfdct4x4_neon.asm | 34 vld1.16 {d4}, [r0], r2 39 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3] 40 vtrn.32 d2, d4 43 vtrn.16 d4, d5 46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2] 47 vsub.s16 d8, d3, d4 ;ip[1]-ip[2] 65 vadd.s16 d4, d11, d13 ;op[2] = ((temp2 * x_c2 )>>16) + temp2 70 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12] 71 vtrn.32 d2, d4 74 vtrn.16 d4, d5 [all …]
|
D | sad8_neon.asm | 36 vld1.8 {d4}, [r0], r1 44 vabal.u8 q12, d4, d12 56 vld1.8 {d4}, [r0], r1 64 vabal.u8 q12, d4, d12 93 vld1.8 {d4}, [r0], r1 101 vabal.u8 q12, d4, d12 113 vld1.8 {d4}, [r0], r1 121 vabal.u8 q12, d4, d12 133 vld1.8 {d4}, [r0], r1 141 vabal.u8 q12, d4, d12 [all …]
|
D | fastfdct8x4_neon.asm | 39 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[1], d6=ip[2], d8=ip[3] 43 vtrn.32 d4, d8 45 vtrn.16 d2, d4 51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2] 52 vsub.s16 d12, d4, d6 ;ip[1]-ip[2] 89 …vadd.s16 d4, d18, d21 ;op[1] = temp1 + temp2 -- q is not necessary, just for pr… 95 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[4], d6=ip[8], d8=ip[12] 99 vtrn.32 d4, d8 101 vtrn.16 d2, d4 107 vadd.s16 d11, d4, d6 ;b1 = ip[4]+ip[8] [all …]
|
D | shortfdct_neon.asm | 34 vmull.s16 q11, d4, d0[0] ;i=0 35 vmull.s16 q12, d4, d1[0] ;i=1 36 vmull.s16 q13, d4, d2[0] ;i=2 37 vmull.s16 q14, d4, d3[0] ;i=3 61 vmull.s16 q4, d22, d4[0] ;i=0 62 vmull.s16 q5, d22, d4[1] ;i=1 63 vmull.s16 q6, d22, d4[2] ;i=2 64 vmull.s16 q7, d22, d4[3] ;i=3
|
D | subtract_neon.asm | 40 vld1.8 {d4}, [r3], r6 47 vsubl.u8 q12, d4, d5 80 vsubl.u8 q10, d4, d6 115 vld1.8 {d4}, [r1], r12 130 vsubl.u8 q10, d4, d5 151 vld1.8 {d4}, [r2], r12 166 vsubl.u8 q10, d4, d5
|
D | sad16_neon.asm | 45 vabal.u8 q12, d4, d12 70 vabal.u8 q12, d4, d12 95 vabal.u8 q12, d4, d12 120 vabal.u8 q12, d4, d12 164 vabal.u8 q12, d4, d12 188 vabal.u8 q12, d4, d12
|
D | vp8_subpixelvariance16x16s_neon.asm | 45 vld1.u8 {d4, d5, d6, d7}, [r0], r1 70 vsubl.u8 q0, d4, d26 98 vmlal.s16 q9, d4, d4 161 vsubl.u8 q13, d4, d6 191 vmlal.s16 q9, d4, d4 245 vld1.u8 {d4, d5, d6, d7}, [r0], r1 278 vsubl.u8 q0, d4, d14 ;diff 372 vld1.u8 {d4, d5, d6, d7}, [r0], r1 399 vst1.u8 {d4, d5, d6, d7}, [r3]! 414 vld1.u8 {d4, d5, d6, d7}, [r0], r1 [all …]
|
/external/valgrind/main/none/tests/arm/ |
D | neon64.c | 700 TESTINSN_bin("vand d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main() 706 TESTINSN_bin("vbic d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main() 713 TESTINSN_bin("vorr d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main() 719 TESTINSN_bin("vorn d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main() 724 TESTINSN_bin("veor d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main() 729 TESTINSN_bin("veor d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main() 734 TESTINSN_bin("vbsl d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main() 739 TESTINSN_bin("vbsl d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main() 744 TESTINSN_bin("vbit d4, d6, d5", d4, d6, i8, 0xff, d5, i16, 0x57); in main() 749 TESTINSN_bin("vbit d4, d4, d4", d4, d4, i16, 0xff, d4, i16, 0xff); in main() [all …]
|
/external/libvpx/vp8/decoder/arm/neon/ |
D | dequant_idct_neon.asm | 45 vswp d3, d4 ;q2(vp[4] vp[12]) 64 vqsub.s16 d4, d13, d10 67 vtrn.32 d2, d4 70 vtrn.16 d4, d5 75 vswp d3, d4 95 vqsub.s16 d4, d13, d10 102 vrshr.s16 d4, d4, #3 105 vtrn.32 d2, d4 108 vtrn.16 d4, d5
|
D | idct_dequant_dc_0_2x_neon.asm | 29 vld1.32 {d4[0]}, [r1], r12 30 vld1.32 {d4[1]}, [r1] 47 vaddw.u8 q2, q0, d4 52 vqmovun.s16 d4, q2 59 vst1.32 {d4[0]}, [r2], r3 60 vst1.32 {d4[1]}, [r2]
|
D | idct_dequant_0_2x_neon.asm | 29 vld1.32 {d4[0]}, [r2], r3 30 vld1.32 {d4[1]}, [r2] 54 vaddw.u8 q2, q0, d4 62 vqmovun.s16 d4, q2 69 vst1.32 {d4[0]}, [r2], r3 70 vst1.32 {d4[1]}, [r2]
|
/external/libvpx/vp8/common/arm/neon/ |
D | dc_only_idct_add_neon.asm | 32 vld1.32 {d4[0]}, [r1], r3 33 vld1.32 {d4[1]}, [r1] 36 vaddw.u8 q2, q0, d4 39 vqmovun.s16 d4, q2 43 vst1.32 {d4[0]}, [r2], r12 44 vst1.32 {d4[1]}, [r2]
|
D | sixtappredict8x4_neon.asm | 59 vdup.8 d4, d26[0] 88 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 89 vmlsl.u8 q8, d29, d4 90 vmlsl.u8 q9, d30, d4 91 vmlsl.u8 q10, d31, d4 169 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 170 vmlsl.u8 q9, d28, d4 171 vmlsl.u8 q10, d29, d4 172 vmlsl.u8 q11, d30, d4 173 vmlsl.u8 q12, d31, d4 [all …]
|
D | sixtappredict4x4_neon.asm | 57 vdup.8 d4, d26[0] 98 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 99 vmlsl.u8 q8, d10, d4 171 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 172 vmlsl.u8 q8, d10, d4 173 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4]) 217 vdup.8 d4, d16[0] 226 vmlsl.u8 q3, d29, d4 ;-(src_ptr[2] * vp8_filter[4]) 227 vmlsl.u8 q4, d30, d4 246 vqrshrun.s16 d4, q6, #7 [all …]
|
D | sixtappredict8x8_neon.asm | 62 vdup.8 d4, d26[0] 92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 93 vmlsl.u8 q8, d29, d4 94 vmlsl.u8 q9, d30, d4 95 vmlsl.u8 q10, d31, d4 182 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 183 vmlsl.u8 q9, d28, d4 184 vmlsl.u8 q10, d29, d4 185 vmlsl.u8 q11, d30, d4 186 vmlsl.u8 q12, d31, d4 [all …]
|
D | iwalsh_neon.asm | 27 vadd.s16 d4, d0, d3 ;a = [0] + [12] 32 vadd.s16 d0, d4, d5 ;a + b 34 vsub.s16 d2, d4, d5 ;a - b 49 vadd.s16 d4, d0, d3 ;a = [0] + [3] 54 vadd.s16 d0, d4, d5 ;e = a + b 56 vsub.s16 d2, d4, d5 ;g = a - b
|
D | sixtappredict16x16_neon.asm | 65 vdup.8 d4, d26[0] 105 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 106 vmlsl.u8 q10, d29, d4 107 vmlsl.u8 q12, d30, d4 113 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 114 vmlsl.u8 q11, d29, d4 115 vmlsl.u8 q13, d30, d4 204 vdup.8 d4, d16[0] 231 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4]) 232 vmlsl.u8 q4, d23, d4 [all …]
|
/external/valgrind/main/massif/tests/ |
D | alloc-fns.c | 18 void d4(int n) { malloc(n); } in d4() function 19 void d3(int n) { d4(n); } in d3() 33 d4(400); in main()
|
/external/openssh/ |
D | umac.c | 339 UINT32 d0,d1,d2,d3,d4,d5,d6,d7; in nh_aux() local 346 d4 = LOAD_UINT32_LITTLE(d+4); d5 = LOAD_UINT32_LITTLE(d+5); in nh_aux() 350 h += MUL64((k0 + d0), (k4 + d4)); in nh_aux() 372 UINT32 d0,d1,d2,d3,d4,d5,d6,d7; in nh_aux() local 382 d4 = LOAD_UINT32_LITTLE(d+4); d5 = LOAD_UINT32_LITTLE(d+5); in nh_aux() 387 h1 += MUL64((k0 + d0), (k4 + d4)); in nh_aux() 388 h2 += MUL64((k4 + d0), (k8 + d4)); in nh_aux() 419 UINT32 d0,d1,d2,d3,d4,d5,d6,d7; in nh_aux() local 431 d4 = LOAD_UINT32_LITTLE(d+4); d5 = LOAD_UINT32_LITTLE(d+5); in nh_aux() 436 h1 += MUL64((k0 + d0), (k4 + d4)); in nh_aux() [all …]
|