/external/kernel-headers/original/asm-generic/ |
D | xor.h | 109 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_2() local 113 d3 = p1[3]; in xor_32regs_2() 121 d3 ^= p2[3]; in xor_32regs_2() 129 p1[3] = d3; in xor_32regs_2() 146 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_3() local 150 d3 = p1[3]; in xor_32regs_3() 158 d3 ^= p2[3]; in xor_32regs_3() 166 d3 ^= p3[3]; in xor_32regs_3() 174 p1[3] = d3; in xor_32regs_3() 192 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_4() local [all …]
|
/external/qemu/distrib/sdl-1.2.12/src/video/ataricommon/ |
D | SDL_ataric2p.S | 72 movel a0@+,d3 87 movel d3,d7 93 eorl d7,d3 103 movel d3,d7 109 eorl d7,d3 123 movel a0@+,d3 139 movel d3,d7 146 eorl d7,d3 157 movel d3,d7 164 eorl d7,d3 [all …]
|
/external/libvpx/vp8/encoder/arm/neon/ |
D | vp8_shortwalsh4x4_neon.asm | 23 vld1.16 {d3}, [r0], r2 28 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3] 30 vtrn.32 d3, d5 31 vtrn.16 d2, d3 35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2] 36 vsub.s16 d8, d3, d4 ;c1 = ip[1]-ip[2] 41 vadd.s16 d3, d8, d9 ;op[1] = c1 + d1 45 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12] 47 vtrn.32 d3, d5 48 vtrn.16 d2, d3 [all …]
|
D | fastfdct4x4_neon.asm | 33 vld1.16 {d3}, [r0], r2 39 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3] 41 vtrn.32 d3, d5 42 vtrn.16 d2, d3 46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2] 47 vsub.s16 d8, d3, d4 ;ip[1]-ip[2] 66 …vadd.s16 d3, d14, d17 ;op[1] = temp1 + temp2 -- q is not necessary, just for pr… 70 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12] 72 vtrn.32 d3, d5 73 vtrn.16 d2, d3 [all …]
|
D | fastfdct8x4_neon.asm | 40 ;transpose d3, d5, d7, d9. Then, d3=ip[0], d5=ip[1], d7=ip[2], d9=ip[3] 42 vtrn.32 d3, d7 46 vtrn.16 d3, d5 54 vadd.s16 d22, d3, d9 57 vsub.s16 d25, d3, d9 66 vadd.s16 d24, d2, d3 67 vsub.s16 d25, d2, d3 86 vadd.s16 d3, d24, d26 ;op[0] = ((temp1 * x_c2 )>>16) + temp1 96 ;transpose d3, d5, d7, d9. Then, d3=ip[0], d5=ip[4], d7=ip[8], d9=ip[12] 98 vtrn.32 d3, d7 [all …]
|
D | vp8_subpixelvariance16x16_neon.asm | 47 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 66 vmull.u8 q8, d3, d0 74 vext.8 d2, d2, d3, #1 ;construct src_ptr[1] 84 vext.8 d3, d3, d4, #1 89 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * Filter[1]) 104 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 119 vmull.u8 q10, d3, d0 125 vext.8 d2, d2, d3, #1 ;construct src_ptr[1] 133 vext.8 d3, d3, d4, #1 137 vmlal.u8 q10, d3, d1 ;(src_ptr[0] * Filter[1]) [all …]
|
D | vp8_subpixelvariance16x16s_neon.asm | 43 vld1.u8 {d0, d1, d2, d3}, [r0], r1 ;load src data 69 vsubl.u8 q7, d3, d25 96 vmlal.s16 q10, d3, d3 111 vadd.u64 d1, d2, d3 160 vsubl.u8 q12, d1, d3 189 vmlal.s16 q10, d3, d3 207 vadd.u64 d1, d2, d3 231 vld1.u8 {d0, d1, d2, d3}, [r0], r1 ;load src data 276 vsubl.u8 q12, d3, d13 307 vmlal.s16 q15, d3, d3 [all …]
|
D | subtract_neon.asm | 29 vld1.8 {d3}, [r2], r12 36 vsubl.u8 q11, d2, d3 66 vsubl.u8 q9, d1, d3 101 vld1.8 {d3}, [r3]! 116 vsubl.u8 q9, d2, d3 137 vld1.8 {d3}, [r3]! 152 vsubl.u8 q9, d2, d3
|
D | vp8_mse16x16_neon.asm | 47 vsubl.u8 q14, d3, d7 70 vadd.u64 d0, d2, d3 100 vsubl.u8 q14, d3, d7 125 vadd.u64 d1, d2, d3 148 vld1.8 {d3}, [r0], r1 154 vsubl.u8 q14, d3, d7 166 vadd.u64 d0, d2, d3
|
D | vp8_subpixelvariance8x8_neon.asm | 54 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1] 59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 82 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1] 88 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 171 vld1.8 {d3}, [r4], r5 180 vsubl.u8 q7, d25, d3 205 vadd.u64 d1, d2, d3
|
D | shortfdct_neon.asm | 30 vld1.16 d3, [r0] 37 vmull.s16 q14, d4, d3[0] ;i=3 42 vmlal.s16 q14, d5, d3[1] 47 vmlal.s16 q14, d6, d3[2] 52 vmlal.s16 q14, d7, d3[3] ;sumtemp for i=3 89 vmovn.i32 d3, q3
|
D | sad16_neon.asm | 40 vabal.u8 q13, d3, d11 65 vabal.u8 q13, d3, d11 90 vabal.u8 q13, d3, d11 115 vabal.u8 q13, d3, d11 159 vabal.u8 q13, d3, d11 183 vabal.u8 q13, d3, d11
|
D | variance_neon.asm | 44 vsubl.u8 q14, d3, d7 74 vadd.u64 d1, d2, d3 117 vsubl.u8 q14, d3, d7 144 vadd.u64 d1, d2, d3 199 vadd.u64 d1, d2, d3 231 vld1.8 {d3}, [r0], r1 237 vsubl.u8 q14, d3, d7 264 vadd.u64 d1, d2, d3
|
/external/libvpx/vp8/common/arm/neon/ |
D | iwalsh_neon.asm | 22 ; read in all four lines of values: d0->d3 27 vadd.s16 d4, d0, d3 ;a = [0] + [12] 30 vsub.s16 d7, d0, d3 ;d = [0] - [12] 35 vsub.s16 d3, d7, d6 ;d - c 39 vtrn.32 d1, d3 ;d1: 4 5 12 13 40 ;d3: 6 7 14 15 44 vtrn.16 d2, d3 ;d2: 2 6 10 14 45 ;d3: 3 7 11 15 49 vadd.s16 d4, d0, d3 ;a = [0] + [3] 52 vsub.s16 d7, d0, d3 ;d = [0] - [3] [all …]
|
D | bilinearpredict16x16_neon.asm | 44 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 63 vmull.u8 q8, d3, d0 71 vext.8 d2, d2, d3, #1 ;construct src_ptr[1] 81 vext.8 d3, d3, d4, #1 86 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * vp8_filter[1]) 101 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 116 vmull.u8 q10, d3, d0 122 vext.8 d2, d2, d3, #1 ;construct src_ptr[1] 130 vext.8 d3, d3, d4, #1 134 vmlal.u8 q10, d3, d1 ;(src_ptr[0] * vp8_filter[1]) [all …]
|
D | sixtappredict8x4_neon.asm | 57 vdup.8 d3, d25[4] 118 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3]) 119 vmull.u8 q4, d29, d3 120 vmull.u8 q5, d30, d3 121 vmull.u8 q6, d31, d3 205 vmull.u8 q3, d27, d3 ;(src_ptr[1] * vp8_filter[3]) 206 vmull.u8 q4, d28, d3 207 vmull.u8 q5, d29, d3 208 vmull.u8 q6, d30, d3 209 vmull.u8 q7, d31, d3 [all …]
|
D | sixtappredict8x8_neon.asm | 60 vdup.8 d3, d25[4] 122 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3]) 123 vmull.u8 q4, d29, d3 124 vmull.u8 q5, d30, d3 125 vmull.u8 q6, d31, d3 218 vmull.u8 q3, d27, d3 ;(src_ptr[1] * vp8_filter[3]) 219 vmull.u8 q4, d28, d3 220 vmull.u8 q5, d29, d3 221 vmull.u8 q6, d30, d3 222 vmull.u8 q7, d31, d3 [all …]
|
D | sixtappredict4x4_neon.asm | 56 vdup.8 d3, d25[4] 110 vmull.u8 q9, d6, d3 ;(src_ptr[1] * vp8_filter[3]) 111 vmull.u8 q10, d10, d3 188 vmull.u8 q9, d6, d3 ;(src_ptr[1] * vp8_filter[3]) 189 vmull.u8 q10, d10, d3 190 vmull.u8 q11, d31, d3 ;(src_ptr[1] * vp8_filter[3]) 216 vdup.8 d3, d15[4] 235 vmlal.u8 q5, d24, d3 ;(src_ptr[1] * vp8_filter[3]) 236 vmlal.u8 q6, d25, d3 245 vqrshrun.s16 d3, q5, #7 ;shift/round/saturate to u8 [all …]
|
D | sixtappredict16x16_neon.asm | 64 vdup.8 d3, d25[4] 157 vmull.u8 q4, d28, d3 ;(src_ptr[1] * vp8_filter[3]) 158 vmull.u8 q5, d29, d3 159 vmull.u8 q6, d30, d3 165 vmull.u8 q6, d15, d3 ;(src_ptr[1] * vp8_filter[3]) 166 vmull.u8 q7, d31, d3 167 vmull.u8 q3, d6, d3 203 vdup.8 d3, d15[4] 246 vmull.u8 q7, d21, d3 ;(src_ptr[1] * vp8_filter[3]) 247 vmull.u8 q8, d22, d3 [all …]
|
D | bilinearpredict8x8_neon.asm | 51 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1] 56 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1]) 79 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1] 85 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1]) 130 vqrshrn.u16 d3, q2, #7 139 vst1.u8 {d3}, [r0]
|
D | bilinearpredict4x4_neon.asm | 39 vld1.u8 {d3}, [r0], r1 52 vzip.32 d2, d3 ;put 2-line data in 1 register (src_ptr[0]) 94 vqrshrn.u16 d3, q2, #7 98 vst1.32 {d3[0]}, [r1] 99 vst1.32 {d3[1]}, [r2]
|
D | bilinearpredict8x4_neon.asm | 53 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1] 59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1]) 98 vqrshrn.u16 d3, q2, #7 103 vst1.u8 {d3}, [r0]
|
/external/libvpx/vp8/decoder/arm/neon/ |
D | dequant_idct_neon.asm | 45 vswp d3, d4 ;q2(vp[4] vp[12]) 50 vqadd.s16 d12, d2, d3 ;a1 51 vqsub.s16 d13, d2, d3 ;b1 63 vqadd.s16 d3, d13, d10 68 vtrn.32 d3, d5 69 vtrn.16 d2, d3 75 vswp d3, d4 79 vqadd.s16 d12, d2, d3 ;a1 80 vqsub.s16 d13, d2, d3 ;b1 94 vqadd.s16 d3, d13, d10 [all …]
|
/external/chromium/third_party/modp_b64/ |
D | modp_b64.cc | 147 d2[y >> 8 & 0xff] | d3[y & 0xff]; in modp_b64_decode() 159 d2[y >> 8 & 0xff] | d3[y & 0xff]; in modp_b64_decode() 166 x = d3[y >> 24]; in modp_b64_decode() 170 x = d3[y >> 24] *64 + d3[(y >> 16) & 0xff]; in modp_b64_decode() 174 x = (d3[y >> 24] *64 + d3[(y >> 16) & 0xff])*64 + in modp_b64_decode() 175 d3[(y >> 8) & 0xff]; in modp_b64_decode() 219 d3[(y >> 24) & 0xff]; in modp_b64_decode() 233 d3[(y >> 24) & 0xff]; in modp_b64_decode()
|
D | modp_b64_data.h | 243 static const uint32_t d3[256] = { variable 436 static const uint32_t d3[256] = { variable
|