/external/kernel-headers/original/asm-generic/ |
D | xor.h | 109 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_2() local 114 d4 = p1[4]; in xor_32regs_2() 122 d4 ^= p2[4]; in xor_32regs_2() 130 p1[4] = d4; in xor_32regs_2() 146 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_3() local 151 d4 = p1[4]; in xor_32regs_3() 159 d4 ^= p2[4]; in xor_32regs_3() 167 d4 ^= p3[4]; in xor_32regs_3() 175 p1[4] = d4; in xor_32regs_3() 192 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_4() local [all …]
|
/external/libvpx/vp8/encoder/arm/neon/ |
D | vp8_shortwalsh4x4_neon.asm | 24 vld1.16 {d4}, [r0], r2 28 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3] 29 vtrn.32 d2, d4 32 vtrn.16 d4, d5 35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2] 36 vsub.s16 d8, d3, d4 ;c1 = ip[1]-ip[2] 40 vsub.s16 d4, d6, d7 ;op[2] = a1 - b1 45 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12] 46 vtrn.32 d2, d4 49 vtrn.16 d4, d5 [all …]
|
D | fastfdct4x4_neon.asm | 34 vld1.16 {d4}, [r0], r2 39 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3] 40 vtrn.32 d2, d4 43 vtrn.16 d4, d5 46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2] 47 vsub.s16 d8, d3, d4 ;ip[1]-ip[2] 65 vadd.s16 d4, d11, d13 ;op[2] = ((temp2 * x_c2 )>>16) + temp2 70 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12] 71 vtrn.32 d2, d4 74 vtrn.16 d4, d5 [all …]
|
D | sad8_neon.asm | 36 vld1.8 {d4}, [r0], r1 44 vabal.u8 q12, d4, d12 56 vld1.8 {d4}, [r0], r1 64 vabal.u8 q12, d4, d12 93 vld1.8 {d4}, [r0], r1 101 vabal.u8 q12, d4, d12 113 vld1.8 {d4}, [r0], r1 121 vabal.u8 q12, d4, d12 133 vld1.8 {d4}, [r0], r1 141 vabal.u8 q12, d4, d12 [all …]
|
D | fastfdct8x4_neon.asm | 39 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[1], d6=ip[2], d8=ip[3] 43 vtrn.32 d4, d8 45 vtrn.16 d2, d4 51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2] 52 vsub.s16 d12, d4, d6 ;ip[1]-ip[2] 89 …vadd.s16 d4, d18, d21 ;op[1] = temp1 + temp2 -- q is not necessary, just for pr… 95 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[4], d6=ip[8], d8=ip[12] 99 vtrn.32 d4, d8 101 vtrn.16 d2, d4 107 vadd.s16 d11, d4, d6 ;b1 = ip[4]+ip[8] [all …]
|
D | shortfdct_neon.asm | 34 vmull.s16 q11, d4, d0[0] ;i=0 35 vmull.s16 q12, d4, d1[0] ;i=1 36 vmull.s16 q13, d4, d2[0] ;i=2 37 vmull.s16 q14, d4, d3[0] ;i=3 61 vmull.s16 q4, d22, d4[0] ;i=0 62 vmull.s16 q5, d22, d4[1] ;i=1 63 vmull.s16 q6, d22, d4[2] ;i=2 64 vmull.s16 q7, d22, d4[3] ;i=3
|
D | subtract_neon.asm | 30 vld1.8 {d4}, [r1], r3 37 vsubl.u8 q12, d4, d5 67 vsubl.u8 q10, d4, d6 102 vld1.8 {d4}, [r1], r12 117 vsubl.u8 q10, d4, d5 138 vld1.8 {d4}, [r2], r12 153 vsubl.u8 q10, d4, d5
|
D | vp8_subpixelvariance16x16s_neon.asm | 45 vld1.u8 {d4, d5, d6, d7}, [r0], r1 70 vsubl.u8 q0, d4, d26 98 vmlal.s16 q9, d4, d4 161 vsubl.u8 q13, d4, d6 191 vmlal.s16 q9, d4, d4 245 vld1.u8 {d4, d5, d6, d7}, [r0], r1 278 vsubl.u8 q0, d4, d14 ;diff 372 vld1.u8 {d4, d5, d6, d7}, [r0], r1 399 vst1.u8 {d4, d5, d6, d7}, [r3]! 414 vld1.u8 {d4, d5, d6, d7}, [r0], r1 [all …]
|
D | sad16_neon.asm | 45 vabal.u8 q12, d4, d12 70 vabal.u8 q12, d4, d12 95 vabal.u8 q12, d4, d12 120 vabal.u8 q12, d4, d12 164 vabal.u8 q12, d4, d12 188 vabal.u8 q12, d4, d12
|
D | vp8_subpixelvariance16x16_neon.asm | 47 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 84 vext.8 d3, d3, d4, #1 104 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 133 vext.8 d3, d3, d4, #1 217 vqrshrn.u16 d4, q3, #7 225 vst1.u8 {d4, d5}, [r3]! 244 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 272 vext.8 d3, d3, d4, #1 342 vqrshrn.u16 d4, q3, #7 351 vst1.u8 {d4, d5}, [r3]! [all …]
|
D | variance_neon.asm | 41 vsubl.u8 q11, d0, d4 ;calculate diff 114 vsubl.u8 q11, d0, d4 ;calculate diff 173 vld1.8 {d4}, [r2], r3 177 vsubl.u8 q11, d0, d4 ;calculate diff 226 vld1.8 {d4}, [r2], r3 234 vsubl.u8 q11, d0, d4 ;calculate diff
|
/external/libvpx/vp8/decoder/arm/neon/ |
D | dequant_idct_neon.asm | 45 vswp d3, d4 ;q2(vp[4] vp[12]) 64 vqsub.s16 d4, d13, d10 67 vtrn.32 d2, d4 70 vtrn.16 d4, d5 75 vswp d3, d4 95 vqsub.s16 d4, d13, d10 102 vrshr.s16 d4, d4, #3 105 vtrn.32 d2, d4 108 vtrn.16 d4, d5
|
D | idct_dequant_dc_0_2x_neon.asm | 29 vld1.32 {d4[0]}, [r1], r12 30 vld1.32 {d4[1]}, [r1] 47 vaddw.u8 q2, q0, d4 52 vqmovun.s16 d4, q2 59 vst1.32 {d4[0]}, [r2], r3 60 vst1.32 {d4[1]}, [r2]
|
D | idct_dequant_0_2x_neon.asm | 29 vld1.32 {d4[0]}, [r2], r3 30 vld1.32 {d4[1]}, [r2] 54 vaddw.u8 q2, q0, d4 62 vqmovun.s16 d4, q2 69 vst1.32 {d4[0]}, [r2], r3 70 vst1.32 {d4[1]}, [r2]
|
/external/libvpx/vp8/common/arm/neon/ |
D | dc_only_idct_add_neon.asm | 32 vld1.32 {d4[0]}, [r1], r3 33 vld1.32 {d4[1]}, [r1] 36 vaddw.u8 q2, q0, d4 39 vqmovun.s16 d4, q2 43 vst1.32 {d4[0]}, [r2], r12 44 vst1.32 {d4[1]}, [r2]
|
D | sixtappredict8x4_neon.asm | 59 vdup.8 d4, d26[0] 88 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 89 vmlsl.u8 q8, d29, d4 90 vmlsl.u8 q9, d30, d4 91 vmlsl.u8 q10, d31, d4 169 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 170 vmlsl.u8 q9, d28, d4 171 vmlsl.u8 q10, d29, d4 172 vmlsl.u8 q11, d30, d4 173 vmlsl.u8 q12, d31, d4 [all …]
|
D | sixtappredict8x8_neon.asm | 62 vdup.8 d4, d26[0] 92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 93 vmlsl.u8 q8, d29, d4 94 vmlsl.u8 q9, d30, d4 95 vmlsl.u8 q10, d31, d4 182 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 183 vmlsl.u8 q9, d28, d4 184 vmlsl.u8 q10, d29, d4 185 vmlsl.u8 q11, d30, d4 186 vmlsl.u8 q12, d31, d4 [all …]
|
D | sixtappredict4x4_neon.asm | 57 vdup.8 d4, d26[0] 98 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 99 vmlsl.u8 q8, d10, d4 171 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 172 vmlsl.u8 q8, d10, d4 173 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4]) 217 vdup.8 d4, d16[0] 226 vmlsl.u8 q3, d29, d4 ;-(src_ptr[2] * vp8_filter[4]) 227 vmlsl.u8 q4, d30, d4 246 vqrshrun.s16 d4, q6, #7 [all …]
|
D | sixtappredict16x16_neon.asm | 65 vdup.8 d4, d26[0] 105 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 106 vmlsl.u8 q10, d29, d4 107 vmlsl.u8 q12, d30, d4 113 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 114 vmlsl.u8 q11, d29, d4 115 vmlsl.u8 q13, d30, d4 204 vdup.8 d4, d16[0] 231 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4]) 232 vmlsl.u8 q4, d23, d4 [all …]
|
D | iwalsh_neon.asm | 27 vadd.s16 d4, d0, d3 ;a = [0] + [12] 32 vadd.s16 d0, d4, d5 ;a + b 34 vsub.s16 d2, d4, d5 ;a - b 49 vadd.s16 d4, d0, d3 ;a = [0] + [3] 54 vadd.s16 d0, d4, d5 ;e = a + b 56 vsub.s16 d2, d4, d5 ;g = a - b
|
D | bilinearpredict16x16_neon.asm | 44 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 81 vext.8 d3, d3, d4, #1 101 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 130 vext.8 d3, d3, d4, #1 211 vqrshrn.u16 d4, q3, #7 219 vst1.u8 {d4, d5}, [r4], r5 238 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 266 vext.8 d3, d3, d4, #1 333 vqrshrn.u16 d4, q3, #7 342 vst1.u8 {d4, d5}, [r4], r5
|
D | bilinearpredict8x8_neon.asm | 47 vmull.u8 q7, d4, d0 52 vext.8 d5, d4, d5, #1 74 vmull.u8 q7, d4, d0 80 vext.8 d5, d4, d5, #1 131 vqrshrn.u16 d4, q3, #7 140 vst1.u8 {d4}, [r1], lr
|
D | reconb_neon.asm | 37 vmovl.u8 q1, d29 ;Pred data in d0, d2, d4, d6 43 vadd.s16 d4, d4, d24
|
D | bilinearpredict8x4_neon.asm | 48 vmull.u8 q7, d4, d0 54 vext.8 d5, d4, d5, #1 99 vqrshrn.u16 d4, q3, #7 104 vst1.u8 {d4}, [r1]
|
/external/webkit/WebCore/platform/graphics/transforms/ |
D | TransformationMatrix.cpp | 122 double d4 = m[3][3]; in determinant4x4() local 124 return a1 * determinant3x3(b2, b3, b4, c2, c3, c4, d2, d3, d4) in determinant4x4() 125 - b1 * determinant3x3(a2, a3, a4, c2, c3, c4, d2, d3, d4) in determinant4x4() 126 + c1 * determinant3x3(a2, a3, a4, b2, b3, b4, d2, d3, d4) in determinant4x4() 168 double d4 = matrix[3][3]; in adjoint() local 171 result[0][0] = determinant3x3(b2, b3, b4, c2, c3, c4, d2, d3, d4); in adjoint() 172 result[1][0] = - determinant3x3(a2, a3, a4, c2, c3, c4, d2, d3, d4); in adjoint() 173 result[2][0] = determinant3x3(a2, a3, a4, b2, b3, b4, d2, d3, d4); in adjoint() 176 result[0][1] = - determinant3x3(b1, b3, b4, c1, c3, c4, d1, d3, d4); in adjoint() 177 result[1][1] = determinant3x3(a1, a3, a4, c1, c3, c4, d1, d3, d4); in adjoint() [all …]
|