/external/valgrind/main/none/tests/arm/ |
D | neon128.c | 356 TESTINSN_imm("vmov.i16 q1", q1, 0x7); in main() 370 TESTINSN_imm("vmvn.i16 q1", q1, 0x7); in main() 397 TESTINSN_un("vmvn q0, q1", q0, q1, i32, 24); in main() 402 TESTINSN_un("vmov q0, q1", q0, q1, i32, 24); in main() 407 TESTINSN_un("vmov q0, q1", q0, q1, i8, 7); in main() 412 TESTINSN_bin("vadd.i32 q0, q1, q2", q0, q1, i32, 24, q2, i32, 120); in main() 413 TESTINSN_bin("vadd.i64 q0, q1, q2", q0, q1, i32, 140, q2, i32, 120); in main() 414 TESTINSN_bin("vadd.i32 q0, q1, q2", q0, q1, i32, 140, q2, i32, 120); in main() 415 TESTINSN_bin("vadd.i16 q0, q1, q2", q0, q1, i32, 140, q2, i32, 120); in main() 416 TESTINSN_bin("vadd.i8 q0, q1, q2", q0, q1, i32, 140, q2, i32, 120); in main() [all …]
|
/external/skia/src/opts/ |
D | memset32_neon.S | 33 vmov q1, q0 44 vst1.64 {q0, q1}, [r0]! 45 vst1.64 {q0, q1}, [r0]! 46 vst1.64 {q0, q1}, [r0]! 47 vst1.64 {q0, q1}, [r0]! 48 vst1.64 {q0, q1}, [r0]! 49 vst1.64 {q0, q1}, [r0]! 50 vst1.64 {q0, q1}, [r0]! 51 vst1.64 {q0, q1}, [r0]! 52 vst1.64 {q0, q1}, [r0]! [all …]
|
D | memset16_neon.S | 86 vmov q1, q0 92 vst1.64 {q0, q1}, [r0]! 93 vst1.64 {q0, q1}, [r0]! 94 vst1.64 {q0, q1}, [r0]! 95 vst1.64 {q0, q1}, [r0]! 105 vst1.64 {q0, q1}, [r0]!
|
/external/eigen/test/ |
D | geo_quaternion.cpp | 24 template<typename QuatType> void check_slerp(const QuatType& q0, const QuatType& q1) in check_slerp() argument 32 Scalar theta_tot = AA(q1*q0.inverse()).angle(); in check_slerp() 37 QuatType q = q0.slerp(t,q1); in check_slerp() 72 Quaternionx q1, q2; in quaternion() local 75 q1.coeffs().setRandom(); in quaternion() 76 VERIFY_IS_APPROX(q1.coeffs(), (q1*q2).coeffs()); in quaternion() 79 q1 *= q2; in quaternion() 81 q1 = AngleAxisx(a, v0.normalized()); in quaternion() 85 Scalar refangle = internal::abs(AngleAxisx(q1.inverse()*q2).angle()); in quaternion() 89 if((q1.coeffs()-q2.coeffs()).norm() > 10*largeEps) in quaternion() [all …]
|
D | geo_transformations.cpp | 45 Quaternionx q1, q2; in non_projective_only() local 47 q1 = AngleAxisx(a, v0.normalized()); in non_projective_only() 52 t0.linear() = q1.toRotationMatrix(); in non_projective_only() 62 t0.linear() = q1.toRotationMatrix(); in non_projective_only() 65 t1.linear() = q1.conjugate().toRotationMatrix(); in non_projective_only() 71 t1.fromPositionOrientationScale(v0, q1, v1); in non_projective_only() 123 Quaternionx q1, q2; in transformations() local 124 q1 = AngleAxisx(a, v0.normalized()); in transformations() 137 AngleAxisx aa = AngleAxisx(q1); in transformations() 138 VERIFY_IS_APPROX(q1 * v1, Quaternionx(aa) * v1); in transformations() [all …]
|
/external/eigen/test/eigen2/ |
D | eigen2_geometry.cpp | 57 Quaternionx q1, q2; in geometry() local 60 q1.coeffs().setRandom(); in geometry() 61 VERIFY_IS_APPROX(q1.coeffs(), (q1*q2).coeffs()); in geometry() 77 q1 = AngleAxisx(a, v0.normalized()); in geometry() 81 Scalar refangle = ei_abs(AngleAxisx(q1.inverse()*q2).angle()); in geometry() 85 if((q1.coeffs()-q2.coeffs()).norm() > 10*largeEps) in geometry() 87 VERIFY(ei_isApprox(q1.angularDistance(q2), refangle, largeEps)); in geometry() 91 VERIFY_IS_APPROX(q1 * v2, q1.toRotationMatrix() * v2); in geometry() 92 VERIFY_IS_APPROX(q1 * q2 * v2, in geometry() 93 q1.toRotationMatrix() * q2.toRotationMatrix() * v2); in geometry() [all …]
|
D | eigen2_geometry_with_eigen2_prefix.cpp | 59 Quaternionx q1, q2; in geometry() local 62 q1.coeffs().setRandom(); in geometry() 63 VERIFY_IS_APPROX(q1.coeffs(), (q1*q2).coeffs()); in geometry() 79 q1 = AngleAxisx(a, v0.normalized()); in geometry() 83 Scalar refangle = ei_abs(AngleAxisx(q1.inverse()*q2).angle()); in geometry() 87 if((q1.coeffs()-q2.coeffs()).norm() > 10*largeEps) in geometry() 89 VERIFY(ei_isApprox(q1.angularDistance(q2), refangle, largeEps)); in geometry() 93 VERIFY_IS_APPROX(q1 * v2, q1.toRotationMatrix() * v2); in geometry() 94 VERIFY_IS_APPROX(q1 * q2 * v2, in geometry() 95 q1.toRotationMatrix() * q2.toRotationMatrix() * v2); in geometry() [all …]
|
/external/webp/src/dsp/ |
D | dec_sse2.c | 279 #define GET_NOTHEV(p1, p0, q0, q1, hev_thresh, not_hev) { \ argument 282 const __m128i t2 = MM_ABS(q1, q0); \ 292 #define GET_BASE_DELTA(p1, p0, q0, q1, o) { \ argument 294 o = _mm_subs_epi8(p1, q1); /* p1 - q1 */ \ 327 const __m128i* q1, int thresh, __m128i *mask) { in NeedsFilter() argument 328 __m128i t1 = MM_ABS(*p1, *q1); // abs(p1 - q1) in NeedsFilter() 347 const __m128i* q1, int thresh) { in DoFilter2() argument 351 const __m128i q1s = _mm_xor_si128(*q1, sign_bit); in DoFilter2() 353 NeedsFilter(p1, p0, q0, q1, thresh, &mask); in DoFilter2() 368 __m128i* q0, __m128i* q1, in DoFilter4() argument [all …]
|
D | dec_neon.c | 34 #define NEEDS_FILTER(p1, p0, q0, q1, thresh, mask) \ argument 36 "vabd.u8 q14," #p1 "," #q1 " \n" /* abs(p1 - q1) */ \ 43 #define GET_BASE_DELTA(p1, p0, q0, q1, o) \ argument 45 "vqsub.s8 " #o "," #p1 "," #q1 " \n" /* (p1 - q1) */ \ 62 #define DO_FILTER2(p1, p0, q0, q1, thresh) \ argument 63 NEEDS_FILTER(p1, p0, q0, q1, thresh, q9) /* filter mask in q9 */ \ 65 FLIP_SIGN_BIT4(p1, p0, q0, q1, q10) /* convert to signed value */ \ 66 GET_BASE_DELTA(p1, p0, q0, q1, q11) /* get filter level */ \ 104 DO_FILTER2(q1, q2, q3, q4, %[thresh]) in SimpleVFilter16NEON() 128 DO_FILTER2(q1, q2, q3, q4, %[thresh]) in SimpleHFilter16NEON()
|
/external/libvpx/vp8/common/arm/neon/ |
D | loopfiltersimpleverticaledge_neon.asm | 57 ;vswp q4, q5 ; p1:q3, p0:q5, q0:q4, q1:q6 63 vabd.u8 q14, q3, q6 ; abs(p1 - q1) 65 vshr.u8 q14, q14, #1 ; abs(p1 - q1) / 2 66 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 71 veor q6, q6, q0 ; qs1: q1 offset to convert to a signed value 73 vadd.u8 q1, q1, q1 ; flimit * 2 74 vadd.u8 q1, q1, q13 ; flimit * 2 + limit 75 vcge.u8 q15, q1, q15 ; abs(p0 - q0)*2 + abs(p1-q1)/2 > flimit*2 + limit)*-1 83 vqsub.s8 q1, q3, q6 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1) 91 ;vqadd.s8 q1, q1, q2 [all …]
|
D | loopfiltersimplehorizontaledge_neon.asm | 39 vld1.u8 {q8}, [r0] ; q1 43 vabd.u8 q14, q5, q8 ; abs(p1 - q1) 45 vshr.u8 q14, q14, #1 ; abs(p1 - q1) / 2 46 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 52 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 54 vadd.u8 q1, q1, q1 ; flimit * 2 55 vadd.u8 q1, q1, q13 ; flimit * 2 + limit 56 vcge.u8 q15, q1, q15 ; (abs(p0 - q0)*2 + abs(p1-q1)/2 > flimit*2 + limit)*-1
|
D | loopfilter_neon.asm | 48 vld1.u8 {q8}, [r2], r1 ; q1 87 vld1.u8 {d16}, [r3], r1 ; q1 99 vld1.u8 {d17}, [r12], r1 ; q1 300 ; q1 limit 307 ; q8 q1 317 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 318 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 329 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 333 vadd.u8 q0, q0, q1 ; flimit * 2 + limit 334 vcge.u8 q15, q1, q15 [all …]
|
D | iwalsh_neon.asm | 23 vldm.64 r0, {q0, q1} 61 vadd.i16 q1, q1, q2 ;g/h += 3 64 vshr.s16 q1, q1, #3 ;g/h >> 3 72 vstmia.16 r1!, {q1} 83 vdup.16 q1, d0[0] 86 vadd.i16 q3, q1, q2
|
D | buildintrapredictorsmby_neon.asm | 59 vld1.8 {q1}, [r6] 60 vpaddl.u8 q2, q1 179 vdup.u8 q1, r4 183 vst1.u8 {q1}, [r1]! 192 vdup.u8 q1, r4 196 vst1.u8 {q1}, [r1]! 206 vdup.u8 q1, r4 210 vst1.u8 {q1}, [r1]! 219 vdup.u8 q1, r4 223 vst1.u8 {q1}, [r1]! [all …]
|
D | recon16x16mb_neon.asm | 36 vmovl.u8 q1, d25 51 vadd.s16 q1, q1, q9 60 vqmovun.s16 d1, q1 67 vst1.u8 {q1}, [r2], r3 87 vmovl.u8 q1, d25 98 vadd.s16 q1, q1, q9 107 vqmovun.s16 d1, q1
|
/external/fdlibm/ |
D | e_sqrt.c | 100 unsigned r,t1,s1,ix1,q1; local 140 q = q1 = s0 = s1 = 0; /* [q,q1] = ieee_sqrt(x) */ 165 q1 += r; 177 if (q1==(unsigned)0xffffffff) { q1=0; q += 1;} 179 if (q1==(unsigned)0xfffffffe) q+=1; 180 q1+=2; 182 q1 += (q1&1); 186 ix1 = q1>>1;
|
/external/libvpx/vp8/common/x86/ |
D | loopfilter_mmx.asm | 59 movq mm4, [rsi+rax] ; q1 60 movq mm3, mm4 ; q1 61 psubusb mm4, mm6 ; q1-=q2 62 psubusb mm6, mm3 ; q2-=q1 63 por mm4, mm6 ; abs(q2-q1) 70 psubusb mm4, mm3 ; q0-=q1 71 psubusb mm3, mm0 ; q1-=q0 72 por mm4, mm3 ; abs(q0-q1) 109 movq mm3, [rdi] ; q1 110 movq mm4, mm3 ; q1 [all …]
|
D | loopfilter_sse2.asm | 21 movdqa xmm4, [rsi+rax] ; q1 27 movlps xmm4, [rsi] ; q1 39 movdqa XMMWORD PTR [rsp + 16], xmm4 ; store q1 43 movdqa xmm3, xmm4 ; q1 48 psubusb xmm4, xmm6 ; q1-=q2 49 psubusb xmm6, xmm3 ; q2-=q1 51 por xmm4, xmm6 ; abs(q2-q1) 57 psubusb xmm5, xmm3 ; q0-=q1 58 psubusb xmm3, xmm0 ; q1-=q0 60 por xmm5, xmm3 ; abs(q0-q1) [all …]
|
/external/qemu/distrib/sdl-1.2.15/src/video/ |
D | e_sqrt.h | 146 u_int32_t r,t1,s1,ix1,q1; local 184 q = q1 = s0 = s1 = 0; /* [q,q1] = sqrt(x) */ 209 q1 += r; 221 if (q1==(u_int32_t)0xffffffff) { q1=0; q += 1;} 223 if (q1==(u_int32_t)0xfffffffe) q+=1; 224 q1+=2; 226 q1 += (q1&1); 230 ix1 = q1>>1;
|
/external/v8/test/mjsunit/ |
D | indexed-accessors.js | 91 var q1 = {}; variable 92 q1.__defineSetter__('0', function() {q1.b = 17;}); 93 assertEquals(q1[0], undefined); 95 q1[0] = 3; 96 assertEquals(q1[0], undefined); 97 assertEquals(q1.b, 17);
|
/external/libvpx/vp8/encoder/arm/neon/ |
D | vp8_subpixelvariance16x16s_neon.asm | 55 vext.8 q1, q0, q1, #1 ;construct src_ptr[1] 60 vrhadd.u8 q0, q0, q1 ;(src_ptr[0]+src_ptr[1])/round/shift right 1 62 vrhadd.u8 q1, q2, q3 71 vsubl.u8 q1, d5, d27 94 vpadal.s16 q8, q1 109 vpaddl.u32 q1, q10 146 vld1.8 {q1}, [r2], r3 164 vsubl.u8 q1, d9, d11 187 vpadal.s16 q8, q1 205 vpaddl.u32 q1, q10 [all …]
|
D | sad16_neon.asm | 30 vld1.8 {q1}, [r0], r1 55 vld1.8 {q1}, [r0], r1 80 vld1.8 {q1}, [r0], r1 105 vld1.8 {q1}, [r0], r1 128 vpaddl.u16 q1, q0 129 vpaddl.u32 q0, q1 149 vld1.8 {q1}, [r0], r1 173 vld1.8 {q1}, [r0], r1 196 vpaddl.u16 q1, q0 197 vpaddl.u32 q0, q1
|
/external/llvm/test/MC/ARM/ |
D | neont2-minmax-encoding.s | 21 vmax.s8 q1, q2, q3 27 vmax.f32 q9, q5, q1 35 vmax.f32 q2, q1 51 @ CHECK: vmax.s8 q1, q2, q3 @ encoding: [0x04,0xef,0x46,0x26] 57 @ CHECK: vmax.f32 q9, q5, q1 @ encoding: [0x4a,0xef,0x42,0x2f] 64 @ CHECK: vmax.f32 q2, q2, q1 @ encoding: [0x04,0xef,0x42,0x4f] 83 vmin.s8 q1, q2, q3 89 vmin.f32 q9, q5, q1 97 vmin.f32 q2, q1 113 @ CHECK: vmin.s8 q1, q2, q3 @ encoding: [0x04,0xef,0x56,0x26] [all …]
|
D | neon-minmax-encoding.s | 19 vmax.s8 q1, q2, q3 25 vmax.f32 q9, q5, q1 33 vmax.f32 q2, q1 49 @ CHECK: vmax.s8 q1, q2, q3 @ encoding: [0x46,0x26,0x04,0xf2] 55 @ CHECK: vmax.f32 q9, q5, q1 @ encoding: [0x42,0x2f,0x4a,0xf2] 62 @ CHECK: vmax.f32 q2, q2, q1 @ encoding: [0x42,0x4f,0x04,0xf2] 81 vmin.s8 q1, q2, q3 87 vmin.f32 q9, q5, q1 95 vmin.f32 q2, q1 111 @ CHECK: vmin.s8 q1, q2, q3 @ encoding: [0x56,0x26,0x04,0xf2] [all …]
|
/external/libvpx/vp8/common/ |
D | loopfilter_filters.c | 28 uc p3, uc p2, uc p1, uc p0, uc q0, uc q1, uc q2, uc q3) in vp8_filter_mask() argument 34 mask |= (abs(q1 - q0) > limit) * -1; in vp8_filter_mask() 35 mask |= (abs(q2 - q1) > limit) * -1; in vp8_filter_mask() 37 mask |= (abs(p0 - q0) * 2 + abs(p1 - q1) / 2 > flimit * 2 + limit) * -1; in vp8_filter_mask() 43 static __inline signed char vp8_hevmask(signed char thresh, uc p1, uc p0, uc q0, uc q1) in vp8_hevmask() argument 47 hev |= (abs(q1 - q0) > thresh) * -1; in vp8_hevmask() 281 …gned char vp8_simple_filter_mask(signed char limit, signed char flimit, uc p1, uc p0, uc q0, uc q1) in vp8_simple_filter_mask() argument 287 signed char mask = (abs(p0 - q0) * 2 + abs(p1 - q1) / 2 <= flimit * 2 + limit) * -1; in vp8_simple_filter_mask() 297 signed char q1 = (signed char) * oq1 ^ 0x80; in vp8_simple_filter() local 300 vp8_filter = vp8_signed_char_clamp(p1 - q1); in vp8_simple_filter()
|