/external/llvm/test/MC/ARM/ |
D | thumb-neon-crypto.s | 3 aesd.8 q0, q1 4 @ CHECK: aesd.8 q0, q1 @ encoding: [0xb0,0xff,0x42,0x03] 5 aese.8 q0, q1 6 @ CHECK: aese.8 q0, q1 @ encoding: [0xb0,0xff,0x02,0x03] 7 aesimc.8 q0, q1 8 @ CHECK: aesimc.8 q0, q1 @ encoding: [0xb0,0xff,0xc2,0x03] 9 aesmc.8 q0, q1 10 @ CHECK: aesmc.8 q0, q1 @ encoding: [0xb0,0xff,0x82,0x03] 12 sha1h.32 q0, q1 13 @ CHECK: sha1h.32 q0, q1 @ encoding: [0xb9,0xff,0xc2,0x02] [all …]
|
D | neon-crypto.s | 4 aesd.8 q0, q1 5 aese.8 q0, q1 6 aesimc.8 q0, q1 7 aesmc.8 q0, q1 8 @ CHECK: aesd.8 q0, q1 @ encoding: [0x42,0x03,0xb0,0xf3] 9 @ CHECK: aese.8 q0, q1 @ encoding: [0x02,0x03,0xb0,0xf3] 10 @ CHECK: aesimc.8 q0, q1 @ encoding: [0xc2,0x03,0xb0,0xf3] 11 @ CHECK: aesmc.8 q0, q1 @ encoding: [0x82,0x03,0xb0,0xf3] 17 sha1h.32 q0, q1 18 sha1su1.32 q0, q1 [all …]
|
D | fullfp16-neon.s | 5 vadd.f16 q0, q1, q2 7 @ ARM: vadd.f16 q0, q1, q2 @ encoding: [0x44,0x0d,0x12,0xf2] 9 @ THUMB: vadd.f16 q0, q1, q2 @ encoding: [0x12,0xef,0x44,0x0d] 12 vsub.f16 q0, q1, q2 14 @ ARM: vsub.f16 q0, q1, q2 @ encoding: [0x44,0x0d,0x32,0xf2] 16 @ THUMB: vsub.f16 q0, q1, q2 @ encoding: [0x32,0xef,0x44,0x0d] 19 vmul.f16 q0, q1, q2 21 @ ARM: vmul.f16 q0, q1, q2 @ encoding: [0x54,0x0d,0x12,0xf3] 23 @ THUMB: vmul.f16 q0, q1, q2 @ encoding: [0x12,0xff,0x54,0x0d] 33 vmla.f16 q0, q1, q2 [all …]
|
D | directive-arch_extension-crypto.s | 22 aesd.8 q0, q1 24 aese.8 q0, q1 26 aesimc.8 q0, q1 28 aesmc.8 q0, q1 31 sha1h.32 q0, q1 33 sha1su1.32 q0, q1 35 sha256su0.32 q0, q1 38 sha1c.32 q0, q1, q2 40 sha1m.32 q0, q1, q2 42 sha1p.32 q0, q1, q2 [all …]
|
D | fullfp16-neon-neg.s | 7 vadd.f16 q0, q1, q2 12 vsub.f16 q0, q1, q2 17 vmul.f16 q0, q1, q2 27 vmla.f16 q0, q1, q2 37 vmls.f16 q0, q1, q2 47 vfma.f16 q0, q1, q2 52 vfms.f16 q0, q1, q2 107 vacge.f16 q0, q1, q2 112 vacgt.f16 q0, q1, q2 117 vacle.f16 q0, q1, q2 [all …]
|
/external/valgrind/none/tests/arm/ |
D | neon128.c | 356 TESTINSN_imm("vmov.i16 q1", q1, 0x7); in main() 370 TESTINSN_imm("vmvn.i16 q1", q1, 0x7); in main() 397 TESTINSN_un("vmvn q0, q1", q0, q1, i32, 24); in main() 402 TESTINSN_un("vmov q0, q1", q0, q1, i32, 24); in main() 407 TESTINSN_un("vmov q0, q1", q0, q1, i8, 7); in main() 412 TESTINSN_bin("vadd.i32 q0, q1, q2", q0, q1, i32, 24, q2, i32, 120); in main() 413 TESTINSN_bin("vadd.i64 q0, q1, q2", q0, q1, i32, 140, q2, i32, 120); in main() 414 TESTINSN_bin("vadd.i32 q0, q1, q2", q0, q1, i32, 140, q2, i32, 120); in main() 415 TESTINSN_bin("vadd.i16 q0, q1, q2", q0, q1, i32, 140, q2, i32, 120); in main() 416 TESTINSN_bin("vadd.i8 q0, q1, q2", q0, q1, i32, 140, q2, i32, 120); in main() [all …]
|
/external/eigen/test/ |
D | geo_quaternion.cpp | 24 template<typename QuatType> void check_slerp(const QuatType& q0, const QuatType& q1) in check_slerp() argument 32 Scalar theta_tot = AA(q1*q0.inverse()).angle(); in check_slerp() 37 QuatType q = q0.slerp(t,q1); in check_slerp() 71 Quaternionx q1, q2; in quaternion() local 74 q1.coeffs().setRandom(); in quaternion() 75 VERIFY_IS_APPROX(q1.coeffs(), (q1*q2).coeffs()); in quaternion() 78 q1 *= q2; in quaternion() 80 q1 = AngleAxisx(a, v0.normalized()); in quaternion() 84 Scalar refangle = abs(AngleAxisx(q1.inverse()*q2).angle()); in quaternion() 88 if((q1.coeffs()-q2.coeffs()).norm() > 10*largeEps) in quaternion() [all …]
|
/external/libgdx/extensions/gdx-bullet/jni/src/bullet/BulletDynamics/MLCPSolvers/ |
D | btDantzigLCP.cpp | 151 btScalar Z11,m11,Z21,m21,p1,q1,p2,*ex; in btSolveL1_1() local 166 q1=ex[0]; in btSolveL1_1() 167 m11 = p1 * q1; in btSolveL1_1() 169 m21 = p2 * q1; in btSolveL1_1() 174 q1=ex[1]; in btSolveL1_1() 175 m11 = p1 * q1; in btSolveL1_1() 177 m21 = p2 * q1; in btSolveL1_1() 190 q1=ex[0]; in btSolveL1_1() 191 m11 = p1 * q1; in btSolveL1_1() 193 m21 = p2 * q1; in btSolveL1_1() [all …]
|
/external/boringssl/linux-arm/crypto/aes/ |
D | aesv8-armx32.S | 39 vld1.32 {q1,q2},[r3]! 58 veor q10,q10,q1 60 vshl.u8 q1,q1,#1 64 vld1.32 {q1},[r3] 76 veor q10,q10,q1 78 vshl.u8 q1,q1,#1 91 veor q10,q10,q1 123 veor q10,q10,q1 125 vshl.u8 q1,q1,#1 155 veor q10,q10,q1 [all …]
|
/external/eigen/test/eigen2/ |
D | eigen2_geometry_with_eigen2_prefix.cpp | 59 Quaternionx q1, q2; in geometry() local 62 q1.coeffs().setRandom(); in geometry() 63 VERIFY_IS_APPROX(q1.coeffs(), (q1*q2).coeffs()); in geometry() 79 q1 = AngleAxisx(a, v0.normalized()); in geometry() 83 Scalar refangle = ei_abs(AngleAxisx(q1.inverse()*q2).angle()); in geometry() 87 if((q1.coeffs()-q2.coeffs()).norm() > 10*largeEps) in geometry() 89 VERIFY(ei_isApprox(q1.angularDistance(q2), refangle, largeEps)); in geometry() 93 VERIFY_IS_APPROX(q1 * v2, q1.toRotationMatrix() * v2); in geometry() 94 VERIFY_IS_APPROX(q1 * q2 * v2, in geometry() 95 q1.toRotationMatrix() * q2.toRotationMatrix() * v2); in geometry() [all …]
|
D | eigen2_geometry.cpp | 57 Quaternionx q1, q2; in geometry() local 60 q1.coeffs().setRandom(); in geometry() 61 VERIFY_IS_APPROX(q1.coeffs(), (q1*q2).coeffs()); in geometry() 77 q1 = AngleAxisx(a, v0.normalized()); in geometry() 81 Scalar refangle = ei_abs(AngleAxisx(q1.inverse()*q2).angle()); in geometry() 85 if((q1.coeffs()-q2.coeffs()).norm() > 10*largeEps) in geometry() 87 VERIFY(ei_isApprox(q1.angularDistance(q2), refangle, largeEps)); in geometry() 91 VERIFY_IS_APPROX(q1 * v2, q1.toRotationMatrix() * v2); in geometry() 92 VERIFY_IS_APPROX(q1 * q2 * v2, in geometry() 93 q1.toRotationMatrix() * q2.toRotationMatrix() * v2); in geometry() [all …]
|
/external/opencv3/3rdparty/libwebp/dsp/ |
D | dec_sse2.c | 281 #define GET_NOTHEV(p1, p0, q0, q1, hev_thresh, not_hev) { \ argument 284 const __m128i t_2 = MM_ABS(q1, q0); \ 294 #define GET_BASE_DELTA(p1, p0, q0, q1, o) { \ argument 296 o = _mm_subs_epi8(p1, q1); /* p1 - q1 */ \ 329 const __m128i* q1, int thresh, __m128i *mask) { in NeedsFilter() argument 330 __m128i t1 = MM_ABS(*p1, *q1); // abs(p1 - q1) in NeedsFilter() 349 const __m128i* q1, int thresh) { in DoFilter2() argument 353 const __m128i q1s = _mm_xor_si128(*q1, sign_bit); in DoFilter2() 355 NeedsFilter(p1, p0, q0, q1, thresh, &mask); in DoFilter2() 370 __m128i* q0, __m128i* q1, in DoFilter4() argument [all …]
|
/external/llvm/test/MC/Disassembler/ARM/ |
D | neon-crypto.txt | 4 # CHECK: aesd.8 q0, q1 6 # CHECK: aese.8 q0, q1 8 # CHECK: aesimc.8 q0, q1 10 # CHECK: aesmc.8 q0, q1 13 # CHECK: sha1h.32 q0, q1 15 # CHECK: sha1su1.32 q0, q1 17 # CHECK: sha256su0.32 q0, q1 20 # CHECK: sha1c.32 q0, q1, q2 22 # CHECK: sha1m.32 q0, q1, q2 24 # CHECK: sha1p.32 q0, q1, q2 [all …]
|
D | thumb-neon-crypto.txt | 4 # CHECK: aesd.8 q0, q1 6 # CHECK: aese.8 q0, q1 8 # CHECK: aesimc.8 q0, q1 10 # CHECK: aesmc.8 q0, q1 13 # CHECK: sha1h.32 q0, q1 15 # CHECK: sha1su1.32 q0, q1 17 # CHECK: sha256su0.32 q0, q1 20 # CHECK: sha1c.32 q0, q1, q2 22 # CHECK: sha1m.32 q0, q1, q2 24 # CHECK: sha1p.32 q0, q1, q2 [all …]
|
D | fullfp16-neon-arm.txt | 5 # CHECK: vadd.f16 q0, q1, q2 10 # CHECK: vsub.f16 q0, q1, q2 15 # CHECK: vmul.f16 q0, q1, q2 25 # CHECK: vmla.f16 q0, q1, q2 35 # CHECK: vmls.f16 q0, q1, q2 45 # CHECK: vfma.f16 q0, q1, q2 50 # CHECK: vfms.f16 q0, q1, q2 95 # CHECK: vacge.f16 q0, q1, q2 100 # CHECK: vacgt.f16 q0, q1, q2 105 # CHECK: vabd.f16 q0, q1, q2 [all …]
|
D | fullfp16-neon-thumb.txt | 5 # CHECK: vadd.f16 q0, q1, q2 10 # CHECK: vsub.f16 q0, q1, q2 15 # CHECK: vmul.f16 q0, q1, q2 25 # CHECK: vmla.f16 q0, q1, q2 35 # CHECK: vmls.f16 q0, q1, q2 45 # CHECK: vfma.f16 q0, q1, q2 50 # CHECK: vfms.f16 q0, q1, q2 95 # CHECK: vacge.f16 q0, q1, q2 100 # CHECK: vacgt.f16 q0, q1, q2 105 # CHECK: vabd.f16 q0, q1, q2 [all …]
|
/external/v8/src/base/ |
D | division-by-constant.cc | 33 T q1 = min / anc; // Init. q1 = 2**p/|nc|. in SignedDivisionByConstant() local 34 T r1 = min - q1 * anc; // Init. r1 = rem(2**p, |nc|). in SignedDivisionByConstant() 40 q1 = 2 * q1; // Update q1 = 2**p/|nc|. in SignedDivisionByConstant() 43 q1 = q1 + 1; in SignedDivisionByConstant() 53 } while (q1 < delta || (q1 == delta && r1 == 0)); in SignedDivisionByConstant() 71 T q1 = min / nc; // Init. q1 = 2**p/nc in UnsignedDivisionByConstant() local 72 T r1 = min - q1 * nc; // Init. r1 = rem(2**p,nc) in UnsignedDivisionByConstant() 79 q1 = 2 * q1 + 1; in UnsignedDivisionByConstant() 82 q1 = 2 * q1; in UnsignedDivisionByConstant() 95 } while (p < bits * 2 && (q1 < delta || (q1 == delta && r1 == 0))); in UnsignedDivisionByConstant()
|
/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/libvpx/libvpx/vpx_dsp/ |
D | loopfilter.c | 39 uint8_t q0, uint8_t q1, in filter_mask() argument 45 mask |= (abs(q1 - q0) > limit) * -1; in filter_mask() 46 mask |= (abs(q2 - q1) > limit) * -1; in filter_mask() 48 mask |= (abs(p0 - q0) * 2 + abs(p1 - q1) / 2 > blimit) * -1; in filter_mask() 55 uint8_t q0, uint8_t q1, in flat_mask4() argument 59 mask |= (abs(q1 - q0) > thresh) * -1; in flat_mask4() 71 uint8_t q1, uint8_t q2, in flat_mask5() argument 73 int8_t mask = ~flat_mask4(thresh, p3, p2, p1, p0, q0, q1, q2, q3); in flat_mask5() 81 uint8_t q0, uint8_t q1) { in hev_mask() argument 84 hev |= (abs(q1 - q0) > thresh) * -1; in hev_mask() [all …]
|
/external/libvpx/libvpx/vpx_dsp/mips/ |
D | loopfilter_4_msa.c | 20 v16u8 p3, p2, p1, p0, q3, q2, q1, q0, p1_out, p0_out, q0_out, q1_out; in vpx_lpf_horizontal_4_msa() local 25 LD_UB8((src - 4 * pitch), pitch, p3, p2, p1, p0, q0, q1, q2, q3); in vpx_lpf_horizontal_4_msa() 31 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in vpx_lpf_horizontal_4_msa() 33 VP9_LPF_FILTER4_8W(p1, p0, q0, q1, mask, hev, p1_out, p0_out, q0_out, q1_out); in vpx_lpf_horizontal_4_msa() 50 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in vpx_lpf_horizontal_4_dual_msa() local 53 LD_UB8((src - 4 * pitch), pitch, p3, p2, p1, p0, q0, q1, q2, q3); in vpx_lpf_horizontal_4_dual_msa() 67 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit0, b_limit0, thresh0, in vpx_lpf_horizontal_4_dual_msa() 69 VP9_LPF_FILTER4_4W(p1, p0, q0, q1, mask, hev, p1, p0, q0, q1); in vpx_lpf_horizontal_4_dual_msa() 71 ST_UB4(p1, p0, q0, q1, (src - 2 * pitch), pitch); in vpx_lpf_horizontal_4_dual_msa() 80 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in vpx_lpf_vertical_4_msa() local [all …]
|
/external/apache-commons-math/src/main/java/org/apache/commons/math/geometry/ |
D | Rotation.java | 107 private final double q1; field in Rotation 133 public Rotation(double q0, double q1, double q2, double q3, in Rotation() argument 138 double inv = 1.0 / FastMath.sqrt(q0 * q0 + q1 * q1 + q2 * q2 + q3 * q3); in Rotation() 140 q1 *= inv; in Rotation() 146 this.q1 = q1; in Rotation() 184 q1 = coeff * axis.getX(); in Rotation() 260 q1 = inv * (ort[1][2] - ort[2][1]); in Rotation() 267 q1 = 0.5 * FastMath.sqrt(s + 1.0); in Rotation() 268 double inv = 0.25 / q1; in Rotation() 279 q1 = inv * (ort[0][1] + ort[1][0]); in Rotation() [all …]
|
/external/libvpx/libvpx/vpx_dsp/x86/ |
D | loopfilter_mmx.asm | 59 movq mm4, [rsi+rax] ; q1 60 movq mm3, mm4 ; q1 61 psubusb mm4, mm6 ; q1-=q2 62 psubusb mm6, mm3 ; q2-=q1 63 por mm4, mm6 ; abs(q2-q1) 70 psubusb mm4, mm3 ; q0-=q1 71 psubusb mm3, mm0 ; q1-=q0 72 por mm4, mm3 ; abs(q0-q1) 109 movq mm3, [rdi] ; q1 110 movq mm4, mm3 ; q1 [all …]
|
/external/libavc/common/arm/ |
D | ih264_deblk_luma_a9.s | 108 vld1.8 {q1}, [r0], r1 @q1 values are loaded into q1 111 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0) 123 vcge.u8 q12, q12, q8 @Q12=( ABS(q1 - q0) >= Beta ) 128 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) 131 …vorr q9, q9, q13 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | (… 132 vsubl.u8 q14, d8, d2 @Q14 = (p1 - q1)L 135 vsubl.u8 q15, d9, d3 @Q15 = (p1 - q1)H 138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1) 142 vqrshrn.s16 d25, q13, #3 @Q12 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3 158 vshll.u8 q13, d3, #1 @Q13,Q8 = (q1<<1) [all …]
|
/external/libvpx/libvpx/vp8/common/x86/ |
D | vp8_loopfilter_mmx.asm | 59 movq mm4, [rsi+rax] ; q1 60 movq mm3, mm4 ; q1 61 psubusb mm4, mm6 ; q1-=q2 62 psubusb mm6, mm3 ; q2-=q1 63 por mm4, mm6 ; abs(q2-q1) 70 psubusb mm4, mm3 ; q0-=q1 71 psubusb mm3, mm0 ; q1-=q0 72 por mm4, mm3 ; abs(q0-q1) 109 movq mm3, [rdi] ; q1 110 movq mm4, mm3 ; q1 [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 62 vld1.u8 {q8}, [r3@64], r1 ; q1 88 ; q1 limit 95 ; q8 q1 110 vabd.u8 q14, q8, q7 ; m4 = abs(q1 - q0) 111 vabd.u8 q3, q9, q8 ; m5 = abs(q2 - q1) 127 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 130 vabd.u8 q2, q5, q8 ; a = abs(p1 - q1) 135 vcge.u8 q15, q1, q15 ; abs(m11) > limit 152 vqsub.s8 q1, q5, q8 ; filter = clamp(ps1-qs1) 158 vand q1, q1, q14 ; filter &= hev [all …]
|