/external/llvm/test/CodeGen/ARM/ |
D | cttz_vector.ll | 68 ; CHECK: vneg.s8 [[Q3:q[0-9]+]], [[Q1:q[0-9]+]] 69 ; CHECK: vand [[Q1]], [[Q1]], [[Q3]] 70 ; CHECK: vsub.i8 [[Q1]], [[Q1]], [[Q2]] 71 ; CHECK: vcnt.8 [[Q1]], [[Q1]] 115 ; CHECK: vneg.s16 [[Q3:q[0-9]+]], [[Q1:q[0-9]+]] 116 ; CHECK: vand [[Q1]], [[Q1]], [[Q3]] 117 ; CHECK: vsub.i16 [[Q1]], [[Q1]], [[Q2]] 118 ; CHECK: vcnt.8 [[Q1]], [[Q1]] 119 ; CHECK: vpaddl.u8 [[Q1]], [[Q1]] 156 ; CHECK: vneg.s32 [[Q3:q[0-9]+]], [[Q1:q[0-9]+]] [all …]
|
/external/opencv/cvaux/src/ |
D | cvmorphcontours.cpp | 108 CvPoint2D32f Q0, Q1, Q2; in _cvBendingWork() local 244 Q1.x = 0.5f*( (F1->x * (-B0->x) + F1->y * (-B0->y)) + (F0->x * (-B1->x) + F0->y * (-B1->y)) ); in _cvBendingWork() 245 Q1.y = 0.5f*( (F1->x * (-B0->y) - F1->y * (-B0->x)) + (F0->x * (-B1->y) - F0->y * (-B1->x)) ); in _cvBendingWork() 250 d0 = Q0.x * Q1.y - Q0.y * Q1.x; in _cvBendingWork() 252 d2 = Q1.x * Q2.y - Q1.y * Q2.x; in _cvBendingWork() 255 des = Q1.y*Q1.y - Q0.y*Q2.y; in _cvBendingWork() 261 t_zero = ( Q0.y - Q1.y + sqrt(des) )/( Q0.y - 2*Q1.y + Q2.y ); in _cvBendingWork() 263 if( (0 < t_zero) && (t_zero < 1) && ( Q(Q0, Q1, Q2, t_zero).x > 0 ) ) in _cvBendingWork() 268 t_zero = ( Q0.y - Q1.y - sqrt(des) )/( Q0.y - 2*Q1.y + Q2.y ); in _cvBendingWork() 270 if( (0 < t_zero) && (t_zero < 1) && ( Q(Q0, Q1, Q2, t_zero).x > 0 ) ) in _cvBendingWork() [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-alloc-no-stack-realign.ll | 11 ; CHECK: stp [[Q1:q[0-9]+]], [[Q2:q[0-9]+]], [sp, #32] 12 ; CHECK: stp [[Q1:q[0-9]+]], [[Q2:q[0-9]+]], [sp] 13 ; CHECK: stp [[Q1:q[0-9]+]], [[Q2:q[0-9]+]], {{\[}}[[BASE:x[0-9]+]], #32] 14 ; CHECK: stp [[Q1:q[0-9]+]], [[Q2:q[0-9]+]], {{\[}}[[BASE]]]
|
/external/clang/test/PCH/ |
D | designated-init.c.h | 45 struct Q1 { struct 52 (struct Q1){ "foo", "bar" }, 57 extern struct Q1 *foo();
|
/external/clang/test/CodeGen/ |
D | partial-reinitialization1.c | 4 struct Q1 { struct 12 (struct Q1){ "foo", "bar" }, 19 (struct Q1){ "foo", "bar" },
|
/external/clang/test/CodeGenCXX/ |
D | copy-assign-synthesis.cpp | 44 Q() : Q1(30), Q2(31) {} in Q() 45 int Q1; member 48 printf("Q1 = %d Q2 = %d\n", Q1, Q2); in pr()
|
D | copy-assign-synthesis-1.cpp | 59 Q() : Q1(30), Q2(31) {} in Q() 60 int Q1; member 63 printf("Q1 = %d Q2 = %d\n", Q1, Q2); in pr()
|
/external/llvm/lib/Target/AArch64/ |
D | AArch64CallingConvention.td | 65 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 67 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 69 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 72 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 74 CCAssignToReg<[Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 101 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 103 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 105 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 108 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 110 CCAssignToReg<[Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>> [all …]
|
/external/ceres-solver/internal/ceres/ |
D | conjugate_gradients_solver.cc | 185 const double Q1 = -1.0 * xref.dot(bref + r); in Solve() local 209 const double zeta = summary.num_iterations * (Q1 - Q0) / Q1; in Solve() 218 Q0 = Q1; in Solve()
|
/external/llvm/lib/Target/ARM/ |
D | ARMCallingConv.td | 63 CCIfType<[v2f64], CCAssignToReg<[Q0, Q1, Q2, Q3]>>, 70 CCIfType<[f32], CCAssignToStackWithShadow<4, 4, [Q0, Q1, Q2, Q3]>>, 71 CCIfType<[f64], CCAssignToStackWithShadow<8, 4, [Q0, Q1, Q2, Q3]>>, 72 CCIfType<[v2f64], CCAssignToStackWithShadow<16, 4, [Q0, Q1, Q2, Q3]>>, 82 CCIfType<[v2f64], CCAssignToReg<[Q0, Q1, Q2, Q3]>>, 126 CCIfType<[f32], CCAssignToStackWithShadow<4, 4, [Q0, Q1, Q2, Q3]>>, 127 CCIfType<[f64], CCAssignToStackWithShadow<8, 8, [Q0, Q1, Q2, Q3]>>, 129 CCAssignToStackWithShadow<16, 16, [Q0, Q1, Q2, Q3]>>>, 130 CCIfType<[v2f64], CCAssignToStackWithShadow<16, 8, [Q0, Q1, Q2, Q3]>> 185 CCIfType<[v2f64], CCAssignToReg<[Q0, Q1, Q2, Q3]>>, [all …]
|
/external/llvm/test/Transforms/BBVectorize/X86/ |
D | simple.ll | 35 %Q1 = fadd double %W1, %V1 37 %S1 = fadd double %W1, %Q1 51 ; CHECK: %Q1 = fadd <2 x double> %W1, %V1 52 ; CHECK: %S1 = fadd <2 x double> %W1, %Q1 112 …%Q1 = shufflevector <8 x i8> %Z1, <8 x i8> %Z2, <8 x i32> <i32 15, i32 8, i32 6, i32 1, i32 13, i3… 114 %R = mul <8 x i8> %Q1, %Q2
|
/external/llvm/test/Transforms/BBVectorize/ |
D | simple.ll | 140 …%Q1 = shufflevector <8 x i8> %Z1, <8 x i8> %Z2, <8 x i32> <i32 15, i32 8, i32 6, i32 1, i32 13, i3… 142 ; CHECK: %Q1.v.i1 = shufflevector <16 x i8> %Z1, <16 x i8> undef, <16 x i32> <i32 8, i32 undef, i32… 143 ; CHECK: %Q1 = shufflevector <16 x i8> %Z1, <16 x i8> %Q1.v.i1, <16 x i32> <i32 23, i32 16, i32 6, … 144 %R = mul <8 x i8> %Q1, %Q2 145 ; CHECK: %Q1.v.r1 = shufflevector <16 x i8> %Q1, <16 x i8> undef, <8 x i32> <i32 0, i32 1, i32 2, i… 146 ; CHECK: %Q1.v.r2 = shufflevector <16 x i8> %Q1, <16 x i8> undef, <8 x i32> <i32 8, i32 9, i32 10, … 147 ; CHECK: %R = mul <8 x i8> %Q1.v.r1, %Q1.v.r2
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class1.s | 106 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 182 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 193 …VMAX.S16 Q4,Q4,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 205 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 208 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 239 …VMAX.S16 Q13,Q13,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 245 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 319 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 326 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 357 …VMAX.S16 Q13,Q13,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
|
D | ihevc_sao_edge_offset_class1_chroma.s | 110 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 189 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 201 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 218 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 221 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 257 …VMAX.S16 Q13,Q13,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 263 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 344 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 357 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 393 …VMAX.S16 Q13,Q13,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
|
D | ihevc_sao_edge_offset_class2.s | 185 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 313 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[… 322 …VMAX.S16 Q11,Q11,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… 407 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 413 …VMAX.S16 Q10,Q10,Q1 @III pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.va… 420 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 431 …VMAX.S16 Q9,Q9,Q1 @III pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.va… 487 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 493 …VMAX.S16 Q6,Q6,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 624 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… [all …]
|
D | ihevc_sao_edge_offset_class3.s | 197 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 328 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[… 335 …VMAX.S16 Q11,Q11,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… 429 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 440 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 447 …VMAX.S16 Q10,Q10,Q1 @III pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.va… 456 …VMAX.S16 Q11,Q11,Q1 @III pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.va… 522 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 527 …VMAX.S16 Q11,Q11,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 665 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 267 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 429 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[… 433 …VMAX.S16 Q9,Q9,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… 543 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 561 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 573 …VMAX.S16 Q10,Q10,Q1 @III pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.va… 579 …VMAX.S16 Q9,Q9,Q1 @III pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.va… 648 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 652 …VMAX.S16 Q9,Q9,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 801 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… [all …]
|
D | ihevc_sao_edge_offset_class3_chroma.s | 276 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 418 …VMAX.S16 Q10,Q10,Q1 @I pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[… 425 …VMAX.S16 Q9,Q9,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… 550 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 556 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 568 …VMAX.S16 Q10,Q10,Q1 @III pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.va… 576 …VMAX.S16 Q9,Q9,Q1 @III pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.va… 650 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 654 …VMAX.S16 Q9,Q9,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 826 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 82 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2) 200 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 215 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 362 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 378 VADD.U8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
|
D | ihevc_sao_edge_offset_class0.s | 78 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2) 195 VADD.I8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 213 VADD.I8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 309 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
|
/external/fdlibm/ |
D | s_expm1.c | 123 Q1 = -3.33333333333331316428e-02, /* BFA11111 111110F4 */ variable 187 r1 = one+hxs*(Q1+hxs*(Q2+hxs*(Q3+hxs*(Q4+hxs*Q5))));
|
/external/icu/icu4c/source/data/locales/ |
D | es_DO.txt | 81 "Q1", 89 "Q1",
|
D | lrc.txt | 184 "Q1", 196 "Q1",
|
/external/libavc/common/arm/ |
D | ih264_iquant_itrans_recon_a9.s | 148 vmull.s16 q1, d17, d21 @ Q1 = p[i] = (x[i] * trns_coeff[i]) where i = 4..7 153 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7 321 vmull.s16 q1, d17, d21 @ Q1 = p[i] = (x[i] * trns_coeff[i]) where i = 4..7 326 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7 510 vmull.s16 q1, d17, d21 @ Q1 = p[i] = (x[i] * trns_coeff[i]) where i = 4..7 517 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7 601 vswp d1, d8 @ Q0/Q1 = Row order x0/x1 680 vadd.s16 q1, q8, q5 @ Q1 = x1 717 vswp d1, d8 @ Q0/Q1 = Row order x0/x1 801 vadd.s16 q1, q8, q5 @ Q1 = x1
|
/external/llvm/test/TableGen/ |
D | ForeachLoop.td | 14 // CHECK: def Q1
|