/external/llvm/test/CodeGen/X86/ |
D | haddsub-undef.ll | 24 %add4 = fadd float %vecext2, %vecext3 25 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 74 %add4 = fadd float %vecext2, %vecext3 75 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 139 %add4 = fadd float %vecext2, %vecext3 140 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 160 %add4 = fadd float %vecext2, %vecext3 161 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3 194 %add4 = fadd float %vecext2, %vecext3 195 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 2 [all …]
|
D | fast-isel-args.ll | 32 %add4 = fadd float %g, %h 34 %add6 = fadd float %add3, %add4 44 %add4 = fadd double %g, %h 46 %add6 = fadd double %add3, %add4
|
D | add-of-carry.ll | 11 %add4 = add i32 %x, %sum 12 %cmp = icmp ult i32 %add4, %x 14 %z.0 = add i32 %add4, %inc
|
D | misched-ilp.ll | 23 %add4 = fadd float %add, %add3 24 ret float %add4
|
D | coalescer-identity.ll | 31 %add4.us = sub i32 0, %1 32 %tobool5.us = icmp eq i32 %conv3.us, %add4.us 65 %add4 = sub i32 0, %.pre 66 %not.tobool5 = icmp ne i32 %conv3, %add4
|
/external/llvm/test/Transforms/BBVectorize/ |
D | loop1.ll | 22 %add4 = fadd double %1, %1 23 %add5 = fadd double %add4, %0 46 ; CHECK: %add4.v.i1.1 = insertelement <2 x double> undef, double %1, i32 0 47 ; CHECK: %add4.v.i1.2 = insertelement <2 x double> %add4.v.i1.1, double %0, i32 1 48 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2 51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2 75 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %3 76 ; CHECK-UNRL: %add5 = fadd <2 x double> %add4, %2
|
/external/llvm/test/CodeGen/SystemZ/ |
D | frame-08.ll | 43 %add4 = add i32 %l4, %add1 44 %add5 = add i32 %l5, %add4 56 store volatile i32 %add4, i32 *%ptr 95 %add4 = add i32 %l4, %add1 96 %add5 = add i32 %l5, %add4 100 store volatile i32 %add4, i32 *%ptr 146 %add4 = add i32 %l4, %add1 147 %add5 = add i32 %l5, %add4 159 store volatile i32 %add4, i32 *%ptr 197 %add4 = add i32 %l4, %add1 [all …]
|
D | frame-04.ll | 51 %add4 = fadd fp128 %l4, %add1 52 %add5 = fadd fp128 %l5, %add4 59 store volatile fp128 %add4, fp128 *%ptr 106 %add4 = fadd fp128 %l4, %add1 107 %add5 = fadd fp128 %l5, %add4 113 store volatile fp128 %add4, fp128 *%ptr 149 %add4 = fadd fp128 %l4, %add1 150 %add5 = fadd fp128 %l5, %add4 154 store volatile fp128 %add4, fp128 *%ptr 180 %add4 = fadd fp128 %l4, %add1 [all …]
|
D | frame-05.ll | 52 %add4 = add i32 %l4, %add3 53 %add5 = add i32 %l5, %add4 66 store volatile i32 %add4, i32 *%ptr 119 %add4 = add i32 %l4, %add3 120 %add5 = add i32 %l5, %add4 132 store volatile i32 %add4, i32 *%ptr 175 %add4 = add i32 %l4, %add3 176 %add5 = add i32 %l5, %add4 181 store volatile i32 %add4, i32 *%ptr 210 %add4 = add i32 %l4, %add3 [all …]
|
D | frame-06.ll | 49 %add4 = add i64 %l4, %add3 50 %add5 = add i64 %l5, %add4 63 store volatile i64 %add4, i64 *%ptr 116 %add4 = add i64 %l4, %add3 117 %add5 = add i64 %l5, %add4 129 store volatile i64 %add4, i64 *%ptr 172 %add4 = add i64 %l4, %add3 173 %add5 = add i64 %l5, %add4 178 store volatile i64 %add4, i64 *%ptr 207 %add4 = add i64 %l4, %add3 [all …]
|
D | frame-03.ll | 62 %add4 = fadd double %l4, %add3 63 %add5 = fadd double %l5, %add4 78 store volatile double %add4, double *%ptr 143 %add4 = fadd double %l4, %add3 144 %add5 = fadd double %l5, %add4 158 store volatile double %add4, double *%ptr 203 %add4 = fadd double %l4, %add3 204 %add5 = fadd double %l5, %add4 212 store volatile double %add4, double *%ptr 246 %add4 = fadd double %l4, %add3 [all …]
|
D | frame-02.ll | 60 %add4 = fadd float %l4, %add3 61 %add5 = fadd float %l5, %add4 76 store volatile float %add4, float *%ptr 141 %add4 = fadd float %l4, %add3 142 %add5 = fadd float %l5, %add4 156 store volatile float %add4, float *%ptr 201 %add4 = fadd float %l4, %add3 202 %add5 = fadd float %l5, %add4 210 store volatile float %add4, float *%ptr 244 %add4 = fadd float %l4, %add3 [all …]
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
D | crash_smallpt.ll | 42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F 44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02 46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01 48 %mul2.i.i.us = fmul double undef, %add4.i267.us 50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8 87 %add4.i719 = fadd double undef, %mul2.i729 89 %add4.i698 = fadd double undef, %add4.i719 91 %mul2.i.i680 = fmul double undef, %add4.i698
|
D | intrinsic.ll | 101 %add4 = add i32 %i6, %i7 102 %call4 = tail call i32 @llvm.bswap.i32(i32 %add4) nounwind readnone 148 %add4 = add i32 %i6, %i7 149 %call4 = tail call i32 @llvm.ctlz.i32(i32 %add4,i1 true) nounwind readnone 193 %add4 = add i32 %i6, %i7 194 %call4 = tail call i32 @llvm.ctlz.i32(i32 %add4,i1 false) nounwind readnone 238 %add4 = add i32 %i6, %i7 239 %call4 = tail call i32 @llvm.cttz.i32(i32 %add4,i1 true) nounwind readnone 283 %add4 = add i32 %i6, %i7 284 %call4 = tail call i32 @llvm.cttz.i32(i32 %add4,i1 false) nounwind readnone [all …]
|
/external/tensorflow/tensorflow/compiler/xla/service/gpu/ |
D | gpu_hlo_schedule_test.cc | 143 HloInstruction* add4 = builder.AddInstruction(HloInstruction::CreateBinary( in TEST_F() local 147 module->AddEntryComputation(builder.Build(add4)); in TEST_F() 160 EXPECT_TRUE(order.ExecutesBefore(nonblocking_call, add4)); in TEST_F() 165 EXPECT_TRUE(order.ExecutesBefore(blocking_call, add4)); in TEST_F() 216 HloInstruction* add4 = builder.AddInstruction(HloInstruction::CreateBinary( in TEST_F() local 219 module->AddEntryComputation(builder.Build(add4)); in TEST_F() 231 EXPECT_TRUE(order.ExecutesBefore(all_reduce_start, add4)); in TEST_F() 235 EXPECT_TRUE(order.ExecutesBefore(all_reduce_done, add4)); in TEST_F()
|
/external/llvm/test/Transforms/LoopReroll/ |
D | negative.ll | 21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ] 33 %add4 = add i64 %add, %conv3 39 %add4.lcssa = phi i64 [ %add4, %while.body ] 40 %phitmp = trunc i64 %add4.lcssa to i32
|
D | reduction.ll | 18 %add4 = add nsw i32 %add, %2 22 %add8 = add nsw i32 %add4, %4 63 %add4 = fadd float %add, %2 67 %add8 = fadd float %add4, %4 108 %add4 = add nsw i32 %add, %2 112 %add8 = add nsw i32 %add4, %4
|
/external/libhevc/common/arm/ |
D | ihevc_resi_trans_neon.c | 935 add4(int32x4_t row1_low, int32x4_t row1_high, int32x4_t row2_low, int32x4_t row2_high) in add4() function 1087 out[1].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32() 1088 out[1].val[1] = add4(tmp1.val[1], tmp2.val[1], tmp5.val[1], tmp6.val[1]); in dct_body_16_32() 1090 out[15].val[0] = add4(tmp0.val[0], tmp3.val[0], tmp4.val[0], tmp7.val[0]); in dct_body_16_32() 1091 out[15].val[1] = add4(tmp0.val[1], tmp3.val[1], tmp4.val[1], tmp7.val[1]); in dct_body_16_32() 1098 out[3].val[0] = add4(tmp0.val[0], tmp3.val[0], tmp4.val[0], tmp7.val[0]); in dct_body_16_32() 1099 out[3].val[1] = add4(tmp0.val[1], tmp3.val[1], tmp4.val[1], tmp7.val[1]); in dct_body_16_32() 1101 out[13].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32() 1102 out[13].val[1] = add4(tmp1.val[1], tmp2.val[1], tmp5.val[1], tmp6.val[1]); in dct_body_16_32() 1109 out[5].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32() [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | postra-mi-sched.ll | 24 %add4 = add nsw i32 %add3, %add2 26 %mul6 = mul i32 %mul5, %add4 27 %mul7 = shl i32 %add4, 1
|
/external/llvm/test/Transforms/LoopVectorize/X86/ |
D | cost-model.ll | 63 %s.02 = phi float [ 0.0, %preheader ], [ %add4, %for ] 69 %add4 = fadd fast float %add, %t2 75 %add4.lcssa = phi float [ %add4, %for ] 79 %s.0.lcssa = phi float [ 0.0, %entry ], [ %add4.lcssa, %loopexit ]
|
/external/llvm/test/Transforms/BBVectorize/X86/ |
D | loop1.ll | 22 %add4 = fadd double %1, %1 23 %add5 = fadd double %add4, %0 49 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %3 50 ; CHECK-UNRL: %add5 = fadd <2 x double> %add4, %2
|
/external/llvm/test/Analysis/BasicAA/ |
D | bug.23540.ll | 11 %add4 = add i32 0, 1 12 %idxprom5 = zext i32 %add4 to i64
|
/external/llvm/test/Transforms/LoopVectorize/ |
D | store-shuffle-bug.ll | 37 %add4 = add nsw i32 %2, %1 38 store i32 %add4, i32* %arrayidx, align 4 41 %add8 = add nsw i32 %add4, %3
|
/external/llvm/test/Transforms/LoopUnroll/ |
D | runtime-loop3.ll | 24 %sum.19 = phi i32 [ %add4, %for.body3 ], [ %sum.012, %for.cond1.preheader ] 28 %add4 = add nsw i32 %1, %sum.19 35 %sum.1.lcssa = phi i32 [ %sum.012, %for.cond1.preheader ], [ %add4, %for.body3 ]
|
/external/tensorflow/tensorflow/compiler/tf2tensorrt/segment/ |
D | segment_test.cc | 151 auto add4 = ops::Add(s.WithOpName("add4"), add2, add2); in TEST_F() local 199 auto add4 = ops::Add(s.WithOpName("add4"), add2, add2); in TEST_F() local 228 add4.node()->set_assigned_device_name(kGpu1); in TEST_F() 239 add4.node()->set_assigned_device_name(kGpuAny); in TEST_F() 262 auto add4 = ops::Add(s.WithOpName("add4"), add2, add2); in TEST_F() local 293 auto add4 = ops::Add(s.WithOpName("add4"), add2, add5); in TEST_F() local 339 auto add4 = ops::Add(s.WithOpName("add4"), add0, add0); in TEST_F() local 340 auto add5 = ops::Add(s.WithOpName("add5"), add4, add4); in TEST_F()
|