/external/llvm/test/Transforms/GVN/ |
D | pr12979.ll | 9 %add2 = add i32 %x, %y 10 %foo = add i32 %add1, %add2 20 %add2 = add i32 %x, %y 21 %foo = add i32 %add1, %add2 31 %add2 = add i32 %x, %y 32 %foo = add i32 %add1, %add2 42 %add2 = add nsw i32 %x, %y 43 %foo = add i32 %add1, %add2 53 %add2 = add nsw i32 %x, %y 54 %foo = add i32 %add1, %add2 [all …]
|
D | fpmath.ll | 9 %add2 = fadd double %x, %y 10 %foo = fadd double %add1, %add2 19 %add2 = fadd double %x, %y, !fpmath !0 20 %foo = fadd double %add1, %add2 29 %add2 = fadd double %x, %y, !fpmath !0 30 %foo = fadd double %add1, %add2 39 %add2 = fadd double %x, %y, !fpmath !1 40 %foo = fadd double %add1, %add2
|
/external/llvm-project/llvm/test/Transforms/GVN/ |
D | pr12979.ll | 9 %add2 = add i32 %x, %y 10 %foo = add i32 %add1, %add2 20 %add2 = add i32 %x, %y 21 %foo = add i32 %add1, %add2 31 %add2 = add i32 %x, %y 32 %foo = add i32 %add1, %add2 42 %add2 = add nsw i32 %x, %y 43 %foo = add i32 %add1, %add2 53 %add2 = add nsw i32 %x, %y 54 %foo = add i32 %add1, %add2 [all …]
|
D | fpmath.ll | 9 %add2 = fadd double %x, %y 10 %foo = fadd double %add1, %add2 19 %add2 = fadd double %x, %y, !fpmath !0 20 %foo = fadd double %add1, %add2 29 %add2 = fadd double %x, %y, !fpmath !0 30 %foo = fadd double %add1, %add2 39 %add2 = fadd double %x, %y, !fpmath !1 40 %foo = fadd double %add1, %add2
|
/external/llvm-project/llvm/test/Transforms/NewGVN/ |
D | pr12979.ll | 9 %add2 = add i32 %x, %y 10 %foo = add i32 %add1, %add2 20 %add2 = add i32 %x, %y 21 %foo = add i32 %add1, %add2 31 %add2 = add i32 %x, %y 32 %foo = add i32 %add1, %add2 42 %add2 = add nsw i32 %x, %y 43 %foo = add i32 %add1, %add2 53 %add2 = add nsw i32 %x, %y 54 %foo = add i32 %add1, %add2 [all …]
|
D | 2011-07-07-MatchIntrinsicExtract.ll | 11 %add2 = add i64 %add1, %uadd.0 12 ret i64 %add2 24 %add2 = add i64 %sub1, %usub.0 25 ret i64 %add2 37 %add2 = add i64 %mul1, %umul.0 38 ret i64 %add2 50 %add2 = add i64 %add1, %sadd.0 51 ret i64 %add2 63 %add2 = add i64 %sub1, %ssub.0 64 ret i64 %add2 [all …]
|
D | fpmath.ll | 9 %add2 = fadd double %x, %y 10 %foo = fadd double %add1, %add2 19 %add2 = fadd double %x, %y, !fpmath !0 20 %foo = fadd double %add1, %add2 29 %add2 = fadd double %x, %y, !fpmath !0 30 %foo = fadd double %add1, %add2 39 %add2 = fadd double %x, %y, !fpmath !1 40 %foo = fadd double %add1, %add2
|
/external/llvm-project/llvm/test/CodeGen/ARM/ |
D | saxpy10-a9.ll | 70 %add2 = fadd float %add, 0.000000e+00 77 %add2.1 = fadd float %add2, %add.1 84 %add2.2 = fadd float %add2.1, %add.2 91 %add2.3 = fadd float %add2.2, %add.3 98 %add2.4 = fadd float %add2.3, %add.4 105 %add2.5 = fadd float %add2.4, %add.5 112 %add2.6 = fadd float %add2.5, %add.6 119 %add2.7 = fadd float %add2.6, %add.7 126 %add2.8 = fadd float %add2.7, %add.8 133 %add2.9 = fadd float %add2.8, %add.9 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | saxpy10-a9.ll | 70 %add2 = fadd float %add, 0.000000e+00 77 %add2.1 = fadd float %add2, %add.1 84 %add2.2 = fadd float %add2.1, %add.2 91 %add2.3 = fadd float %add2.2, %add.3 98 %add2.4 = fadd float %add2.3, %add.4 105 %add2.5 = fadd float %add2.4, %add.5 112 %add2.6 = fadd float %add2.5, %add.6 119 %add2.7 = fadd float %add2.6, %add.7 126 %add2.8 = fadd float %add2.7, %add.8 133 %add2.9 = fadd float %add2.8, %add.9 [all …]
|
/external/llvm-project/llvm/test/CodeGen/AMDGPU/ |
D | reassoc-scalar.ll | 12 %add2 = add i32 %add1, %y 13 store i32 %add2, i32 addrspace(1)* %arg, align 4 25 %add2 = add i32 %y, %add1 26 store i32 %add2, i32 addrspace(1)* %arg, align 4 43 %add2 = add i64 %add1, %y 44 store i64 %add2, i64 addrspace(1)* %arg, align 8 62 %add2 = add <2 x i32> %add1, %y 63 store <2 x i32> %add2, <2 x i32> addrspace(1)* %arg, align 4 75 %add2 = add nuw i32 %add1, %y 76 store i32 %add2, i32 addrspace(1)* %arg, align 4 [all …]
|
/external/llvm-project/polly/test/ScopInfo/ |
D | run-time-check-many-piecewise-aliasing.ll | 28 %add2.i.i = add nsw i64 %sub1.i.i, 1 29 %cmp.i8.i.i = icmp sgt i64 %add2.i.i, 0 30 %cond.i11.i.i = select i1 %cmp.i8.i.i, i64 %add2.i.i, i64 0 39 %add2.i121.i = add nsw i64 %sub1.i120.i, 3 40 %cmp.i8.i122.i = icmp sgt i64 %add2.i121.i, 0 41 %cond.i11.i126.i = select i1 %cmp.i8.i122.i, i64 %add2.i121.i, i64 0 51 %add2.i97.i = add nsw i64 %sub1.i96.i, 4 52 %cmp.i8.i98.i = icmp sgt i64 %add2.i97.i, 0 53 %cond.i11.i102.i = select i1 %cmp.i8.i98.i, i64 %add2.i97.i, i64 0 63 %add2.i73.i = add nsw i64 %sub1.i72.i, 6 [all …]
|
/external/llvm/test/Transforms/LoopReroll/ |
D | ptrindvar.ll | 23 %S.011 = phi i32 [ %add2, %while.body ], [ undef, %while.body.preheader ] 29 %add2 = add nsw i32 %add, %1 35 %add2.lcssa = phi i32 [ %add2, %while.body ] 39 %S.0.lcssa = phi i32 [ undef, %entry ], [ %add2.lcssa, %while.end.loopexit ] 63 %S.011 = phi i32 [ %add2, %while.body ], [ undef, %while.body.preheader ] 69 %add2 = add nsw i32 %add, %1 75 %add2.lcssa = phi i32 [ %add2, %while.body ] 79 %S.0.lcssa = phi i32 [ undef, %entry ], [ %add2.lcssa, %while.end.loopexit ]
|
/external/llvm-project/llvm/test/Transforms/LoopReroll/ |
D | ptrindvar.ll | 23 %S.011 = phi i32 [ %add2, %while.body ], [ undef, %while.body.preheader ] 29 %add2 = add nsw i32 %add, %1 35 %add2.lcssa = phi i32 [ %add2, %while.body ] 39 %S.0.lcssa = phi i32 [ undef, %entry ], [ %add2.lcssa, %while.end.loopexit ] 63 %S.011 = phi i32 [ %add2, %while.body ], [ undef, %while.body.preheader ] 69 %add2 = add nsw i32 %add, %1 75 %add2.lcssa = phi i32 [ %add2, %while.body ] 79 %S.0.lcssa = phi i32 [ undef, %entry ], [ %add2.lcssa, %while.end.loopexit ]
|
/external/llvm/test/CodeGen/X86/ |
D | fast-isel-args.ll | 23 %add2 = add nsw i64 %add, %conv1 24 ret i64 %add2 30 %add2 = fadd float %c, %d 33 %add5 = fadd float %add1, %add2 42 %add2 = fadd double %c, %d 45 %add5 = fadd double %add1, %add2
|
/external/llvm-project/llvm/test/CodeGen/X86/ |
D | fast-isel-args.ll | 23 %add2 = add nsw i64 %add, %conv1 24 ret i64 %add2 30 %add2 = fadd float %c, %d 33 %add5 = fadd float %add1, %add2 42 %add2 = fadd double %c, %d 45 %add5 = fadd double %add1, %add2
|
/external/tensorflow/tensorflow/compiler/xla/service/gpu/ |
D | gpu_hlo_schedule_test.cc | 137 HloInstruction* add2 = builder.AddInstruction( in TEST_F() local 140 HloInstruction::CreateBinary(f32_2x2_, HloOpcode::kAdd, add1, add2)); in TEST_F() 147 streams->StreamNumberForHlo(*add2)); in TEST_F() 154 HloVec({add1, add2, add3})); in TEST_F() 160 EXPECT_TRUE(order->ExecutesBefore(x, add2)); in TEST_F() 163 EXPECT_TRUE(order->ExecutesBefore(y, add2)); in TEST_F() 165 EXPECT_TRUE(order->ExecutesBefore(z, add2)); in TEST_F() 168 EXPECT_TRUE(order->ExecutesBefore(add2, add3)); in TEST_F() 171 if (order->ExecutesBefore(add1, add2)) { in TEST_F() 172 EXPECT_FALSE(order->ExecutesBefore(add2, add1)); in TEST_F() [all …]
|
/external/llvm-project/llvm/test/CodeGen/AArch64/ |
D | aarch64-codegen-prepare-atp.ll | 26 ; Both %add1 and %add2 are promoted by forking extra sexts. 34 ; CHECK: %add2 = add nsw i64 %[[SEXT1]], %[[SEXT3]] 40 %add2 = add nsw i32 %j, %k 41 %s2 = sext i32 %add2 to i64 52 ; CHECK: %add2 = add nsw i64 %[[SEXT]], 2 57 %add2 = add nsw i32 %i, 2 58 %s2 = sext i32 %add2 to i64
|
/external/tensorflow/tensorflow/compiler/tf2tensorrt/segment/ |
D | segment_test.cc | 149 auto add2 = ops::Add(s.WithOpName("add2"), add0, add1); in TEST_F() local 150 auto add3 = ops::Add(s.WithOpName("add3"), add0, add2); in TEST_F() 151 auto add4 = ops::Add(s.WithOpName("add4"), add2, add2); in TEST_F() 197 auto add2 = ops::Add(s.WithOpName("add2"), add0, add1); in TEST_F() local 198 auto add3 = ops::Add(s.WithOpName("add3"), add0, add2); in TEST_F() 199 auto add4 = ops::Add(s.WithOpName("add4"), add2, add2); in TEST_F() 225 add2.node()->set_assigned_device_name(kGpu0); in TEST_F() 260 auto add2 = ops::Add(s.WithOpName("add2"), add0, add1); in TEST_F() local 261 auto add3 = ops::Add(s.WithOpName("add3"), add0, add2); in TEST_F() 262 auto add4 = ops::Add(s.WithOpName("add4"), add2, add2); in TEST_F() [all …]
|
/external/llvm/test/CodeGen/SystemZ/ |
D | addr-01.ll | 23 %add2 = add i64 %add1, 100 24 %ptr = inttoptr i64 %add2 to i8 * 35 %add2 = add i64 %add1, %index 36 %ptr = inttoptr i64 %add2 to i8 * 47 %add2 = sub i64 %add1, 100 48 %ptr = inttoptr i64 %add2 to i8 * 59 %add2 = add i64 %add1, %index 60 %ptr = inttoptr i64 %add2 to i8 *
|
/external/llvm-project/llvm/test/CodeGen/SystemZ/ |
D | addr-01.ll | 23 %add2 = add i64 %add1, 100 24 %ptr = inttoptr i64 %add2 to i8 * 35 %add2 = add i64 %add1, %index 36 %ptr = inttoptr i64 %add2 to i8 * 47 %add2 = sub i64 %add1, 100 48 %ptr = inttoptr i64 %add2 to i8 * 59 %add2 = add i64 %add1, %index 60 %ptr = inttoptr i64 %add2 to i8 *
|
/external/llvm-project/llvm/test/Transforms/InstCombine/ |
D | reassociate-nuw.ll | 64 %add2 = add nuw i32 %add0, %add1 65 ret i32 %add2 99 %add2 = add nuw i32 %mul1, %x 100 ret i32 %add2 109 %add2 = add nuw i32 %mul1, %x 110 ret i32 %add2 119 %add2 = add nuw i32 %mul1, %x 120 ret i32 %add2 129 %add2 = add i32 %mul1, %x 130 ret i32 %add2
|
/external/llvm-project/llvm/test/Other/ |
D | debugcounter-earlycse.ll | 8 ; CHECK-NEXT: %add2 = add i32 %a, %b 10 ; CHECK-NEXT: %ret1 = add i32 %add1, %add2 17 %add2 = add i32 %a, %b 20 %ret1 = add i32 %add1, %add2
|
D | print-debug-counter.ll | 17 %add2 = add i32 %a, %b 20 %ret1 = add i32 %add1, %add2 29 %add2 = add i32 %a, %b 30 %ret = add i32 %add1, %add2
|
/external/llvm/test/CodeGen/MIR/X86/ |
D | expected-comma-after-cfi-register.mir | 11 %add2 = add nsw i32 %add1, %d 12 tail call void @foo(i32 %add2) 13 %add6 = add nsw i32 %add2, %add2
|
/external/llvm-project/llvm/test/Analysis/ScalarEvolution/ |
D | max-addops-inline.ll | 7 ; CHECK1: %add2 = add nsw i32 %mul1, %add 10 ; CHECK10: %add2 = add nsw i32 %mul1, %add 17 %add2 = add nsw i32 %mul1, %add 18 ret i32 %add2
|