/external/llvm/test/CodeGen/ARM/ |
D | saxpy10-a9.ll | 70 %add2 = fadd float %add, 0.000000e+00 77 %add2.1 = fadd float %add2, %add.1 84 %add2.2 = fadd float %add2.1, %add.2 91 %add2.3 = fadd float %add2.2, %add.3 98 %add2.4 = fadd float %add2.3, %add.4 105 %add2.5 = fadd float %add2.4, %add.5 112 %add2.6 = fadd float %add2.5, %add.6 119 %add2.7 = fadd float %add2.6, %add.7 126 %add2.8 = fadd float %add2.7, %add.8 133 %add2.9 = fadd float %add2.8, %add.9 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/ |
D | saxpy10-a9.ll | 70 %add2 = fadd float %add, 0.000000e+00 77 %add2.1 = fadd float %add2, %add.1 84 %add2.2 = fadd float %add2.1, %add.2 91 %add2.3 = fadd float %add2.2, %add.3 98 %add2.4 = fadd float %add2.3, %add.4 105 %add2.5 = fadd float %add2.4, %add.5 112 %add2.6 = fadd float %add2.5, %add.6 119 %add2.7 = fadd float %add2.6, %add.7 126 %add2.8 = fadd float %add2.7, %add.8 133 %add2.9 = fadd float %add2.8, %add.9 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/GVN/ |
D | pr12979.ll | 9 %add2 = add i32 %x, %y 10 %foo = add i32 %add1, %add2 20 %add2 = add i32 %x, %y 21 %foo = add i32 %add1, %add2 31 %add2 = add i32 %x, %y 32 %foo = add i32 %add1, %add2 42 %add2 = add nsw i32 %x, %y 43 %foo = add i32 %add1, %add2 53 %add2 = add nsw i32 %x, %y 54 %foo = add i32 %add1, %add2 [all …]
|
D | fpmath.ll | 9 %add2 = fadd double %x, %y 10 %foo = fadd double %add1, %add2 19 %add2 = fadd double %x, %y, !fpmath !0 20 %foo = fadd double %add1, %add2 29 %add2 = fadd double %x, %y, !fpmath !0 30 %foo = fadd double %add1, %add2 39 %add2 = fadd double %x, %y, !fpmath !1 40 %foo = fadd double %add1, %add2
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/NewGVN/ |
D | pr12979.ll | 9 %add2 = add i32 %x, %y 10 %foo = add i32 %add1, %add2 20 %add2 = add i32 %x, %y 21 %foo = add i32 %add1, %add2 31 %add2 = add i32 %x, %y 32 %foo = add i32 %add1, %add2 42 %add2 = add nsw i32 %x, %y 43 %foo = add i32 %add1, %add2 53 %add2 = add nsw i32 %x, %y 54 %foo = add i32 %add1, %add2 [all …]
|
D | 2011-07-07-MatchIntrinsicExtract.ll | 11 %add2 = add i64 %add1, %uadd.0 12 ret i64 %add2 24 %add2 = add i64 %sub1, %usub.0 25 ret i64 %add2 37 %add2 = add i64 %mul1, %umul.0 38 ret i64 %add2 50 %add2 = add i64 %add1, %sadd.0 51 ret i64 %add2 63 %add2 = add i64 %sub1, %ssub.0 64 ret i64 %add2 [all …]
|
D | fpmath.ll | 9 %add2 = fadd double %x, %y 10 %foo = fadd double %add1, %add2 19 %add2 = fadd double %x, %y, !fpmath !0 20 %foo = fadd double %add1, %add2 29 %add2 = fadd double %x, %y, !fpmath !0 30 %foo = fadd double %add1, %add2 39 %add2 = fadd double %x, %y, !fpmath !1 40 %foo = fadd double %add1, %add2
|
D | pr33196.ll | 22 ; CHECK-NEXT: %add2 = add nsw i32 %add, %e.1 23 ; CHECK-NEXT: store i32 %add2, i32* @a, align 4 24 ; CHECK-NEXT: %tobool3 = icmp eq i32 %add2, 0 62 %add2 = add nsw i32 %add, %and 63 store i32 %add2, i32* @a, align 4 64 %tobool3 = icmp eq i32 %add2, 0
|
/external/llvm/test/Transforms/GVN/ |
D | pr12979.ll | 9 %add2 = add i32 %x, %y 10 %foo = add i32 %add1, %add2 20 %add2 = add i32 %x, %y 21 %foo = add i32 %add1, %add2 31 %add2 = add i32 %x, %y 32 %foo = add i32 %add1, %add2 42 %add2 = add nsw i32 %x, %y 43 %foo = add i32 %add1, %add2 53 %add2 = add nsw i32 %x, %y 54 %foo = add i32 %add1, %add2 [all …]
|
D | fpmath.ll | 9 %add2 = fadd double %x, %y 10 %foo = fadd double %add1, %add2 19 %add2 = fadd double %x, %y, !fpmath !0 20 %foo = fadd double %add1, %add2 29 %add2 = fadd double %x, %y, !fpmath !0 30 %foo = fadd double %add1, %add2 39 %add2 = fadd double %x, %y, !fpmath !1 40 %foo = fadd double %add1, %add2
|
/external/tensorflow/tensorflow/compiler/tf2tensorrt/segment/ |
D | segment_test.cc | 127 auto add2 = ops::Add(s.WithOpName("add2"), add0, add1); in TEST_F() local 128 auto add3 = ops::Add(s.WithOpName("add3"), add0, add2); in TEST_F() 129 auto add4 = ops::Add(s.WithOpName("add4"), add2, add2); in TEST_F() 174 auto add2 = ops::Add(s.WithOpName("add2"), add0, add1); in TEST_F() local 175 auto add3 = ops::Add(s.WithOpName("add3"), add0, add2); in TEST_F() 176 auto add4 = ops::Add(s.WithOpName("add4"), add2, add2); in TEST_F() 202 auto add2 = ops::Add(s.WithOpName("add2"), add0, add1); in TEST_F() local 203 auto add5 = ops::Add(s.WithOpName("add5"), add2, add7); in TEST_F() 205 auto add3 = ops::Add(s.WithOpName("add3"), add0, add2); in TEST_F() 206 auto add4 = ops::Add(s.WithOpName("add4"), add2, add5); in TEST_F() [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/LoopReroll/ |
D | ptrindvar.ll | 23 %S.011 = phi i32 [ %add2, %while.body ], [ undef, %while.body.preheader ] 29 %add2 = add nsw i32 %add, %1 35 %add2.lcssa = phi i32 [ %add2, %while.body ] 39 %S.0.lcssa = phi i32 [ undef, %entry ], [ %add2.lcssa, %while.end.loopexit ] 63 %S.011 = phi i32 [ %add2, %while.body ], [ undef, %while.body.preheader ] 69 %add2 = add nsw i32 %add, %1 75 %add2.lcssa = phi i32 [ %add2, %while.body ] 79 %S.0.lcssa = phi i32 [ undef, %entry ], [ %add2.lcssa, %while.end.loopexit ]
|
/external/llvm/test/Transforms/LoopReroll/ |
D | ptrindvar.ll | 23 %S.011 = phi i32 [ %add2, %while.body ], [ undef, %while.body.preheader ] 29 %add2 = add nsw i32 %add, %1 35 %add2.lcssa = phi i32 [ %add2, %while.body ] 39 %S.0.lcssa = phi i32 [ undef, %entry ], [ %add2.lcssa, %while.end.loopexit ] 63 %S.011 = phi i32 [ %add2, %while.body ], [ undef, %while.body.preheader ] 69 %add2 = add nsw i32 %add, %1 75 %add2.lcssa = phi i32 [ %add2, %while.body ] 79 %S.0.lcssa = phi i32 [ undef, %entry ], [ %add2.lcssa, %while.end.loopexit ]
|
/external/tensorflow/tensorflow/compiler/xla/service/gpu/ |
D | gpu_hlo_schedule_test.cc | 137 HloInstruction* add2 = builder.AddInstruction( in TEST_F() local 140 HloInstruction::CreateBinary(f32_2x2_, HloOpcode::kAdd, add1, add2)); in TEST_F() 147 streams->StreamNumberForHlo(*add2)); in TEST_F() 154 HloVec({add1, add2, add3})); in TEST_F() 160 EXPECT_TRUE(order->ExecutesBefore(x, add2)); in TEST_F() 163 EXPECT_TRUE(order->ExecutesBefore(y, add2)); in TEST_F() 165 EXPECT_TRUE(order->ExecutesBefore(z, add2)); in TEST_F() 168 EXPECT_TRUE(order->ExecutesBefore(add2, add3)); in TEST_F() 171 if (order->ExecutesBefore(add1, add2)) { in TEST_F() 172 EXPECT_FALSE(order->ExecutesBefore(add2, add1)); in TEST_F() [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/ |
D | fast-isel-args.ll | 23 %add2 = add nsw i64 %add, %conv1 24 ret i64 %add2 30 %add2 = fadd float %c, %d 33 %add5 = fadd float %add1, %add2 42 %add2 = fadd double %c, %d 45 %add5 = fadd double %add1, %add2
|
/external/llvm/test/CodeGen/X86/ |
D | fast-isel-args.ll | 23 %add2 = add nsw i64 %add, %conv1 24 ret i64 %add2 30 %add2 = fadd float %c, %d 33 %add5 = fadd float %add1, %add2 42 %add2 = fadd double %c, %d 45 %add5 = fadd double %add1, %add2
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/AArch64/ |
D | aarch64-codegen-prepare-atp.ll | 26 ; Both %add1 and %add2 are promoted by forking extra sexts. 34 ; CHECK: %add2 = add nsw i64 %[[SEXT1]], %[[SEXT3]] 40 %add2 = add nsw i32 %j, %k 41 %s2 = sext i32 %add2 to i64 52 ; CHECK: %add2 = add nsw i64 %[[SEXT]], 2 57 %add2 = add nsw i32 %i, 2 58 %s2 = sext i32 %add2 to i64
|
/external/llvm/test/CodeGen/SystemZ/ |
D | addr-01.ll | 23 %add2 = add i64 %add1, 100 24 %ptr = inttoptr i64 %add2 to i8 * 35 %add2 = add i64 %add1, %index 36 %ptr = inttoptr i64 %add2 to i8 * 47 %add2 = sub i64 %add1, 100 48 %ptr = inttoptr i64 %add2 to i8 * 59 %add2 = add i64 %add1, %index 60 %ptr = inttoptr i64 %add2 to i8 *
|
D | addr-02.ll | 25 %add2 = add i64 %add1, 100 26 %ptr = inttoptr i64 %add2 to i8 * 38 %add2 = add i64 %add1, %index 39 %ptr = inttoptr i64 %add2 to i8 * 51 %add2 = sub i64 %add1, 100 52 %ptr = inttoptr i64 %add2 to i8 * 64 %add2 = add i64 %add1, %index 65 %ptr = inttoptr i64 %add2 to i8 *
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/SystemZ/ |
D | addr-01.ll | 23 %add2 = add i64 %add1, 100 24 %ptr = inttoptr i64 %add2 to i8 * 35 %add2 = add i64 %add1, %index 36 %ptr = inttoptr i64 %add2 to i8 * 47 %add2 = sub i64 %add1, 100 48 %ptr = inttoptr i64 %add2 to i8 * 59 %add2 = add i64 %add1, %index 60 %ptr = inttoptr i64 %add2 to i8 *
|
D | addr-02.ll | 25 %add2 = add i64 %add1, 100 26 %ptr = inttoptr i64 %add2 to i8 * 38 %add2 = add i64 %add1, %index 39 %ptr = inttoptr i64 %add2 to i8 * 51 %add2 = sub i64 %add1, 100 52 %ptr = inttoptr i64 %add2 to i8 * 64 %add2 = add i64 %add1, %index 65 %ptr = inttoptr i64 %add2 to i8 *
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Analysis/ScalarEvolution/ |
D | max-addops-inline.ll | 5 ; CHECK1: %add2 = add nsw i32 %mul1, %add 8 ; CHECK10: %add2 = add nsw i32 %mul1, %add 15 %add2 = add nsw i32 %mul1, %add 16 ret i32 %add2
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Other/ |
D | debugcounter-earlycse.ll | 8 ; CHECK-NEXT: %add2 = add i32 %a, %b 10 ; CHECK-NEXT: %ret1 = add i32 %add1, %add2 17 %add2 = add i32 %a, %b 20 %ret1 = add i32 %add1, %add2
|
/external/llvm/test/CodeGen/AMDGPU/ |
D | mad-sub.ll | 18 %add2 = add i64 %tid.ext, 2 19 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2 42 %add2 = add i64 %tid.ext, 2 43 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2 63 %add2 = add i64 %tid.ext, 2 64 %gep2 = getelementptr double, double addrspace(1)* %ptr, i64 %add2 87 %add2 = add i64 %tid.ext, 2 88 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2 112 %add2 = add i64 %tid.ext, 2 113 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/MIR/X86/ |
D | expected-register-after-cfi-operand.mir | 11 %add2 = add nsw i32 %add1, %d 12 tail call void @foo(i32 %add2) 13 %add6 = add nsw i32 %add2, %add2
|