/external/llvm-project/llvm/test/CodeGen/ARM/ParallelDSP/ |
D | unroll-n-jam-smlad.ll | 51 %A3 = phi i32 [ %add9.us.i.3361.i, %for.body ], [ 0, %entry ] 53 %A4 = phi i32 [ %add9.us.i.1.3.i, %for.body ], [ 0, %entry ] 54 %A5 = phi i32 [ %add9.us.i.2.3.i, %for.body ], [ 0, %entry ] 55 %A6 = phi i32 [ %add9.us.i.3.3.i, %for.body ], [ 0, %entry ] 65 %add9.us.i.i = add nsw i32 %mul7.us.i.i, %A3 75 %add9.us.i.1.i = add nsw i32 %mul7.us.i.1.i, %A4 85 %add9.us.i.2.i = add nsw i32 %mul7.us.i.2.i, %A5 95 %add9.us.i.3.i = add nsw i32 %mul7.us.i.3.i, %A6 105 %add9.us.i.1343.i = add nsw i32 %mul7.us.i.1342.i, %add9.us.i.i 115 %add9.us.i.1.1.i = add nsw i32 %mul7.us.i.1.1.i, %add9.us.i.1.i [all …]
|
D | smlad4.ll | 19 %mac1.0.lcssa = phi i32 [ 0, %entry ], [ %add9, %for.body ] 24 %mac1.024 = phi i32 [ %add9, %for.body ], [ 0, %for.body.preheader ] 45 %add9 = add i32 %add8, %mul7
|
/external/llvm-project/llvm/test/Analysis/BasicAA/ |
D | bug.23626.ll | 15 %add9 = or i32 %num.0.lcssa, 1 16 %idxprom10 = zext i32 %add9 to i64 27 %add9 = add i32 %num, 1 28 %idxprom10 = zext i32 %add9 to i64
|
/external/llvm/test/Analysis/BasicAA/ |
D | bug.23626.ll | 15 %add9 = or i32 %num.0.lcssa, 1 16 %idxprom10 = zext i32 %add9 to i64 27 %add9 = add i32 %num, 1 28 %idxprom10 = zext i32 %add9 to i64
|
/external/llvm-project/llvm/test/CodeGen/AMDGPU/ |
D | promote-constOffset-to-imm.ll | 133 %block.029 = phi i32 [ 0, %for.cond.preheader ], [ %add9.31, %for.body ] 140 %add9 = or i32 %block.029, 256 141 %conv3.1 = zext i32 %add9 to i64 146 %add9.1 = or i32 %block.029, 512 147 %conv3.2 = zext i32 %add9.1 to i64 152 %add9.2 = or i32 %block.029, 768 153 %conv3.3 = zext i32 %add9.2 to i64 158 %add9.3 = or i32 %block.029, 1024 159 %conv3.4 = zext i32 %add9.3 to i64 164 %add9.4 = or i32 %block.029, 1280 [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | MachineSink-CritEdge.ll | 47 %x.addr.1 = phi i32 [ %add9, %do.body ], [ %x, %do.body.preheader ] 49 %add9 = add nsw i32 %xor, %x.addr.1 50 %and = and i32 %add9, 13 55 ret i32 %add9
|
/external/llvm-project/llvm/test/CodeGen/X86/ |
D | MachineSink-CritEdge.ll | 47 %x.addr.1 = phi i32 [ %add9, %do.body ], [ %x, %do.body.preheader ] 49 %add9 = add nsw i32 %xor, %x.addr.1 50 %and = and i32 %add9, 13 55 ret i32 %add9
|
/external/llvm-project/llvm/test/Transforms/LoopUnrollAndJam/ |
D | unroll-and-jam.ll | 191 ; CHECK: %i = phi i32 [ %add9.3, %for.latch ], [ 0, %for.outer.preheader.new ] 222 %i = phi i32 [ %add9, %for.latch ], [ 0, %for.outer.preheader ] 240 %add9 = add nuw i32 %i, 1 241 %exitcond28 = icmp eq i32 %add9, %I 475 ; CHECK: %add9.lcssa = phi i32 [ %add9, %for.inner ] 476 ; CHECK: %add9.lcssa.1 = phi i32 [ %add9.1, %for.inner ] 477 ; CHECK: %add9.lcssa.2 = phi i32 [ %add9.2, %for.inner ] 478 ; CHECK: %add9.lcssa.3 = phi i32 [ %add9.3, %for.inner ] 481 ; CHECK: %sum = phi i32 [ 0, %for.outer ], [ %add9, %for.inner ] 483 ; CHECK: %sum.1 = phi i32 [ 0, %for.outer ], [ %add9.1, %for.inner ] [all …]
|
/external/llvm-project/llvm/test/Transforms/Inline/AMDGPU/ |
D | amdgpu-inline-alloca-argument.ll | 18 %add9 = fadd float %add8, 1.0 19 %add10 = fadd float %add9, 1.0 37 %add9 = fadd float %add8, 1.0 38 %add10 = fadd float %add9, 1.0
|
/external/llvm/test/Transforms/BBVectorize/X86/ |
D | loop1.ll | 27 %add9 = fadd double %0, %0 28 %add10 = fadd double %add9, %0 54 ; CHECK-UNRL: %add9 = fadd <2 x double> %2, %2 55 ; CHECK-UNRL: %add10 = fadd <2 x double> %add9, %2
|
/external/llvm/test/CodeGen/SystemZ/ |
D | frame-04.ll | 54 %add9 = fadd fp128 %l9, %add8 55 %add12 = fadd fp128 %l12, %add9 62 store volatile fp128 %add9, fp128 *%ptr 109 %add9 = fadd fp128 %l9, %add8 110 %add12 = fadd fp128 %l12, %add9 116 store volatile fp128 %add9, fp128 *%ptr
|
D | frame-05.ll | 57 %add9 = add i32 %l9, %add8 58 %add10 = add i32 %l10, %add9 71 store volatile i32 %add9, i32 *%ptr 123 %add9 = add i32 %l9, %add8 124 %add10 = add i32 %l10, %add9 136 store volatile i32 %add9, i32 *%ptr
|
D | frame-06.ll | 54 %add9 = add i64 %l9, %add8 55 %add10 = add i64 %l10, %add9 68 store volatile i64 %add9, i64 *%ptr 120 %add9 = add i64 %l9, %add8 121 %add10 = add i64 %l10, %add9 133 store volatile i64 %add9, i64 *%ptr
|
/external/llvm-project/llvm/test/CodeGen/SystemZ/ |
D | frame-04.ll | 54 %add9 = fadd fp128 %l9, %add8 55 %add12 = fadd fp128 %l12, %add9 62 store volatile fp128 %add9, fp128 *%ptr 109 %add9 = fadd fp128 %l9, %add8 110 %add12 = fadd fp128 %l12, %add9 116 store volatile fp128 %add9, fp128 *%ptr
|
D | frame-05.ll | 57 %add9 = add i32 %l9, %add8 58 %add10 = add i32 %l10, %add9 71 store volatile i32 %add9, i32 *%ptr 123 %add9 = add i32 %l9, %add8 124 %add10 = add i32 %l10, %add9 136 store volatile i32 %add9, i32 *%ptr
|
D | frame-06.ll | 54 %add9 = add i64 %l9, %add8 55 %add10 = add i64 %l10, %add9 68 store volatile i64 %add9, i64 *%ptr 120 %add9 = add i64 %l9, %add8 121 %add10 = add i64 %l10, %add9 133 store volatile i64 %add9, i64 *%ptr
|
/external/llvm-project/llvm/test/CodeGen/PowerPC/ |
D | VSX-DForm-Scalars.ll | 25 %add9 = fadd double %add8, %k 26 %add10 = fadd double %add9, %l 59 %add9 = fadd float %add8, %k 60 %add10 = fadd float %add9, %l
|
D | aix-vector-stack.ll | 20 %add9 = add <4 x i32> %add8, %vec11 21 %add10 = add <4 x i32> %add9, %vec12
|
/external/llvm-project/llvm/test/CodeGen/AArch64/ |
D | aarch64-a57-fp-load-balancing.ll | 54 %add9 = fadd fast double %mul8, %sub 55 store double %add9, double* %q, align 8 152 %add9 = fadd fast double %mul8, %sub 161 store double %add9, double* %q, align 8 247 %add9 = fadd fast float %mul8, %sub 256 store float %add9, float* %q, align 4 289 %add9 = fadd fast double %mul8, %sub 290 %call = tail call double @hh(double %add9) #2 324 %add9 = fadd fast double %mul8, %sub 325 %add10 = fadd fast double %add9, %add9
|
D | postra-mi-sched.ll | 29 %add9 = add i32 %factor18, %mul6 30 ret i32 %add9
|
/external/llvm/test/CodeGen/AArch64/ |
D | aarch64-a57-fp-load-balancing.ll | 54 %add9 = fadd fast double %mul8, %sub 55 store double %add9, double* %q, align 8 152 %add9 = fadd fast double %mul8, %sub 161 store double %add9, double* %q, align 8 247 %add9 = fadd fast float %mul8, %sub 256 store float %add9, float* %q, align 4 289 %add9 = fadd fast double %mul8, %sub 290 %call = tail call double @hh(double %add9) #2 324 %add9 = fadd fast double %mul8, %sub 325 %add10 = fadd fast double %add9, %add9
|
D | postra-mi-sched.ll | 29 %add9 = add i32 %factor18, %mul6 30 ret i32 %add9
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
D | rgb_phi.ll | 47 %G.031 = phi float [ %1, %entry ], [ %add9, %for.body.for.body_crit_edge ] 55 %add9 = fadd float %G.031, %mul8 72 %add16 = fadd float %add4, %add9
|
D | pr23510.ll | 35 %add9 = add i64 %tmp7, %tmp6 36 store i64 %add9, i64* @total, align 8
|
/external/llvm/test/Transforms/BBVectorize/ |
D | loop1.ll | 27 %add9 = fadd double %0, %0 28 %add10 = fadd double %add9, %0 80 ; CHECK-UNRL: %add9 = fadd <2 x double> %2, %2 81 ; CHECK-UNRL: %add10 = fadd <2 x double> %add9, %2
|