/external/llvm-project/polly/test/ScopInfo/ |
D | run-time-check-many-piecewise-aliasing.ll | 31 %mul4.i.i = mul nsw i64 %cond.i11.i.i, 7 32 %add5.i.i = add nsw i64 %mul.i.i, %mul4.i.i 42 %mul4.i127.i = mul nsw i64 %cond.i11.i126.i, 9 43 %add5.i128.i = add nsw i64 %mul.i119.i, %mul4.i127.i 54 %mul4.i103.i = mul nsw i64 %cond.i11.i102.i, 11 55 %add5.i104.i = add nsw i64 %mul.i95.i, %mul4.i103.i 66 %mul4.i79.i = mul nsw i64 %cond.i11.i78.i, 13 67 %add5.i80.i = add nsw i64 %mul.i71.i, %mul4.i79.i 78 %mul4.i55.i = mul nsw i64 %cond.i11.i54.i, 17 79 %add5.i56.i = add nsw i64 %mul.i47.i, %mul4.i55.i [all …]
|
/external/llvm-project/llvm/test/Transforms/LoopVectorize/AArch64/ |
D | backedge-overflow.ll | 35 %mul4 = mul i32 %1, %0 38 store i32 %mul4, i32* %arrayidx7, align 4 75 %mul4 = add i32 %1, %0 78 store i32 %mul4, i32* %arrayidx7, align 4 114 %mul4 = mul i32 %1, %0 117 store i32 %mul4, i32* %arrayidx7, align 4 153 %mul4 = mul i32 %1, %0 156 store i32 %mul4, i32* %arrayidx7, align 4
|
/external/llvm/test/Transforms/LoopVectorize/AArch64/ |
D | backedge-overflow.ll | 35 %mul4 = mul i32 %1, %0 38 store i32 %mul4, i32* %arrayidx7, align 4 75 %mul4 = add i32 %1, %0 78 store i32 %mul4, i32* %arrayidx7, align 4 114 %mul4 = mul i32 %1, %0 117 store i32 %mul4, i32* %arrayidx7, align 4 153 %mul4 = mul i32 %1, %0 156 store i32 %mul4, i32* %arrayidx7, align 4
|
/external/llvm-project/llvm/test/Transforms/Reassociate/ |
D | mixed-fast-nonfast-fp.ll | 16 %mul4 = fmul fast float %a, %c 18 %add2 = fadd fast float %mul4, %mul2 37 %mul4 = fmul reassoc float %a, %c 39 %add2 = fadd reassoc float %mul4, %mul2
|
/external/llvm-project/llvm/test/CodeGen/AMDGPU/ |
D | inline-maxbb.ll | 13 %mul4 = mul i32 %mul3, %mul2 14 %mul5 = mul i32 %mul4, %mul3 46 %mul4 = mul i32 %mul3, %mul2 47 %mul5 = mul i32 %mul4, %mul3
|
D | early-inline.ll | 10 %mul4 = mul i32 %mul3, %mul2 11 %mul5 = mul i32 %mul4, %mul3
|
/external/llvm-project/llvm/test/CodeGen/ARM/ |
D | machine-outliner-return-1.ll | 17 %mul4 = mul nsw i32 %add2, %sub3 19 %div = sdiv i32 %mul4, %sub5 41 %mul4 = mul nsw i32 %add2, %sub3 43 %div = sdiv i32 %mul4, %sub5
|
D | misched-fp-basic.ll | 65 %mul4 = fmul double %add3, %add3 66 %div5 = fdiv double %mul4, %conv1
|
/external/llvm-project/llvm/test/Analysis/ScalarEvolution/ |
D | huge_expression_limit.ll | 24 ; CHECK-NEXT: %mul4 = mul i32 %mul3, %e 26 ; CHECK-NEXT: %mul5 = mul i32 %mul4, %f 39 %mul4 = mul i32 %mul3, %e 40 %mul5 = mul i32 %mul4, %f
|
/external/llvm-project/llvm/test/Transforms/GVNHoist/ |
D | hoist.ll | 31 %mul4 = fmul float %sub3, %div 38 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ] 78 %mul4 = fmul float %sub3, %div 87 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ] 131 %mul4 = fmul float %sub3, %div 139 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ] 178 %mul4 = fmul float %sub3, %div 186 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ] 296 %mul4 = fmul float %sub3, %div 302 %y = fadd float %p2, %mul4 [all …]
|
D | hoist-newgvn.ll | 36 %mul4 = fmul float %sub3, %div 43 %p1 = phi float [ %mul4, %if.then ], [ 0.000000e+00, %entry ] 81 %mul4 = fmul float %sub3, %div 98 %p1 = phi float [ %mul4, %if.then ], [ %mul10, %if.else ]
|
/external/llvm/test/Analysis/DependenceAnalysis/ |
D | Banerjee.ll | 45 %mul4 = mul nsw i64 %i.03, 10 46 %add5 = add nsw i64 %mul4, %j.02 114 %mul4 = mul nsw i64 %i.05, 10 115 %add5 = add nsw i64 %mul4, %j.03 180 %mul4 = mul nsw i64 %i.03, 10 181 %add5 = add nsw i64 %mul4, %j.02 239 %mul4 = mul nsw i64 %i.03, 10 240 %add5 = add nsw i64 %mul4, %j.02 298 %mul4 = mul nsw i64 %i.03, 10 299 %add5 = add nsw i64 %mul4, %j.02 [all …]
|
D | GCD.ll | 44 %mul4 = shl nsw i64 %j.02, 2 45 %sub = sub nsw i64 %mul, %mul4 105 %mul4 = shl nsw i64 %j.02, 2 106 %sub = sub nsw i64 %mul, %mul4 167 %mul4 = shl nsw i64 %j.02, 2 168 %sub = sub nsw i64 %mul, %mul4 232 %mul4 = shl nsw i64 %j.02, 1 233 %add5 = add nsw i64 %i.03, %mul4 289 %mul4 = mul nsw i64 %j.02, 10 290 %mul5 = mul nsw i64 %mul4, %M [all …]
|
/external/llvm-project/llvm/test/Analysis/DependenceAnalysis/ |
D | Banerjee.ll | 48 %mul4 = mul nsw i64 %i.03, 10 49 %add5 = add nsw i64 %mul4, %j.02 117 %mul4 = mul nsw i64 %i.05, 10 118 %add5 = add nsw i64 %mul4, %j.03 183 %mul4 = mul nsw i64 %i.03, 10 184 %add5 = add nsw i64 %mul4, %j.02 242 %mul4 = mul nsw i64 %i.03, 10 243 %add5 = add nsw i64 %mul4, %j.02 301 %mul4 = mul nsw i64 %i.03, 10 302 %add5 = add nsw i64 %mul4, %j.02 [all …]
|
D | GCD.ll | 36 %mul4 = shl nsw i64 %j.02, 2 37 %sub = sub nsw i64 %mul, %mul4 89 %mul4 = shl nsw i64 %j.02, 2 90 %sub = sub nsw i64 %mul, %mul4 143 %mul4 = shl nsw i64 %j.02, 2 144 %sub = sub nsw i64 %mul, %mul4 200 %mul4 = shl nsw i64 %j.02, 1 201 %add5 = add nsw i64 %i.03, %mul4 249 %mul4 = mul nsw i64 %j.02, 10 250 %mul5 = mul nsw i64 %mul4, %M [all …]
|
/external/llvm/test/Transforms/Reassociate/ |
D | mixed-fast-nonfast-fp.ll | 13 %mul4 = fmul fast float %a, %c 15 %add2 = fadd fast float %mul4, %mul2
|
/external/llvm-project/llvm/test/Transforms/SLPVectorizer/AArch64/ |
D | mul.ll | 63 %mul4 = mul nsw i64 %3, %2 64 store i64 %mul4, i64* %arrayidx3, align 8 102 %mul4 = mul nsw i64 %3, %2 105 %add9 = add nsw i64 %mul4, %2
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
D | barriercall.ll | 19 %mul4 = shl i32 %n, 3 20 %add5 = add nsw i32 %mul4, 9
|
D | extractcost.ll | 18 %mul4 = shl i32 %n, 3 19 %add5 = add nsw i32 %mul4, 9
|
D | cse.ll | 64 %mul4 = fmul double %1, 7.700000e+00 65 %mul6 = fmul double %conv, %mul4 157 %mul4 = fmul double %1, 7.900000e+00 158 %mul6 = fmul double %conv, %mul4 197 %mul4 = fmul double %conv, %1 198 store double %mul4, double* %arrayidx2, align 8
|
D | reduction.ll | 32 %mul4 = fmul double %1, 7.000000e+00 33 %add5 = fadd double %mul1, %mul4
|
/external/llvm-project/llvm/test/CodeGen/WebAssembly/ |
D | dead-vreg.ll | 25 %mul4 = mul nsw i32 %y.020, %w 31 %add = add nsw i32 %x.018, %mul4
|
/external/llvm/test/CodeGen/WebAssembly/ |
D | dead-vreg.ll | 25 %mul4 = mul nsw i32 %y.020, %w 31 %add = add nsw i32 %x.018, %mul4
|
/external/llvm-project/llvm/test/Transforms/SLPVectorizer/X86/ |
D | jumbled-load-shuffle-placement.ll | 48 %mul4 = mul nsw i32 %2, %3 61 store i32 %mul4, i32* %arrayidx12, align 4 104 %mul4 = mul nsw i32 %3, %2 117 store i32 %mul4, i32* %arrayidx12, align 4
|
/external/llvm-project/polly/test/DependenceInfo/ |
D | reduction_complex_location.ll | 40 %mul4 = shl nsw i32 %j.0, 1 41 %add = add nsw i32 %i.0, %mul4
|