/external/llvm/test/Transforms/SLPVectorizer/X86/ |
D | diamond.ll | 27 %add8 = mul i32 %1, %mul238 29 store i32 %add8, i32* %arrayidx9, align 4 65 %add8 = mul i32 %1, %mul238 67 store i32 %add8, i32* %arrayidx9, align 4 95 %add8 = mul i32 %1, %mul238 97 store i32 %add8, i32* %arrayidx9, align 4
|
D | crash_bullet.ll | 75 %add8.i2343 = fadd float undef, undef 76 %add8.i2381 = fadd float undef, undef 107 %mul341 = fmul float undef, %add8.i2343 108 %mul344 = fmul float undef, %add8.i2381 113 %mul364 = fmul float %add8.i2381, %add8.i2381
|
D | long_chains.ll | 24 %add8 = fadd double %mul, 1.000000e+00 27 %mul11 = fmul double %add8, %add8
|
D | barriercall.ll | 24 %add8 = add nsw i32 %mul7, 9 26 store i32 %add8, i32* %arrayidx9, align 4
|
D | extractcost.ll | 23 %add8 = add nsw i32 %mul7, 9 25 store i32 %add8, i32* %arrayidx9, align 4
|
D | horizontal.ll | 109 %add8 = fadd fast float %mul3, %mul7 114 %add14 = fadd fast float %add8, %mul13 191 %add8 = fadd fast float %mul3, %mul7 196 %add14 = fadd fast float %add8, %mul13 348 %add8 = fadd fast float %mul3, %mul7 354 %add14 = fadd fast float %add8, %mul13 408 %add8 = fadd fast double %mul3, %mul7 410 store double %add8, double* %arrayidx9, align 8
|
D | cse.ll | 35 %add8 = fadd double %mul, 7.000000e+00 37 store double %add8, double* %arrayidx9, align 8 235 %add8 = fadd double %1, 0.000000e+00 238 %add10 = fadd double %add8, %2
|
/external/llvm/test/CodeGen/SystemZ/ |
D | frame-04.ll | 53 %add8 = fadd fp128 %l8, %add5 54 %add9 = fadd fp128 %l9, %add8 61 store volatile fp128 %add8, fp128 *%ptr 108 %add8 = fadd fp128 %l8, %add5 109 %add9 = fadd fp128 %l9, %add8 115 store volatile fp128 %add8, fp128 *%ptr 151 %add8 = fadd fp128 %l8, %add5 156 store volatile fp128 %add8, fp128 *%ptr
|
D | frame-02.ll | 64 %add8 = fadd float %l8, %add7 65 %add9 = fadd float %l9, %add8 80 store volatile float %add8, float *%ptr 145 %add8 = fadd float %l8, %add7 146 %add9 = fadd float %l9, %add8 160 store volatile float %add8, float *%ptr 205 %add8 = fadd float %l8, %add7 214 store volatile float %add8, float *%ptr
|
D | frame-03.ll | 66 %add8 = fadd double %l8, %add7 67 %add9 = fadd double %l9, %add8 82 store volatile double %add8, double *%ptr 147 %add8 = fadd double %l8, %add7 148 %add9 = fadd double %l9, %add8 162 store volatile double %add8, double *%ptr 207 %add8 = fadd double %l8, %add7 216 store volatile double %add8, double *%ptr
|
D | frame-05.ll | 56 %add8 = add i32 %l8, %add7 57 %add9 = add i32 %l9, %add8 70 store volatile i32 %add8, i32 *%ptr 122 %add8 = add i32 %l8, %add7 123 %add9 = add i32 %l9, %add8 135 store volatile i32 %add8, i32 *%ptr
|
D | frame-06.ll | 53 %add8 = add i64 %l8, %add7 54 %add9 = add i64 %l9, %add8 67 store volatile i64 %add8, i64 *%ptr 119 %add8 = add i64 %l8, %add7 120 %add9 = add i64 %l9, %add8 132 store volatile i64 %add8, i64 *%ptr
|
D | frame-07.ll | 95 %add8 = fadd double %l8, %add7 96 %add9 = fadd double %l9, %add8 111 store volatile double %add8, double *%ptr 224 %add8 = fadd double %l8, %add7 225 %add9 = fadd double %l9, %add8 240 store volatile double %add8, double *%ptr
|
D | frame-08.ll | 47 %add8 = add i32 %l8, %add7 48 %add9 = add i32 %l9, %add8 60 store volatile i32 %add8, i32 *%ptr 150 %add8 = add i32 %l8, %add7 151 %add9 = add i32 %l9, %add8 163 store volatile i32 %add8, i32 *%ptr
|
D | fp-move-02.ll | 226 %add8 = fadd double %add7, %double8 227 %add9 = fadd double %add8, %double9 259 %int8 = phi i64 [ 0, %entry ], [ %add8, %loop ] 271 %add8 = add i64 %int8, %bias 304 %conv8 = bitcast i64 %add8 to double 384 %add8 = add i64 %conv8, %bias 385 store volatile i64 %add8, i64 *@iptr
|
D | frame-09.ll | 87 %add8 = add i32 %l8, %add7 88 %add9 = add i32 %l9, %add8 100 store volatile i32 %add8, i32 *%ptr
|
/external/llvm/test/Analysis/DependenceAnalysis/ |
D | Invariant.ll | 20 %j.02 = phi i32 [ 0, %for.cond1.preheader ], [ %add8, %for.body3 ] 29 %add8 = add nsw i32 %j.02, 5 30 %cmp2 = icmp slt i32 %add8, 40
|
/external/llvm/test/CodeGen/Mips/ |
D | addressing-mode.ll | 22 %j.019 = phi i32 [ 0, %for.cond1.preheader ], [ %add8, %for.body3 ] 29 %add8 = add nsw i32 %j.019, %m 30 %cmp2 = icmp slt i32 %add8, 64
|
/external/llvm/test/CodeGen/X86/ |
D | 2012-08-28-UnsafeMathCrash.ll | 16 %add8 = fadd double %conv, 5.000000e-01 17 %conv9 = fptosi double %add8 to i32
|
D | MachineSink-CritEdge.ll | 14 %add8.i = add nsw i32 %xor.i, %neg6.i 15 %shr10.i = ashr i32 %add8.i, 8 16 %xor12.i = xor i32 %shr10.i, %add8.i
|
D | haddsub-2.ll | 19 %add8 = fadd float %vecext6, %vecext7 20 %vecinit9 = insertelement <4 x float> %vecinit5, float %add8, i32 2 43 %add8 = fadd float %vecext6, %vecext7 44 %vecinit9 = insertelement <4 x float> %vecinit5, float %add8, i32 3 115 %add8 = add i32 %vecext6, %vecext7 116 %vecinit9 = insertelement <4 x i32> %vecinit5, i32 %add8, i32 2 142 %add8 = add i32 %vecext6, %vecext7 143 %vecinit9 = insertelement <4 x i32> %vecinit5, i32 %add8, i32 3 287 %add8 = fadd double %vecext6, %vecext7 288 %vecinit9 = insertelement <4 x double> %vecinit5, double %add8, i32 2 [all …]
|
/external/llvm/test/Transforms/LoopReroll/ |
D | reduction.ll | 22 %add8 = add nsw i32 %add4, %4 26 %add12 = add nsw i32 %add8, %6 67 %add8 = fadd float %add4, %4 71 %add12 = fadd float %add8, %6
|
D | nonconst_lb.ll | 31 %add8 = add nsw i32 %i.035, 2 32 %arrayidx9 = getelementptr inbounds i32* %B, i32 %add8 35 %arrayidx12 = getelementptr inbounds i32* %A, i32 %add8 104 %add8 = fadd float %2, %mul7 105 store float %add8, float* %arrayidx4, align 4
|
/external/llvm/test/CodeGen/PowerPC/ |
D | 2011-12-05-NoSpillDupCR.ll | 53 %add8.us = fadd float %3, %2 54 store float %add8.us, float* %arrayidx7.us, align 4 88 %add8.us.1 = fadd float %6, %5 89 store float %add8.us.1, float* %arrayidx7.us.1, align 4 110 %add8.us.2 = fadd float %9, %8 111 store float %add8.us.2, float* %arrayidx7.us.2, align 4 132 %add8.us.3 = fadd float %12, %11 133 store float %add8.us.3, float* %arrayidx7.us.3, align 4 154 %add8.us.4 = fadd float %15, %14 155 store float %add8.us.4, float* %arrayidx7.us.4, align 4
|
/external/llvm/test/Transforms/LoopVectorize/ |
D | store-shuffle-bug.ll | 41 %add8 = add nsw i32 %add4, %3 42 store i32 %add8, i32* %arrayidx, align 4
|