Home
last modified time | relevance | path

Searched refs:add8 (Results 1 – 25 of 49) sorted by relevance

12

/external/llvm/test/Transforms/SLPVectorizer/X86/
Ddiamond.ll27 %add8 = mul i32 %1, %mul238
29 store i32 %add8, i32* %arrayidx9, align 4
65 %add8 = mul i32 %1, %mul238
67 store i32 %add8, i32* %arrayidx9, align 4
95 %add8 = mul i32 %1, %mul238
97 store i32 %add8, i32* %arrayidx9, align 4
Dcrash_bullet.ll75 %add8.i2343 = fadd float undef, undef
76 %add8.i2381 = fadd float undef, undef
107 %mul341 = fmul float undef, %add8.i2343
108 %mul344 = fmul float undef, %add8.i2381
113 %mul364 = fmul float %add8.i2381, %add8.i2381
Dlong_chains.ll24 %add8 = fadd double %mul, 1.000000e+00
27 %mul11 = fmul double %add8, %add8
Dbarriercall.ll24 %add8 = add nsw i32 %mul7, 9
26 store i32 %add8, i32* %arrayidx9, align 4
Dextractcost.ll23 %add8 = add nsw i32 %mul7, 9
25 store i32 %add8, i32* %arrayidx9, align 4
Dhorizontal.ll109 %add8 = fadd fast float %mul3, %mul7
114 %add14 = fadd fast float %add8, %mul13
191 %add8 = fadd fast float %mul3, %mul7
196 %add14 = fadd fast float %add8, %mul13
348 %add8 = fadd fast float %mul3, %mul7
354 %add14 = fadd fast float %add8, %mul13
408 %add8 = fadd fast double %mul3, %mul7
410 store double %add8, double* %arrayidx9, align 8
Dcse.ll35 %add8 = fadd double %mul, 7.000000e+00
37 store double %add8, double* %arrayidx9, align 8
235 %add8 = fadd double %1, 0.000000e+00
238 %add10 = fadd double %add8, %2
/external/llvm/test/CodeGen/SystemZ/
Dframe-04.ll53 %add8 = fadd fp128 %l8, %add5
54 %add9 = fadd fp128 %l9, %add8
61 store volatile fp128 %add8, fp128 *%ptr
108 %add8 = fadd fp128 %l8, %add5
109 %add9 = fadd fp128 %l9, %add8
115 store volatile fp128 %add8, fp128 *%ptr
151 %add8 = fadd fp128 %l8, %add5
156 store volatile fp128 %add8, fp128 *%ptr
Dframe-02.ll64 %add8 = fadd float %l8, %add7
65 %add9 = fadd float %l9, %add8
80 store volatile float %add8, float *%ptr
145 %add8 = fadd float %l8, %add7
146 %add9 = fadd float %l9, %add8
160 store volatile float %add8, float *%ptr
205 %add8 = fadd float %l8, %add7
214 store volatile float %add8, float *%ptr
Dframe-03.ll66 %add8 = fadd double %l8, %add7
67 %add9 = fadd double %l9, %add8
82 store volatile double %add8, double *%ptr
147 %add8 = fadd double %l8, %add7
148 %add9 = fadd double %l9, %add8
162 store volatile double %add8, double *%ptr
207 %add8 = fadd double %l8, %add7
216 store volatile double %add8, double *%ptr
Dframe-05.ll56 %add8 = add i32 %l8, %add7
57 %add9 = add i32 %l9, %add8
70 store volatile i32 %add8, i32 *%ptr
122 %add8 = add i32 %l8, %add7
123 %add9 = add i32 %l9, %add8
135 store volatile i32 %add8, i32 *%ptr
Dframe-06.ll53 %add8 = add i64 %l8, %add7
54 %add9 = add i64 %l9, %add8
67 store volatile i64 %add8, i64 *%ptr
119 %add8 = add i64 %l8, %add7
120 %add9 = add i64 %l9, %add8
132 store volatile i64 %add8, i64 *%ptr
Dframe-07.ll95 %add8 = fadd double %l8, %add7
96 %add9 = fadd double %l9, %add8
111 store volatile double %add8, double *%ptr
224 %add8 = fadd double %l8, %add7
225 %add9 = fadd double %l9, %add8
240 store volatile double %add8, double *%ptr
Dframe-08.ll47 %add8 = add i32 %l8, %add7
48 %add9 = add i32 %l9, %add8
60 store volatile i32 %add8, i32 *%ptr
150 %add8 = add i32 %l8, %add7
151 %add9 = add i32 %l9, %add8
163 store volatile i32 %add8, i32 *%ptr
Dfp-move-02.ll226 %add8 = fadd double %add7, %double8
227 %add9 = fadd double %add8, %double9
259 %int8 = phi i64 [ 0, %entry ], [ %add8, %loop ]
271 %add8 = add i64 %int8, %bias
304 %conv8 = bitcast i64 %add8 to double
384 %add8 = add i64 %conv8, %bias
385 store volatile i64 %add8, i64 *@iptr
Dframe-09.ll87 %add8 = add i32 %l8, %add7
88 %add9 = add i32 %l9, %add8
100 store volatile i32 %add8, i32 *%ptr
/external/llvm/test/Analysis/DependenceAnalysis/
DInvariant.ll20 %j.02 = phi i32 [ 0, %for.cond1.preheader ], [ %add8, %for.body3 ]
29 %add8 = add nsw i32 %j.02, 5
30 %cmp2 = icmp slt i32 %add8, 40
/external/llvm/test/CodeGen/Mips/
Daddressing-mode.ll22 %j.019 = phi i32 [ 0, %for.cond1.preheader ], [ %add8, %for.body3 ]
29 %add8 = add nsw i32 %j.019, %m
30 %cmp2 = icmp slt i32 %add8, 64
/external/llvm/test/CodeGen/X86/
D2012-08-28-UnsafeMathCrash.ll16 %add8 = fadd double %conv, 5.000000e-01
17 %conv9 = fptosi double %add8 to i32
DMachineSink-CritEdge.ll14 %add8.i = add nsw i32 %xor.i, %neg6.i
15 %shr10.i = ashr i32 %add8.i, 8
16 %xor12.i = xor i32 %shr10.i, %add8.i
Dhaddsub-2.ll19 %add8 = fadd float %vecext6, %vecext7
20 %vecinit9 = insertelement <4 x float> %vecinit5, float %add8, i32 2
43 %add8 = fadd float %vecext6, %vecext7
44 %vecinit9 = insertelement <4 x float> %vecinit5, float %add8, i32 3
115 %add8 = add i32 %vecext6, %vecext7
116 %vecinit9 = insertelement <4 x i32> %vecinit5, i32 %add8, i32 2
142 %add8 = add i32 %vecext6, %vecext7
143 %vecinit9 = insertelement <4 x i32> %vecinit5, i32 %add8, i32 3
287 %add8 = fadd double %vecext6, %vecext7
288 %vecinit9 = insertelement <4 x double> %vecinit5, double %add8, i32 2
[all …]
/external/llvm/test/Transforms/LoopReroll/
Dreduction.ll22 %add8 = add nsw i32 %add4, %4
26 %add12 = add nsw i32 %add8, %6
67 %add8 = fadd float %add4, %4
71 %add12 = fadd float %add8, %6
Dnonconst_lb.ll31 %add8 = add nsw i32 %i.035, 2
32 %arrayidx9 = getelementptr inbounds i32* %B, i32 %add8
35 %arrayidx12 = getelementptr inbounds i32* %A, i32 %add8
104 %add8 = fadd float %2, %mul7
105 store float %add8, float* %arrayidx4, align 4
/external/llvm/test/CodeGen/PowerPC/
D2011-12-05-NoSpillDupCR.ll53 %add8.us = fadd float %3, %2
54 store float %add8.us, float* %arrayidx7.us, align 4
88 %add8.us.1 = fadd float %6, %5
89 store float %add8.us.1, float* %arrayidx7.us.1, align 4
110 %add8.us.2 = fadd float %9, %8
111 store float %add8.us.2, float* %arrayidx7.us.2, align 4
132 %add8.us.3 = fadd float %12, %11
133 store float %add8.us.3, float* %arrayidx7.us.3, align 4
154 %add8.us.4 = fadd float %15, %14
155 store float %add8.us.4, float* %arrayidx7.us.4, align 4
/external/llvm/test/Transforms/LoopVectorize/
Dstore-shuffle-bug.ll41 %add8 = add nsw i32 %add4, %3
42 store i32 %add8, i32* %arrayidx, align 4

12