Home
last modified time | relevance | path

Searched refs:add5 (Results 1 – 25 of 287) sorted by relevance

12345678910>>...12

/external/llvm-project/llvm/test/Transforms/LoopStrengthReduce/X86/
Divchain-stress-X86.ll34 %i.09 = phi i32 [ %add5.3, %for.body.3 ], [ 0, %entry ]
45 %add5 = add i32 %i.09, %s
46 %cmp = icmp ult i32 %add5, %len
53 %arrayidx.1 = getelementptr inbounds i8, i8* %a, i32 %add5
56 %arrayidx1.1 = getelementptr inbounds i8, i8* %b, i32 %add5
61 %arrayidx4.1 = getelementptr inbounds i8, i8* %c, i32 %add5
63 %add5.1 = add i32 %add5, %s
64 %cmp.1 = icmp ult i32 %add5.1, %len
68 %arrayidx.2 = getelementptr inbounds i8, i8* %a, i32 %add5.1
71 %arrayidx1.2 = getelementptr inbounds i8, i8* %b, i32 %add5.1
[all …]
/external/llvm/test/CodeGen/ARM/
Dtest-sharedidx.ll25 %i.09 = phi i32 [ %add5.3, %for.body.3 ], [ 0, %entry ]
36 %add5 = add i32 %i.09, %s
37 %cmp = icmp ult i32 %add5, %len
47 %arrayidx.1 = getelementptr inbounds i8, i8* %a, i32 %add5
50 %arrayidx1.1 = getelementptr inbounds i8, i8* %b, i32 %add5
55 %arrayidx4.1 = getelementptr inbounds i8, i8* %c, i32 %add5
57 %add5.1 = add i32 %add5, %s
58 %cmp.1 = icmp ult i32 %add5.1, %len
62 %arrayidx.2 = getelementptr inbounds i8, i8* %a, i32 %add5.1
65 %arrayidx1.2 = getelementptr inbounds i8, i8* %b, i32 %add5.1
[all …]
/external/llvm/test/Transforms/LoopStrengthReduce/X86/
Divchain-stress-X86.ll34 %i.09 = phi i32 [ %add5.3, %for.body.3 ], [ 0, %entry ]
45 %add5 = add i32 %i.09, %s
46 %cmp = icmp ult i32 %add5, %len
53 %arrayidx.1 = getelementptr inbounds i8, i8* %a, i32 %add5
56 %arrayidx1.1 = getelementptr inbounds i8, i8* %b, i32 %add5
61 %arrayidx4.1 = getelementptr inbounds i8, i8* %c, i32 %add5
63 %add5.1 = add i32 %add5, %s
64 %cmp.1 = icmp ult i32 %add5.1, %len
68 %arrayidx.2 = getelementptr inbounds i8, i8* %a, i32 %add5.1
71 %arrayidx1.2 = getelementptr inbounds i8, i8* %b, i32 %add5.1
[all …]
/external/llvm-project/llvm/test/CodeGen/ARM/
Dtest-sharedidx.ll25 %i.09 = phi i32 [ %add5.3, %for.body.3 ], [ 0, %entry ]
36 %add5 = add i32 %i.09, %s
37 %cmp = icmp ult i32 %add5, %len
47 %arrayidx.1 = getelementptr inbounds i8, i8* %a, i32 %add5
50 %arrayidx1.1 = getelementptr inbounds i8, i8* %b, i32 %add5
55 %arrayidx4.1 = getelementptr inbounds i8, i8* %c, i32 %add5
57 %add5.1 = add i32 %add5, %s
58 %cmp.1 = icmp ult i32 %add5.1, %len
62 %arrayidx.2 = getelementptr inbounds i8, i8* %a, i32 %add5.1
65 %arrayidx1.2 = getelementptr inbounds i8, i8* %b, i32 %add5.1
[all …]
/external/llvm-project/llvm/test/Transforms/LoopVectorize/AArch64/
Dreduction-small-size.ll35 %add5.lcssa = phi i32 [ %add5, %for.body ]
36 %conv6 = trunc i32 %add5.lcssa to i8
45 %sum.013 = phi i32 [ %add5, %for.body ], [ 0, %for.body.preheader ]
54 %add5 = add nuw nsw i32 %add, %conv3
90 %add5.lcssa = phi i32 [ %add5, %for.body ]
91 %conv6 = trunc i32 %add5.lcssa to i16
100 %sum.017 = phi i32 [ %add5, %for.body ], [ 0, %for.body.preheader ]
109 %add5 = add nuw nsw i32 %add, %conv3.15
147 %add5.lcssa = phi i32 [ %add5, %for.body ]
148 %conv6 = trunc i32 %add5.lcssa to i16
[all …]
/external/llvm/test/Transforms/LoopVectorize/AArch64/
Dreduction-small-size.ll43 %add5.lcssa = phi i32 [ %add5, %for.body ]
44 %conv6 = trunc i32 %add5.lcssa to i8
53 %sum.013 = phi i32 [ %add5, %for.body ], [ 0, %for.body.preheader ]
62 %add5 = add nuw nsw i32 %add, %conv3
104 %add5.lcssa = phi i32 [ %add5, %for.body ]
105 %conv6 = trunc i32 %add5.lcssa to i16
114 %sum.017 = phi i32 [ %add5, %for.body ], [ 0, %for.body.preheader ]
123 %add5 = add nuw nsw i32 %add, %conv3.15
167 %add5.lcssa = phi i32 [ %add5, %for.body ]
168 %conv6 = trunc i32 %add5.lcssa to i16
[all …]
/external/llvm-project/polly/test/ScopInfo/
Drun-time-check-many-piecewise-aliasing.ll32 %add5.i.i = add nsw i64 %mul.i.i, %mul4.i.i
43 %add5.i128.i = add nsw i64 %mul.i119.i, %mul4.i127.i
44 %add.i = add nsw i64 %add5.i.i, %add5.i128.i
55 %add5.i104.i = add nsw i64 %mul.i95.i, %mul4.i103.i
56 %add3.i = add nsw i64 %add.i, %add5.i104.i
67 %add5.i80.i = add nsw i64 %mul.i71.i, %mul4.i79.i
68 %add5.i = add nsw i64 %add3.i, %add5.i80.i
79 %add5.i56.i = add nsw i64 %mul.i47.i, %mul4.i55.i
80 %add7.i = add nsw i64 %add5.i, %add5.i56.i
91 %add5.i32.i = add nsw i64 %mul.i23.i, %mul4.i31.i
[all …]
/external/llvm-project/llvm/test/Transforms/LoopVectorize/
Dmulti-use-reduction-bug.ll27 %add55 = phi i32 [ %n.promoted, %entry ], [ %add5, %for.body ]
32 %add5 = add i32 %sub, %add55
38 %add5.lcssa = phi i32 [ %add5, %for.body ]
39 store i32 %add5.lcssa, i32* %n, align 4
/external/llvm/test/Transforms/BBVectorize/
Dloop1.ll23 %add5 = fadd double %add4, %0
24 %mul6 = fmul double %0, %add5
49 ; CHECK: %add5.v.i1.1 = insertelement <2 x double> undef, double %0, i32 0
50 ; CHECK: %add5.v.i1.2 = insertelement <2 x double> %add5.v.i1.1, double %0, i32 1
51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2
52 ; CHECK: %mul6.v.i0.2 = insertelement <2 x double> %add5.v.i1.1, double %mul8, i32 1
53 ; CHECK: %mul6 = fmul <2 x double> %mul6.v.i0.2, %add5
76 ; CHECK-UNRL: %add5 = fadd <2 x double> %add4, %2
77 ; CHECK-UNRL: %mul6 = fmul <2 x double> %2, %add5
/external/llvm/test/Transforms/LoopVectorize/
Dmulti-use-reduction-bug.ll28 %add55 = phi i32 [ %n.promoted, %entry ], [ %add5, %for.body ]
33 %add5 = add i32 %sub, %add55
39 %add5.lcssa = phi i32 [ %add5, %for.body ]
40 store i32 %add5.lcssa, i32* %n, align 4
/external/llvm-project/llvm/test/CodeGen/SystemZ/
Dframe-08.ll44 %add5 = add i32 %l5, %add4
45 %add6 = add i32 %l6, %add5
57 store volatile i32 %add5, i32 *%ptr
96 %add5 = add i32 %l5, %add4
97 %add14 = add i32 %l14, %add5
101 store volatile i32 %add5, i32 *%ptr
147 %add5 = add i32 %l5, %add4
148 %add6 = add i32 %l6, %add5
160 store volatile i32 %add5, i32 *%ptr
198 %add5 = add i32 %l5, %add4
[all …]
Dframe-04.ll52 %add5 = fadd fp128 %l5, %add4
53 %add8 = fadd fp128 %l8, %add5
60 store volatile fp128 %add5, fp128 *%ptr
107 %add5 = fadd fp128 %l5, %add4
108 %add8 = fadd fp128 %l8, %add5
114 store volatile fp128 %add5, fp128 *%ptr
150 %add5 = fadd fp128 %l5, %add4
151 %add8 = fadd fp128 %l8, %add5
155 store volatile fp128 %add5, fp128 *%ptr
181 %add5 = fadd fp128 %l5, %add4
[all …]
Dframe-05.ll53 %add5 = add i32 %l5, %add4
54 %add6 = add i32 %l6, %add5
67 store volatile i32 %add5, i32 *%ptr
120 %add5 = add i32 %l5, %add4
121 %add7 = add i32 %l7, %add5
133 store volatile i32 %add5, i32 *%ptr
176 %add5 = add i32 %l5, %add4
177 %add14 = add i32 %l14, %add5
182 store volatile i32 %add5, i32 *%ptr
211 %add5 = add i32 %l5, %add4
[all …]
Dframe-06.ll50 %add5 = add i64 %l5, %add4
51 %add6 = add i64 %l6, %add5
64 store volatile i64 %add5, i64 *%ptr
117 %add5 = add i64 %l5, %add4
118 %add7 = add i64 %l7, %add5
130 store volatile i64 %add5, i64 *%ptr
173 %add5 = add i64 %l5, %add4
174 %add14 = add i64 %l14, %add5
179 store volatile i64 %add5, i64 *%ptr
208 %add5 = add i64 %l5, %add4
[all …]
Dframe-02.ll61 %add5 = fadd float %l5, %add4
62 %add6 = fadd float %l6, %add5
77 store volatile float %add5, float *%ptr
142 %add5 = fadd float %l5, %add4
143 %add6 = fadd float %l6, %add5
157 store volatile float %add5, float *%ptr
202 %add5 = fadd float %l5, %add4
203 %add6 = fadd float %l6, %add5
211 store volatile float %add5, float *%ptr
245 %add5 = fadd float %l5, %add4
[all …]
Dframe-03.ll63 %add5 = fadd double %l5, %add4
64 %add6 = fadd double %l6, %add5
79 store volatile double %add5, double *%ptr
144 %add5 = fadd double %l5, %add4
145 %add6 = fadd double %l6, %add5
159 store volatile double %add5, double *%ptr
204 %add5 = fadd double %l5, %add4
205 %add6 = fadd double %l6, %add5
213 store volatile double %add5, double *%ptr
247 %add5 = fadd double %l5, %add4
[all …]
/external/llvm/test/CodeGen/SystemZ/
Dframe-08.ll44 %add5 = add i32 %l5, %add4
45 %add6 = add i32 %l6, %add5
57 store volatile i32 %add5, i32 *%ptr
96 %add5 = add i32 %l5, %add4
97 %add14 = add i32 %l14, %add5
101 store volatile i32 %add5, i32 *%ptr
147 %add5 = add i32 %l5, %add4
148 %add6 = add i32 %l6, %add5
160 store volatile i32 %add5, i32 *%ptr
198 %add5 = add i32 %l5, %add4
[all …]
Dframe-04.ll52 %add5 = fadd fp128 %l5, %add4
53 %add8 = fadd fp128 %l8, %add5
60 store volatile fp128 %add5, fp128 *%ptr
107 %add5 = fadd fp128 %l5, %add4
108 %add8 = fadd fp128 %l8, %add5
114 store volatile fp128 %add5, fp128 *%ptr
150 %add5 = fadd fp128 %l5, %add4
151 %add8 = fadd fp128 %l8, %add5
155 store volatile fp128 %add5, fp128 *%ptr
181 %add5 = fadd fp128 %l5, %add4
[all …]
Dframe-05.ll53 %add5 = add i32 %l5, %add4
54 %add6 = add i32 %l6, %add5
67 store volatile i32 %add5, i32 *%ptr
120 %add5 = add i32 %l5, %add4
121 %add7 = add i32 %l7, %add5
133 store volatile i32 %add5, i32 *%ptr
176 %add5 = add i32 %l5, %add4
177 %add14 = add i32 %l14, %add5
182 store volatile i32 %add5, i32 *%ptr
211 %add5 = add i32 %l5, %add4
[all …]
Dframe-06.ll50 %add5 = add i64 %l5, %add4
51 %add6 = add i64 %l6, %add5
64 store volatile i64 %add5, i64 *%ptr
117 %add5 = add i64 %l5, %add4
118 %add7 = add i64 %l7, %add5
130 store volatile i64 %add5, i64 *%ptr
173 %add5 = add i64 %l5, %add4
174 %add14 = add i64 %l14, %add5
179 store volatile i64 %add5, i64 *%ptr
208 %add5 = add i64 %l5, %add4
[all …]
Dframe-03.ll63 %add5 = fadd double %l5, %add4
64 %add6 = fadd double %l6, %add5
79 store volatile double %add5, double *%ptr
144 %add5 = fadd double %l5, %add4
145 %add6 = fadd double %l6, %add5
159 store volatile double %add5, double *%ptr
204 %add5 = fadd double %l5, %add4
205 %add6 = fadd double %l6, %add5
213 store volatile double %add5, double *%ptr
247 %add5 = fadd double %l5, %add4
[all …]
Dframe-02.ll61 %add5 = fadd float %l5, %add4
62 %add6 = fadd float %l6, %add5
77 store volatile float %add5, float *%ptr
142 %add5 = fadd float %l5, %add4
143 %add6 = fadd float %l6, %add5
157 store volatile float %add5, float *%ptr
202 %add5 = fadd float %l5, %add4
203 %add6 = fadd float %l6, %add5
211 store volatile float %add5, float *%ptr
245 %add5 = fadd float %l5, %add4
[all …]
/external/llvm/test/CodeGen/X86/
Dfast-isel-args.ll33 %add5 = fadd float %add1, %add2
35 %add7 = fadd float %add5, %add6
45 %add5 = fadd double %add1, %add2
47 %add7 = fadd double %add5, %add6
/external/llvm-project/llvm/test/CodeGen/X86/
Dfast-isel-args.ll33 %add5 = fadd float %add1, %add2
35 %add7 = fadd float %add5, %add6
45 %add5 = fadd double %add1, %add2
47 %add7 = fadd double %add5, %add6
/external/llvm-project/llvm/test/Transforms/InstCombine/
Dfold-phi.ll9 %sum.057 = phi float [ 0.000000e+00, %entry ], [ %add5, %bb0 ]
10 %add5 = fadd float %sum.057, %a ; PR14592
17 ret float %add5

12345678910>>...12