• Home
  • Raw
  • Download

Lines Matching full:uses

12 	%indvar2787 = phi i64 [ 0, %bb.nph ], [ %indvar.next2788, %for.end ]		; <i64> [#uses=2]
13 %tmp2791 = mul i64 %indvar2787, 44 ; <i64> [#uses=0]
14 %ctg22996 = getelementptr i8, i8* %in, i64 0 ; <i8*> [#uses=1]
15 %conv = zext i32 undef to i64 ; <i64> [#uses=1]
16 %conv11 = zext i32 undef to i64 ; <i64> [#uses=1]
17 %tmp18 = load i32, i32* undef ; <i32> [#uses=1]
18 %conv19 = zext i32 %tmp18 to i64 ; <i64> [#uses=1]
19 %tmp30 = load i32, i32* undef ; <i32> [#uses=1]
20 %conv31 = zext i32 %tmp30 to i64 ; <i64> [#uses=4]
21 %ptrincdec3065 = load i8, i8* null ; <i8> [#uses=1]
22 %conv442709 = zext i8 %ptrincdec3065 to i64 ; <i64> [#uses=1]
23 %shl45 = shl i64 %conv442709, 16 ; <i64> [#uses=1]
24 %conv632707 = zext i8 undef to i64 ; <i64> [#uses=1]
25 %or = or i64 %shl45, 0 ; <i64> [#uses=1]
26 %or55 = or i64 %or, %conv632707 ; <i64> [#uses=1]
27 %or64 = or i64 %or55, 0 ; <i64> [#uses=1]
28 %shr85 = lshr i64 %conv31, 25 ; <i64> [#uses=0]
29 %add = add i64 %conv11, 1508970993 ; <i64> [#uses=1]
30 %add95 = add i64 %add, 0 ; <i64> [#uses=1]
31 %add98 = add i64 %add95, 0 ; <i64> [#uses=1]
32 %add99 = add i64 %add98, %or64 ; <i64> [#uses=1]
33 %add134 = add i64 %add99, 0 ; <i64> [#uses=4]
35 %shl187 = shl i64 %add134, 21 ; <i64> [#uses=0]
36 %and203 = and i64 %add134, %conv31 ; <i64> [#uses=1]
37 %xor208 = xor i64 0, %and203 ; <i64> [#uses=1]
38 %add212 = add i64 0, %xor208 ; <i64> [#uses=1]
39 %add213 = add i64 %add212, 0 ; <i64> [#uses=1]
40 %add248 = add i64 %add213, 0 ; <i64> [#uses=3]
41 %conv2852690 = zext i8 undef to i64 ; <i64> [#uses=1]
42 %or277 = or i64 0, %conv2852690 ; <i64> [#uses=1]
43 %or286 = or i64 %or277, 0 ; <i64> [#uses=1]
44 %neg319 = xor i64 %add248, 4294967295 ; <i64> [#uses=1]
45 %and321 = and i64 %neg319, %conv31 ; <i64> [#uses=1]
46 %xor322 = xor i64 %and321, 0 ; <i64> [#uses=1]
47 %add314 = add i64 %conv, 2870763221 ; <i64> [#uses=1]
48 %add323 = add i64 %add314, %or286 ; <i64> [#uses=1]
49 %add326 = add i64 %add323, %xor322 ; <i64> [#uses=1]
50 %add327 = add i64 %add326, 0 ; <i64> [#uses=2]
51 %add362 = add i64 %add327, %conv19 ; <i64> [#uses=4]
52 %add365 = add i64 0, %add327 ; <i64> [#uses=3]
53 %shl409 = shl i64 %add362, 26 ; <i64> [#uses=0]
54 %and431 = and i64 %add362, %add248 ; <i64> [#uses=1]
55 %neg433 = xor i64 %add362, -1 ; <i64> [#uses=1]
56 %and435 = and i64 %add134, %neg433 ; <i64> [#uses=1]
57 %xor436 = xor i64 %and431, %and435 ; <i64> [#uses=1]
58 %add428 = add i64 %conv31, 3624381080 ; <i64> [#uses=1]
59 %add437 = add i64 %add428, 0 ; <i64> [#uses=1]
60 %add440 = add i64 %add437, %xor436 ; <i64> [#uses=1]
61 %add441 = add i64 %add440, 0 ; <i64> [#uses=1]
62 %shl443 = shl i64 %add365, 30 ; <i64> [#uses=1]
63 %and445 = lshr i64 %add365, 2 ; <i64> [#uses=1]
64 %shr446 = and i64 %and445, 1073741823 ; <i64> [#uses=1]
65 %or447 = or i64 %shr446, %shl443 ; <i64> [#uses=1]
66 %xor461 = xor i64 0, %or447 ; <i64> [#uses=1]
67 %add473 = add i64 %xor461, 0 ; <i64> [#uses=1]
68 %add479 = add i64 %add473, %add441 ; <i64> [#uses=3]
69 %conv4932682 = zext i8 undef to i64 ; <i64> [#uses=1]
70 %shl494 = shl i64 %conv4932682, 16 ; <i64> [#uses=1]
71 %ptrincdec4903012 = load i8, i8* null ; <i8> [#uses=1]
72 %conv5032681 = zext i8 %ptrincdec4903012 to i64 ; <i64> [#uses=1]
73 %shl504 = shl i64 %conv5032681, 8 ; <i64> [#uses=1]
74 %ptrincdec5003009 = load i8, i8* null ; <i8> [#uses=1]
75 %conv5132680 = zext i8 %ptrincdec5003009 to i64 ; <i64> [#uses=1]
76 %or495 = or i64 %shl494, 0 ; <i64> [#uses=1]
77 %or505 = or i64 %or495, %conv5132680 ; <i64> [#uses=1]
78 %or514 = or i64 %or505, %shl504 ; <i64> [#uses=1]
80 %or540 = or i64 undef, 0 ; <i64> [#uses=0]
81 %add542 = add i64 %add134, 310598401 ; <i64> [#uses=1]
82 %add551 = add i64 %add542, %or514 ; <i64> [#uses=1]
83 %add554 = add i64 %add551, 0 ; <i64> [#uses=1]
84 %add555 = add i64 %add554, 0 ; <i64> [#uses=1]
85 %or561 = or i64 undef, undef ; <i64> [#uses=1]
86 %or567 = or i64 undef, undef ; <i64> [#uses=1]
87 %and572 = lshr i64 %add479, 22 ; <i64> [#uses=1]
88 %shr573 = and i64 %and572, 1023 ; <i64> [#uses=1]
89 %or574 = or i64 %shr573, 0 ; <i64> [#uses=1]
90 %xor568 = xor i64 %or567, %or574 ; <i64> [#uses=1]
91 %xor575 = xor i64 %xor568, %or561 ; <i64> [#uses=1]
92 %add587 = add i64 %xor575, 0 ; <i64> [#uses=1]
93 %add593 = add i64 %add587, %add555 ; <i64> [#uses=1]
94 %ptrincdec6043000 = load i8, i8* null ; <i8> [#uses=1]
95 %conv6172676 = zext i8 %ptrincdec6043000 to i64 ; <i64> [#uses=1]
96 %shl618 = shl i64 %conv6172676, 8 ; <i64> [#uses=1]
97 %ptrincdec6142997 = load i8, i8* %ctg22996 ; <i8> [#uses=1]
98 %conv6272675 = zext i8 %ptrincdec6142997 to i64 ; <i64> [#uses=1]
99 %or619 = or i64 0, %conv6272675 ; <i64> [#uses=1]
100 %or628 = or i64 %or619, %shl618 ; <i64> [#uses=1]
101 %add656 = add i64 %add248, 607225278 ; <i64> [#uses=1]
102 %add665 = add i64 %add656, %or628 ; <i64> [#uses=1]
103 %add668 = add i64 %add665, 0 ; <i64> [#uses=1]
104 %add669 = add i64 %add668, 0 ; <i64> [#uses=1]
105 %and699 = and i64 %add479, %add365 ; <i64> [#uses=1]
106 %xor700 = xor i64 0, %and699 ; <i64> [#uses=1]
107 %add701 = add i64 0, %xor700 ; <i64> [#uses=1]
108 %add707 = add i64 %add701, %add669 ; <i64> [#uses=4]
109 %ptrincdec6242994 = load i8, i8* null ; <i8> [#uses=1]
110 %conv7122673 = zext i8 %ptrincdec6242994 to i64 ; <i64> [#uses=1]
111 %shl713 = shl i64 %conv7122673, 24 ; <i64> [#uses=1]
112 %conv7412670 = zext i8 undef to i64 ; <i64> [#uses=1]
113 %or723 = or i64 0, %shl713 ; <i64> [#uses=1]
114 %or733 = or i64 %or723, %conv7412670 ; <i64> [#uses=1]
115 %or742 = or i64 %or733, 0 ; <i64> [#uses=2]
116 %conv743 = trunc i64 %or742 to i32 ; <i32> [#uses=1]
118 %xor762 = xor i64 undef, 0 ; <i64> [#uses=0]
119 %add770 = add i64 %add362, 1426881987 ; <i64> [#uses=1]
120 %add779 = add i64 %add770, %or742 ; <i64> [#uses=1]
121 %add782 = add i64 %add779, 0 ; <i64> [#uses=1]
122 %add783 = add i64 %add782, 0 ; <i64> [#uses=1]
123 %shl785 = shl i64 %add707, 30 ; <i64> [#uses=1]
124 %and787 = lshr i64 %add707, 2 ; <i64> [#uses=1]
125 %shr788 = and i64 %and787, 1073741823 ; <i64> [#uses=1]
126 %or789 = or i64 %shr788, %shl785 ; <i64> [#uses=1]
127 %shl791 = shl i64 %add707, 19 ; <i64> [#uses=0]
128 %xor803 = xor i64 0, %or789 ; <i64> [#uses=1]
129 %and813 = and i64 %add593, %add479 ; <i64> [#uses=1]
130 %xor814 = xor i64 0, %and813 ; <i64> [#uses=1]
131 %add815 = add i64 %xor803, %xor814 ; <i64> [#uses=1]
132 %add821 = add i64 %add815, %add783 ; <i64> [#uses=1]
133 %add1160 = add i64 0, %add707 ; <i64> [#uses=0]
134 %add1157 = add i64 undef, undef ; <i64> [#uses=0]
135 %ptrincdec11742940 = load i8, i8* null ; <i8> [#uses=1]
136 %conv11872651 = zext i8 %ptrincdec11742940 to i64 ; <i64> [#uses=1]
137 %shl1188 = shl i64 %conv11872651, 8 ; <i64> [#uses=1]
138 %or1198 = or i64 0, %shl1188 ; <i64> [#uses=1]
140 %add1226 = add i64 %or1198, 3248222580 ; <i64> [#uses=1]
141 %add1235 = add i64 %add1226, 0 ; <i64> [#uses=1]
142 %add1238 = add i64 %add1235, 0 ; <i64> [#uses=1]
143 %add1239 = add i64 %add1238, 0 ; <i64> [#uses=1]
147 %add821.pn = phi i64 [ %add821, %while.body ], [ undef, %for.body ] ; <i64> [#uses=0]
148 %add1239.pn = phi i64 [ %add1239, %while.body ], [ 0, %for.body ] ; <i64> [#uses=0]
155 %indvar.next2788 = add i64 %indvar2787, 1 ; <i64> [#uses=1]
167 %arrayidx5 = getelementptr i32, i32* %arr, i64 1 ; <i32*> [#uses=1]
168 %arrayidx9 = getelementptr i32, i32* %arr, i64 2 ; <i32*> [#uses=2]
169 %arrayidx13 = getelementptr i32, i32* %arr, i64 3 ; <i32*> [#uses=2]
170 %arrayidx25 = getelementptr i32, i32* %arr, i64 6 ; <i32*> [#uses=1]
171 %arrayidx29 = getelementptr i32, i32* %arr, i64 7 ; <i32*> [#uses=1]
175 %tmp3 = load i32, i32* %arr ; <i32> [#uses=2]
176 %conv = zext i32 %tmp3 to i64 ; <i64> [#uses=1]
177 %tmp10 = load i32, i32* %arrayidx9 ; <i32> [#uses=1]
178 %conv11 = zext i32 %tmp10 to i64 ; <i64> [#uses=1]
179 %tmp14 = load i32, i32* %arrayidx13 ; <i32> [#uses=3]
180 %conv15 = zext i32 %tmp14 to i64 ; <i64> [#uses=2]
181 %tmp18 = load i32, i32* undef ; <i32> [#uses=2]
182 %conv19 = zext i32 %tmp18 to i64 ; <i64> [#uses=1]
183 %conv23 = zext i32 undef to i64 ; <i64> [#uses=1]
184 %tmp26 = load i32, i32* %arrayidx25 ; <i32> [#uses=1]
185 %conv27 = zext i32 %tmp26 to i64 ; <i64> [#uses=1]
186 %tmp30 = load i32, i32* %arrayidx29 ; <i32> [#uses=2]
187 %conv31 = zext i32 %tmp30 to i64 ; <i64> [#uses=5]
188 %shl72 = shl i64 %conv31, 26 ; <i64> [#uses=1]
189 %shr = lshr i64 %conv31, 6 ; <i64> [#uses=1]
190 %or74 = or i64 %shl72, %shr ; <i64> [#uses=1]
191 %shr85 = lshr i64 %conv31, 25 ; <i64> [#uses=0]
192 %xor87 = xor i64 0, %or74 ; <i64> [#uses=1]
193 %and902706 = and i32 %tmp30, %tmp3 ; <i32> [#uses=1]
194 %and90 = zext i32 %and902706 to i64 ; <i64> [#uses=1]
195 %xor94 = xor i64 0, %and90 ; <i64> [#uses=1]
196 %add = add i64 %conv11, 1508970993 ; <i64> [#uses=1]
197 %add95 = add i64 %add, %xor94 ; <i64> [#uses=1]
198 %add98 = add i64 %add95, %xor87 ; <i64> [#uses=1]
199 %add99 = add i64 %add98, 0 ; <i64> [#uses=2]
200 %xor130 = zext i32 undef to i64 ; <i64> [#uses=1]
201 %add134 = add i64 %add99, %conv27 ; <i64> [#uses=2]
202 %add131 = add i64 %xor130, 0 ; <i64> [#uses=1]
203 %add137 = add i64 %add131, %add99 ; <i64> [#uses=5]
204 %conv1422700 = zext i8 undef to i64 ; <i64> [#uses=1]
205 %shl143 = shl i64 %conv1422700, 24 ; <i64> [#uses=1]
206 %ptrincdec1393051 = load i8, i8* undef ; <i8> [#uses=1]
207 %conv1512699 = zext i8 %ptrincdec1393051 to i64 ; <i64> [#uses=1]
208 %shl152 = shl i64 %conv1512699, 16 ; <i64> [#uses=1]
209 %conv1712697 = zext i8 undef to i64 ; <i64> [#uses=1]
210 %or153 = or i64 %shl152, %shl143 ; <i64> [#uses=1]
211 %or163 = or i64 %or153, %conv1712697 ; <i64> [#uses=1]
212 %or172 = or i64 %or163, 0 ; <i64> [#uses=1]
213 %and203 = and i64 %add134, %conv31 ; <i64> [#uses=1]
214 %xor208 = xor i64 0, %and203 ; <i64> [#uses=1]
215 %add200 = add i64 0, 2453635748 ; <i64> [#uses=1]
216 %add209 = add i64 %add200, %or172 ; <i64> [#uses=1]
217 %add212 = add i64 %add209, %xor208 ; <i64> [#uses=1]
218 %add213 = add i64 %add212, 0 ; <i64> [#uses=2]
219 %shl228 = shl i64 %add137, 10 ; <i64> [#uses=1]
220 %and230 = lshr i64 %add137, 22 ; <i64> [#uses=1]
221 %shr231 = and i64 %and230, 1023 ; <i64> [#uses=1]
222 %or232 = or i64 %shr231, %shl228 ; <i64> [#uses=1]
223 %xor226 = xor i64 0, %or232 ; <i64> [#uses=1]
224 %xor233 = xor i64 %xor226, 0 ; <i64> [#uses=1]
225 %and2362695 = zext i32 undef to i64 ; <i64> [#uses=1]
226 %xor240 = and i64 %add137, %and2362695 ; <i64> [#uses=1]
227 %and2432694 = and i32 %tmp18, %tmp14 ; <i32> [#uses=1]
228 %and243 = zext i32 %and2432694 to i64 ; <i64> [#uses=1]
229 %xor244 = xor i64 %xor240, %and243 ; <i64> [#uses=1]
230 %add248 = add i64 %add213, %conv23 ; <i64> [#uses=2]
231 %add245 = add i64 %xor233, %xor244 ; <i64> [#uses=1]
232 %add251 = add i64 %add245, %add213 ; <i64> [#uses=1]
233 %conv2752691 = zext i8 undef to i64 ; <i64> [#uses=1]
234 %shl276 = shl i64 %conv2752691, 8 ; <i64> [#uses=0]
235 %and317 = and i64 %add248, %add134 ; <i64> [#uses=1]
236 %neg319 = xor i64 %add248, 4294967295 ; <i64> [#uses=1]
237 %and321 = and i64 %neg319, %conv31 ; <i64> [#uses=1]
238 %xor322 = xor i64 %and321, %and317 ; <i64> [#uses=1]
239 %add314 = add i64 %conv, 2870763221 ; <i64> [#uses=1]
240 %add323 = add i64 %add314, 0 ; <i64> [#uses=1]
241 %add326 = add i64 %add323, %xor322 ; <i64> [#uses=1]
242 %add327 = add i64 %add326, 0 ; <i64> [#uses=2]
243 %and3502689 = xor i64 %add137, %conv15 ; <i64> [#uses=1]
244 %xor354 = and i64 %add251, %and3502689 ; <i64> [#uses=1]
245 %and357 = and i64 %add137, %conv15 ; <i64> [#uses=1]
246 %xor358 = xor i64 %xor354, %and357 ; <i64> [#uses=1]
247 %add362 = add i64 %add327, %conv19 ; <i64> [#uses=1]
248 %add359 = add i64 0, %xor358 ; <i64> [#uses=1]
249 %add365 = add i64 %add359, %add327 ; <i64> [#uses=1]
250 %add770 = add i64 %add362, 1426881987 ; <i64> [#uses=1]
251 %add779 = add i64 %add770, 0 ; <i64> [#uses=1]
252 %add782 = add i64 %add779, 0 ; <i64> [#uses=1]
253 %add783 = add i64 %add782, 0 ; <i64> [#uses=2]
254 %add818 = add i64 %add783, %add365 ; <i64> [#uses=1]
255 %add821 = add i64 0, %add783 ; <i64> [#uses=1]
257 %add1046 = add i64 undef, undef ; <i64> [#uses=1]
258 %add1160 = add i64 undef, undef ; <i64> [#uses=1]
260 %add1235 = add i64 0, %add818 ; <i64> [#uses=1]
261 %add1238 = add i64 %add1235, 0 ; <i64> [#uses=1]
262 %add1239 = add i64 %add1238, 0 ; <i64> [#uses=1]
266 %h.0 = phi i64 [ undef, %while.body ], [ %add2035, %for.body ] ; <i64> [#uses=1]
267 %g.0 = phi i64 [ %add1046, %while.body ], [ undef, %for.body ] ; <i64> [#uses=1]
268 %f.0 = phi i64 [ %add1160, %while.body ], [ undef, %for.body ] ; <i64> [#uses=1]
269 %add821.pn = phi i64 [ %add821, %while.body ], [ undef, %for.body ] ; <i64> [#uses=0]
270 %add1239.pn2648 = phi i64 [ %add1239, %while.body ], [ undef, %for.body ] ; <i64> [#uses=0]
271 %d.0 = phi i64 [ undef, %while.body ], [ %add2038, %for.body ] ; <i64> [#uses=2]
275 %conv1390 = zext i32 undef to i64 ; <i64> [#uses=1]
276 %add1375 = add i64 0, %h.0 ; <i64> [#uses=1]
277 %add1384 = add i64 %add1375, 0 ; <i64> [#uses=1]
278 %add1391 = add i64 %add1384, %conv1390 ; <i64> [#uses=1]
279 %add1392 = add i64 %add1391, 0 ; <i64> [#uses=2]
280 %or1411 = or i64 0, undef ; <i64> [#uses=1]
281 %xor1405 = xor i64 0, %or1411 ; <i64> [#uses=1]
282 %xor1412 = xor i64 %xor1405, 0 ; <i64> [#uses=1]
283 %add1427 = add i64 %add1392, %d.0 ; <i64> [#uses=1]
284 %add1424 = add i64 %xor1412, 0 ; <i64> [#uses=1]
285 %add1430 = add i64 %add1424, %add1392 ; <i64> [#uses=5]
286 %tmp1438 = load i32, i32* undef ; <i32> [#uses=1]
287 %conv1439 = zext i32 %tmp1438 to i64 ; <i64> [#uses=4]
288 %shl1441 = shl i64 %conv1439, 25 ; <i64> [#uses=1]
289 %shr1444 = lshr i64 %conv1439, 7 ; <i64> [#uses=1]
290 %or1445 = or i64 %shl1441, %shr1444 ; <i64> [#uses=1]
291 %shr1450 = lshr i64 %conv1439, 18 ; <i64> [#uses=1]
292 %or1451 = or i64 0, %shr1450 ; <i64> [#uses=1]
293 %shr1454 = lshr i64 %conv1439, 3 ; <i64> [#uses=1]
294 %xor1452 = xor i64 %or1451, %shr1454 ; <i64> [#uses=1]
295 %xor1455 = xor i64 %xor1452, %or1445 ; <i64> [#uses=1]
296 %conv1464 = zext i32 undef to i64 ; <i64> [#uses=4]
297 %shl1466 = shl i64 %conv1464, 15 ; <i64> [#uses=1]
298 %shr1469 = lshr i64 %conv1464, 17 ; <i64> [#uses=1]
299 %or1470 = or i64 %shl1466, %shr1469 ; <i64> [#uses=1]
300 %shr1475 = lshr i64 %conv1464, 19 ; <i64> [#uses=1]
301 %or1476 = or i64 0, %shr1475 ; <i64> [#uses=1]
302 %shr1479 = lshr i64 %conv1464, 10 ; <i64> [#uses=1]
303 %xor1477 = xor i64 %or1476, %shr1479 ; <i64> [#uses=1]
304 %xor1480 = xor i64 %xor1477, %or1470 ; <i64> [#uses=1]
305 %tmp1499 = load i32, i32* null ; <i32> [#uses=1]
306 %conv1500 = zext i32 %tmp1499 to i64 ; <i64> [#uses=1]
307 %add1491 = add i64 %conv1500, 0 ; <i64> [#uses=1]
308 %add1501 = add i64 %add1491, %xor1455 ; <i64> [#uses=1]
309 %add1502 = add i64 %add1501, %xor1480 ; <i64> [#uses=1]
310 %conv1504 = and i64 %add1502, 4294967295 ; <i64> [#uses=1]
311 %tmp1541 = load i32, i32* undef ; <i32> [#uses=1]
312 %conv1542 = zext i32 %tmp1541 to i64 ; <i64> [#uses=1]
313 %add1527 = add i64 %conv1542, %g.0 ; <i64> [#uses=1]
314 %add1536 = add i64 %add1527, 0 ; <i64> [#uses=1]
315 %add1543 = add i64 %add1536, %conv1504 ; <i64> [#uses=1]
316 %add1544 = add i64 %add1543, 0 ; <i64> [#uses=1]
317 %shl1546 = shl i64 %add1430, 30 ; <i64> [#uses=1]
318 %and1548 = lshr i64 %add1430, 2 ; <i64> [#uses=1]
319 %shr1549 = and i64 %and1548, 1073741823 ; <i64> [#uses=1]
320 %or1550 = or i64 %shr1549, %shl1546 ; <i64> [#uses=1]
321 %shl1552 = shl i64 %add1430, 19 ; <i64> [#uses=1]
322 %or1556 = or i64 0, %shl1552 ; <i64> [#uses=1]
323 %shl1559 = shl i64 %add1430, 10 ; <i64> [#uses=1]
324 %or1563 = or i64 0, %shl1559 ; <i64> [#uses=1]
325 %xor1557 = xor i64 %or1556, %or1563 ; <i64> [#uses=1]
326 %xor1564 = xor i64 %xor1557, %or1550 ; <i64> [#uses=1]
327 %add1576 = add i64 %xor1564, 0 ; <i64> [#uses=1]
328 %add1582 = add i64 %add1576, %add1544 ; <i64> [#uses=3]
330 %tmp1693 = load i32, i32* undef ; <i32> [#uses=1]
331 %conv1694 = zext i32 %tmp1693 to i64 ; <i64> [#uses=1]
332 %add1679 = add i64 %conv1694, %f.0 ; <i64> [#uses=1]
333 %add1688 = add i64 %add1679, 0 ; <i64> [#uses=1]
334 %add1695 = add i64 %add1688, 0 ; <i64> [#uses=1]
335 %add1696 = add i64 %add1695, 0 ; <i64> [#uses=1]
336 %shl1698 = shl i64 %add1582, 30 ; <i64> [#uses=0]
337 %shl1704 = shl i64 %add1582, 19 ; <i64> [#uses=0]
338 %add1734 = add i64 0, %add1696 ; <i64> [#uses=1]
339 %add1983 = add i64 0, %add1427 ; <i64> [#uses=1]
340 %add1992 = add i64 %add1983, 0 ; <i64> [#uses=1]
341 %add1999 = add i64 %add1992, 0 ; <i64> [#uses=1]
342 %add2000 = add i64 %add1999, 0 ; <i64> [#uses=2]
343 %and2030 = and i64 %add1734, %add1582 ; <i64> [#uses=1]
344 %xor2031 = xor i64 0, %and2030 ; <i64> [#uses=1]
345 %add2035 = add i64 %add2000, %add1430 ; <i64> [#uses=1]
346 %add2032 = add i64 0, %xor2031 ; <i64> [#uses=1]
347 %add2038 = add i64 %add2032, %add2000 ; <i64> [#uses=1]
354 %d.02641 = trunc i64 %d.0 to i32 ; <i32> [#uses=1]
355 %conv2524 = add i32 %tmp14, %d.02641 ; <i32> [#uses=1]
357 %exitcond2789 = icmp eq i64 undef, %num ; <i1> [#uses=1]