• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2; RUN: llc < %s -mtriple=x86_64-unknown | FileCheck %s
3
4declare { i8, i64 } @llvm.x86.subborrow.64(i8, i64, i64)
5declare { i64, i1 } @llvm.usub.with.overflow.i64(i64, i64)
6
7define i128 @sub128(i128 %a, i128 %b) nounwind {
8; CHECK-LABEL: sub128:
9; CHECK:       # %bb.0: # %entry
10; CHECK-NEXT:    movq %rdi, %rax
11; CHECK-NEXT:    subq %rdx, %rax
12; CHECK-NEXT:    sbbq %rcx, %rsi
13; CHECK-NEXT:    movq %rsi, %rdx
14; CHECK-NEXT:    retq
15entry:
16  %0 = sub i128 %a, %b
17  ret i128 %0
18}
19
20define i256 @sub256(i256 %a, i256 %b) nounwind {
21; CHECK-LABEL: sub256:
22; CHECK:       # %bb.0: # %entry
23; CHECK-NEXT:    movq %rdi, %rax
24; CHECK-NEXT:    subq %r9, %rsi
25; CHECK-NEXT:    sbbq {{[0-9]+}}(%rsp), %rdx
26; CHECK-NEXT:    sbbq {{[0-9]+}}(%rsp), %rcx
27; CHECK-NEXT:    sbbq {{[0-9]+}}(%rsp), %r8
28; CHECK-NEXT:    movq %rdx, 8(%rdi)
29; CHECK-NEXT:    movq %rsi, (%rdi)
30; CHECK-NEXT:    movq %rcx, 16(%rdi)
31; CHECK-NEXT:    movq %r8, 24(%rdi)
32; CHECK-NEXT:    retq
33entry:
34  %0 = sub i256 %a, %b
35  ret i256 %0
36}
37
38%S = type { [4 x i64] }
39
40define %S @negate(%S* nocapture readonly %this) {
41; CHECK-LABEL: negate:
42; CHECK:       # %bb.0: # %entry
43; CHECK-NEXT:    movq %rdi, %rax
44; CHECK-NEXT:    xorl %r8d, %r8d
45; CHECK-NEXT:    xorl %edx, %edx
46; CHECK-NEXT:    subq (%rsi), %rdx
47; CHECK-NEXT:    movl $0, %edi
48; CHECK-NEXT:    sbbq 8(%rsi), %rdi
49; CHECK-NEXT:    movl $0, %ecx
50; CHECK-NEXT:    sbbq 16(%rsi), %rcx
51; CHECK-NEXT:    sbbq 24(%rsi), %r8
52; CHECK-NEXT:    movq %rdx, (%rax)
53; CHECK-NEXT:    movq %rdi, 8(%rax)
54; CHECK-NEXT:    movq %rcx, 16(%rax)
55; CHECK-NEXT:    movq %r8, 24(%rax)
56; CHECK-NEXT:    retq
57entry:
58  %0 = getelementptr inbounds %S, %S* %this, i64 0, i32 0, i64 0
59  %1 = load i64, i64* %0, align 8
60  %2 = xor i64 %1, -1
61  %3 = zext i64 %2 to i128
62  %4 = add nuw nsw i128 %3, 1
63  %5 = trunc i128 %4 to i64
64  %6 = lshr i128 %4, 64
65  %7 = getelementptr inbounds %S, %S* %this, i64 0, i32 0, i64 1
66  %8 = load i64, i64* %7, align 8
67  %9 = xor i64 %8, -1
68  %10 = zext i64 %9 to i128
69  %11 = add nuw nsw i128 %6, %10
70  %12 = trunc i128 %11 to i64
71  %13 = lshr i128 %11, 64
72  %14 = getelementptr inbounds %S, %S* %this, i64 0, i32 0, i64 2
73  %15 = load i64, i64* %14, align 8
74  %16 = xor i64 %15, -1
75  %17 = zext i64 %16 to i128
76  %18 = add nuw nsw i128 %13, %17
77  %19 = lshr i128 %18, 64
78  %20 = trunc i128 %18 to i64
79  %21 = getelementptr inbounds %S, %S* %this, i64 0, i32 0, i64 3
80  %22 = load i64, i64* %21, align 8
81  %23 = xor i64 %22, -1
82  %24 = zext i64 %23 to i128
83  %25 = add nuw nsw i128 %19, %24
84  %26 = trunc i128 %25 to i64
85  %27 = insertvalue [4 x i64] undef, i64 %5, 0
86  %28 = insertvalue [4 x i64] %27, i64 %12, 1
87  %29 = insertvalue [4 x i64] %28, i64 %20, 2
88  %30 = insertvalue [4 x i64] %29, i64 %26, 3
89  %31 = insertvalue %S undef, [4 x i64] %30, 0
90  ret %S %31
91}
92
93define %S @sub(%S* nocapture readonly %this, %S %arg.b) {
94; CHECK-LABEL: sub:
95; CHECK:       # %bb.0: # %entry
96; CHECK-NEXT:    movq %rdi, %rax
97; CHECK-NEXT:    movq (%rsi), %r10
98; CHECK-NEXT:    movq 8(%rsi), %rdi
99; CHECK-NEXT:    subq %rdx, %r10
100; CHECK-NEXT:    setae %dl
101; CHECK-NEXT:    addb $-1, %dl
102; CHECK-NEXT:    adcq $0, %rdi
103; CHECK-NEXT:    setb %dl
104; CHECK-NEXT:    movzbl %dl, %r11d
105; CHECK-NEXT:    notq %rcx
106; CHECK-NEXT:    addq %rdi, %rcx
107; CHECK-NEXT:    adcq 16(%rsi), %r11
108; CHECK-NEXT:    setb %dl
109; CHECK-NEXT:    movzbl %dl, %edx
110; CHECK-NEXT:    notq %r8
111; CHECK-NEXT:    addq %r11, %r8
112; CHECK-NEXT:    adcq 24(%rsi), %rdx
113; CHECK-NEXT:    notq %r9
114; CHECK-NEXT:    addq %rdx, %r9
115; CHECK-NEXT:    movq %r10, (%rax)
116; CHECK-NEXT:    movq %rcx, 8(%rax)
117; CHECK-NEXT:    movq %r8, 16(%rax)
118; CHECK-NEXT:    movq %r9, 24(%rax)
119; CHECK-NEXT:    retq
120entry:
121  %0 = extractvalue %S %arg.b, 0
122  %.elt6 = extractvalue [4 x i64] %0, 1
123  %.elt8 = extractvalue [4 x i64] %0, 2
124  %.elt10 = extractvalue [4 x i64] %0, 3
125  %.elt = extractvalue [4 x i64] %0, 0
126  %1 = getelementptr inbounds %S, %S* %this, i64 0, i32 0, i64 0
127  %2 = load i64, i64* %1, align 8
128  %3 = zext i64 %2 to i128
129  %4 = add nuw nsw i128 %3, 1
130  %5 = xor i64 %.elt, -1
131  %6 = zext i64 %5 to i128
132  %7 = add nuw nsw i128 %4, %6
133  %8 = trunc i128 %7 to i64
134  %9 = lshr i128 %7, 64
135  %10 = getelementptr inbounds %S, %S* %this, i64 0, i32 0, i64 1
136  %11 = load i64, i64* %10, align 8
137  %12 = zext i64 %11 to i128
138  %13 = add nuw nsw i128 %9, %12
139  %14 = xor i64 %.elt6, -1
140  %15 = zext i64 %14 to i128
141  %16 = add nuw nsw i128 %13, %15
142  %17 = trunc i128 %16 to i64
143  %18 = lshr i128 %16, 64
144  %19 = getelementptr inbounds %S, %S* %this, i64 0, i32 0, i64 2
145  %20 = load i64, i64* %19, align 8
146  %21 = zext i64 %20 to i128
147  %22 = add nuw nsw i128 %18, %21
148  %23 = xor i64 %.elt8, -1
149  %24 = zext i64 %23 to i128
150  %25 = add nuw nsw i128 %22, %24
151  %26 = lshr i128 %25, 64
152  %27 = trunc i128 %25 to i64
153  %28 = getelementptr inbounds %S, %S* %this, i64 0, i32 0, i64 3
154  %29 = load i64, i64* %28, align 8
155  %30 = zext i64 %29 to i128
156  %31 = add nuw nsw i128 %26, %30
157  %32 = xor i64 %.elt10, -1
158  %33 = zext i64 %32 to i128
159  %34 = add nuw nsw i128 %31, %33
160  %35 = trunc i128 %34 to i64
161  %36 = insertvalue [4 x i64] undef, i64 %8, 0
162  %37 = insertvalue [4 x i64] %36, i64 %17, 1
163  %38 = insertvalue [4 x i64] %37, i64 %27, 2
164  %39 = insertvalue [4 x i64] %38, i64 %35, 3
165  %40 = insertvalue %S undef, [4 x i64] %39, 0
166  ret %S %40
167}
168
169declare {i64, i1} @llvm.uadd.with.overflow(i64, i64)
170declare {i64, i1} @llvm.usub.with.overflow(i64, i64)
171
172define i64 @sub_from_carry(i64 %x, i64 %y, i64* %valout, i64 %z) {
173; CHECK-LABEL: sub_from_carry:
174; CHECK:       # %bb.0:
175; CHECK-NEXT:    movq %rcx, %rax
176; CHECK-NEXT:    negq %rax
177; CHECK-NEXT:    addq %rsi, %rdi
178; CHECK-NEXT:    movq %rdi, (%rdx)
179; CHECK-NEXT:    adcq $0, %rax
180; CHECK-NEXT:    retq
181  %agg = call {i64, i1} @llvm.uadd.with.overflow(i64 %x, i64 %y)
182  %val = extractvalue {i64, i1} %agg, 0
183  %ov = extractvalue {i64, i1} %agg, 1
184  store i64 %val, i64* %valout, align 4
185  %carry = zext i1 %ov to i64
186  %res = sub i64 %carry, %z
187  ret i64 %res
188}
189
190%struct.U320 = type { [5 x i64] }
191
192define i32 @sub_U320_without_i128_or(%struct.U320* nocapture dereferenceable(40) %0, i64 %1, i64 %2, i64 %3, i64 %4, i64 %5) {
193; CHECK-LABEL: sub_U320_without_i128_or:
194; CHECK:       # %bb.0:
195; CHECK-NEXT:    subq %rsi, (%rdi)
196; CHECK-NEXT:    sbbq %rdx, 8(%rdi)
197; CHECK-NEXT:    sbbq %rcx, 16(%rdi)
198; CHECK-NEXT:    sbbq %r8, 24(%rdi)
199; CHECK-NEXT:    sbbq %r9, 32(%rdi)
200; CHECK-NEXT:    setb %al
201; CHECK-NEXT:    movzbl %al, %eax
202; CHECK-NEXT:    retq
203  %7 = getelementptr inbounds %struct.U320, %struct.U320* %0, i64 0, i32 0, i64 0
204  %8 = load i64, i64* %7, align 8
205  %9 = getelementptr inbounds %struct.U320, %struct.U320* %0, i64 0, i32 0, i64 1
206  %10 = load i64, i64* %9, align 8
207  %11 = getelementptr inbounds %struct.U320, %struct.U320* %0, i64 0, i32 0, i64 2
208  %12 = load i64, i64* %11, align 8
209  %13 = getelementptr inbounds %struct.U320, %struct.U320* %0, i64 0, i32 0, i64 3
210  %14 = load i64, i64* %13, align 8
211  %15 = getelementptr inbounds %struct.U320, %struct.U320* %0, i64 0, i32 0, i64 4
212  %16 = load i64, i64* %15, align 8
213  %17 = sub i64 %8, %1
214  %18 = sub i64 %10, %2
215  %19 = icmp ult i64 %8, %1
216  %20 = zext i1 %19 to i64
217  %21 = sub i64 %18, %20
218  %22 = sub i64 %12, %3
219  %23 = icmp ult i64 %10, %2
220  %24 = icmp ult i64 %18, %20
221  %25 = or i1 %23, %24
222  %26 = zext i1 %25 to i64
223  %27 = sub i64 %22, %26
224  %28 = sub i64 %14, %4
225  %29 = icmp ult i64 %12, %3
226  %30 = icmp ult i64 %22, %26
227  %31 = or i1 %29, %30
228  %32 = zext i1 %31 to i64
229  %33 = sub i64 %28, %32
230  %34 = sub i64 %16, %5
231  %35 = icmp ult i64 %14, %4
232  %36 = icmp ult i64 %28, %32
233  %37 = or i1 %35, %36
234  %38 = zext i1 %37 to i64
235  %39 = sub i64 %34, %38
236  store i64 %17, i64* %7, align 8
237  store i64 %21, i64* %9, align 8
238  store i64 %27, i64* %11, align 8
239  store i64 %33, i64* %13, align 8
240  store i64 %39, i64* %15, align 8
241  %40 = icmp ult i64 %16, %5
242  %41 = icmp ult i64 %34, %38
243  %42 = or i1 %40, %41
244  %43 = zext i1 %42 to i32
245  ret i32 %43
246}
247
248define i32 @sub_U320_usubo(%struct.U320* nocapture dereferenceable(40) %0, i64 %1, i64 %2, i64 %3, i64 %4, i64 %5) {
249; CHECK-LABEL: sub_U320_usubo:
250; CHECK:       # %bb.0:
251; CHECK-NEXT:    subq %rsi, (%rdi)
252; CHECK-NEXT:    sbbq %rdx, 8(%rdi)
253; CHECK-NEXT:    sbbq %rcx, 16(%rdi)
254; CHECK-NEXT:    sbbq %r8, 24(%rdi)
255; CHECK-NEXT:    sbbq %r9, 32(%rdi)
256; CHECK-NEXT:    setb %al
257; CHECK-NEXT:    movzbl %al, %eax
258; CHECK-NEXT:    retq
259  %7 = getelementptr inbounds %struct.U320, %struct.U320* %0, i64 0, i32 0, i64 0
260  %8 = load i64, i64* %7, align 8
261  %9 = getelementptr inbounds %struct.U320, %struct.U320* %0, i64 0, i32 0, i64 1
262  %10 = load i64, i64* %9, align 8
263  %11 = getelementptr inbounds %struct.U320, %struct.U320* %0, i64 0, i32 0, i64 2
264  %12 = load i64, i64* %11, align 8
265  %13 = getelementptr inbounds %struct.U320, %struct.U320* %0, i64 0, i32 0, i64 3
266  %14 = load i64, i64* %13, align 8
267  %15 = getelementptr inbounds %struct.U320, %struct.U320* %0, i64 0, i32 0, i64 4
268  %16 = load i64, i64* %15, align 8
269  %17 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %8, i64 %1)
270  %18 = extractvalue { i64, i1 } %17, 1
271  %19 = extractvalue { i64, i1 } %17, 0
272  %20 = zext i1 %18 to i64
273  %21 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %10, i64 %2)
274  %22 = extractvalue { i64, i1 } %21, 1
275  %23 = extractvalue { i64, i1 } %21, 0
276  %24 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %23, i64 %20)
277  %25 = extractvalue { i64, i1 } %24, 1
278  %26 = extractvalue { i64, i1 } %24, 0
279  %27 = or i1 %22, %25
280  %28 = zext i1 %27 to i64
281  %29 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %12, i64 %3)
282  %30 = extractvalue { i64, i1 } %29, 1
283  %31 = extractvalue { i64, i1 } %29, 0
284  %32 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %31, i64 %28)
285  %33 = extractvalue { i64, i1 } %32, 1
286  %34 = extractvalue { i64, i1 } %32, 0
287  %35 = or i1 %30, %33
288  %36 = zext i1 %35 to i64
289  %37 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %14, i64 %4)
290  %38 = extractvalue { i64, i1 } %37, 1
291  %39 = extractvalue { i64, i1 } %37, 0
292  %40 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %39, i64 %36)
293  %41 = extractvalue { i64, i1 } %40, 1
294  %42 = extractvalue { i64, i1 } %40, 0
295  %43 = or i1 %38, %41
296  %44 = zext i1 %43 to i64
297  %45 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %16, i64 %5)
298  %46 = extractvalue { i64, i1 } %45, 1
299  %47 = extractvalue { i64, i1 } %45, 0
300  %48 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %47, i64 %44)
301  %49 = extractvalue { i64, i1 } %48, 1
302  %50 = extractvalue { i64, i1 } %48, 0
303  %51 = or i1 %46, %49
304  store i64 %19, i64* %7, align 8
305  store i64 %26, i64* %9, align 8
306  store i64 %34, i64* %11, align 8
307  store i64 %42, i64* %13, align 8
308  store i64 %50, i64* %15, align 8
309  %52 = zext i1 %51 to i32
310  ret i32 %52
311}
312
313%struct.U192 = type { [3 x i64] }
314
315define void @PR39464(%struct.U192* noalias nocapture sret(%struct.U192) %0, %struct.U192* nocapture readonly dereferenceable(24) %1, %struct.U192* nocapture readonly dereferenceable(24) %2) {
316; CHECK-LABEL: PR39464:
317; CHECK:       # %bb.0:
318; CHECK-NEXT:    movq %rdi, %rax
319; CHECK-NEXT:    movq (%rsi), %rcx
320; CHECK-NEXT:    subq (%rdx), %rcx
321; CHECK-NEXT:    movq %rcx, (%rdi)
322; CHECK-NEXT:    movq 8(%rsi), %rcx
323; CHECK-NEXT:    sbbq 8(%rdx), %rcx
324; CHECK-NEXT:    movq %rcx, 8(%rdi)
325; CHECK-NEXT:    movq 16(%rsi), %rcx
326; CHECK-NEXT:    sbbq 16(%rdx), %rcx
327; CHECK-NEXT:    movq %rcx, 16(%rdi)
328; CHECK-NEXT:    retq
329  %4 = getelementptr inbounds %struct.U192, %struct.U192* %1, i64 0, i32 0, i64 0
330  %5 = load i64, i64* %4, align 8
331  %6 = getelementptr inbounds %struct.U192, %struct.U192* %2, i64 0, i32 0, i64 0
332  %7 = load i64, i64* %6, align 8
333  %8 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %5, i64 %7)
334  %9 = extractvalue { i64, i1 } %8, 1
335  %10 = extractvalue { i64, i1 } %8, 0
336  %11 = zext i1 %9 to i64
337  %12 = getelementptr inbounds %struct.U192, %struct.U192* %0, i64 0, i32 0, i64 0
338  store i64 %10, i64* %12, align 8
339  %13 = getelementptr inbounds %struct.U192, %struct.U192* %1, i64 0, i32 0, i64 1
340  %14 = load i64, i64* %13, align 8
341  %15 = getelementptr inbounds %struct.U192, %struct.U192* %2, i64 0, i32 0, i64 1
342  %16 = load i64, i64* %15, align 8
343  %17 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %14, i64 %16)
344  %18 = extractvalue { i64, i1 } %17, 1
345  %19 = extractvalue { i64, i1 } %17, 0
346  %20 = tail call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %19, i64 %11)
347  %21 = extractvalue { i64, i1 } %20, 1
348  %22 = extractvalue { i64, i1 } %20, 0
349  %23 = or i1 %18, %21
350  %24 = zext i1 %23 to i64
351  %25 = getelementptr inbounds %struct.U192, %struct.U192* %0, i64 0, i32 0, i64 1
352  store i64 %22, i64* %25, align 8
353  %26 = getelementptr inbounds %struct.U192, %struct.U192* %1, i64 0, i32 0, i64 2
354  %27 = load i64, i64* %26, align 8
355  %28 = getelementptr inbounds %struct.U192, %struct.U192* %2, i64 0, i32 0, i64 2
356  %29 = load i64, i64* %28, align 8
357  %30 = sub i64 %27, %29
358  %31 = sub i64 %30, %24
359  %32 = getelementptr inbounds %struct.U192, %struct.U192* %0, i64 0, i32 0, i64 2
360  store i64 %31, i64* %32, align 8
361  ret void
362}
363
364%uint128 = type { i64, i64 }
365%uint256 = type { %uint128, %uint128 }
366
367; The 256-bit subtraction implementation using two inlined usubo procedures for U128 type { i64, i64 }.
368; This is similar to how LLVM legalize types in CodeGen.
369define void @sub_U256_without_i128_or_recursive(%uint256* sret(%uint256) %0, %uint256* %1, %uint256* %2) nounwind {
370; CHECK-LABEL: sub_U256_without_i128_or_recursive:
371; CHECK:       # %bb.0:
372; CHECK-NEXT:    movq %rdi, %rax
373; CHECK-NEXT:    movq (%rsi), %r9
374; CHECK-NEXT:    movq 8(%rsi), %r10
375; CHECK-NEXT:    subq (%rdx), %r9
376; CHECK-NEXT:    sbbq 8(%rdx), %r10
377; CHECK-NEXT:    setb %r8b
378; CHECK-NEXT:    movq 16(%rsi), %rcx
379; CHECK-NEXT:    movq 24(%rsi), %rsi
380; CHECK-NEXT:    xorl %edi, %edi
381; CHECK-NEXT:    subq 16(%rdx), %rcx
382; CHECK-NEXT:    setb %dil
383; CHECK-NEXT:    subq 24(%rdx), %rsi
384; CHECK-NEXT:    movzbl %r8b, %edx
385; CHECK-NEXT:    subq %rdx, %rcx
386; CHECK-NEXT:    sbbq %rdi, %rsi
387; CHECK-NEXT:    movq %r9, (%rax)
388; CHECK-NEXT:    movq %r10, 8(%rax)
389; CHECK-NEXT:    movq %rcx, 16(%rax)
390; CHECK-NEXT:    movq %rsi, 24(%rax)
391; CHECK-NEXT:    retq
392  %4 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 0, i32 0
393  %5 = load i64, i64* %4, align 8
394  %6 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 0, i32 1
395  %7 = load i64, i64* %6, align 8
396  %8 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 0, i32 0
397  %9 = load i64, i64* %8, align 8
398  %10 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 0, i32 1
399  %11 = load i64, i64* %10, align 8
400  %12 = sub i64 %5, %9
401  %13 = icmp ult i64 %5, %9
402  %14 = sub i64 %7, %11
403  %15 = icmp ult i64 %7, %11
404  %16 = zext i1 %13 to i64
405  %17 = sub i64 %14, %16
406  %18 = icmp ult i64 %14, %16
407  %19 = or i1 %15, %18
408  %20 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 1, i32 0
409  %21 = load i64, i64* %20, align 8
410  %22 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 1, i32 1
411  %23 = load i64, i64* %22, align 8
412  %24 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 1, i32 0
413  %25 = load i64, i64* %24, align 8
414  %26 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 1, i32 1
415  %27 = load i64, i64* %26, align 8
416  %28 = sub i64 %21, %25
417  %29 = icmp ult i64 %21, %25
418  %30 = sub i64 %23, %27
419  %31 = zext i1 %29 to i64
420  %32 = sub i64 %30, %31
421  %33 = zext i1 %19 to i64
422  %34 = sub i64 %28, %33
423  %35 = icmp ult i64 %28, %33
424  %36 = zext i1 %35 to i64
425  %37 = sub i64 %32, %36
426  %38 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 0, i32 0
427  store i64 %12, i64* %38, align 8
428  %39 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 0, i32 1
429  store i64 %17, i64* %39, align 8
430  %40 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 1, i32 0
431  store i64 %34, i64* %40, align 8
432  %41 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 1, i32 1
433  store i64 %37, i64* %41, align 8
434  ret void
435}
436