1 // Test target codegen - host bc file has to be created first.
2 // RUN: %clang_cc1 -verify -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=nvptx64-nvidia-cuda -emit-llvm-bc %s -o %t-ppc-host.bc
3 // RUN: %clang_cc1 -verify -fopenmp -x c++ -triple nvptx64-unknown-unknown -fopenmp-targets=nvptx64-nvidia-cuda -emit-llvm %s -fopenmp-is-device -fopenmp-host-ir-file-path %t-ppc-host.bc -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64
4 // RUN: %clang_cc1 -verify -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=nvptx-nvidia-cuda -emit-llvm-bc %s -o %t-x86-host.bc
5 // RUN: %clang_cc1 -verify -fopenmp -x c++ -triple nvptx-unknown-unknown -fopenmp-targets=nvptx-nvidia-cuda -emit-llvm %s -fopenmp-is-device -fopenmp-host-ir-file-path %t-x86-host.bc -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32
6 // RUN: %clang_cc1 -verify -fopenmp -fexceptions -fcxx-exceptions -x c++ -triple nvptx-unknown-unknown -fopenmp-targets=nvptx-nvidia-cuda -emit-llvm %s -fopenmp-is-device -fopenmp-host-ir-file-path %t-x86-host.bc -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32
7 // expected-no-diagnostics
8 #ifndef HEADER
9 #define HEADER
10
11 // Check that the execution mode of all 2 target regions is set to Generic Mode.
12 // CHECK-DAG: {{@__omp_offloading_.+l27}}_exec_mode = weak constant i8 1
13 // CHECK-DAG: {{@__omp_offloading_.+l32}}_exec_mode = weak constant i8 1
14 // CHECK-DAG: {{@__omp_offloading_.+l37}}_exec_mode = weak constant i8 0
15
16 template<typename tx>
ftemplate(int n)17 tx ftemplate(int n) {
18 tx a = 0;
19 short aa = 0;
20 tx b[10];
21
22 #pragma omp target teams if(0)
23 {
24 b[2] += 1;
25 }
26
27 #pragma omp target teams if(1)
28 {
29 a = '1';
30 }
31
32 #pragma omp target teams if(n>40)
33 {
34 aa = 1;
35 }
36
37 #pragma omp target teams
38 {
39 #pragma omp parallel
40 #pragma omp parallel
41 aa = 1;
42 }
43
44 return a;
45 }
46
bar(int n)47 int bar(int n){
48 int a = 0;
49
50 a += ftemplate<char>(n);
51
52 return a;
53 }
54
55 // CHECK-NOT: define {{.*}}void {{@__omp_offloading_.+template.+l22}}_worker()
56
57
58
59
60
61
62 // CHECK-LABEL: define {{.*}}void {{@__omp_offloading_.+template.+l27}}_worker()
63 // CHECK-DAG: [[OMP_EXEC_STATUS:%.+]] = alloca i8,
64 // CHECK-DAG: [[OMP_WORK_FN:%.+]] = alloca i8*,
65 // CHECK: store i8* null, i8** [[OMP_WORK_FN]],
66 // CHECK: store i8 0, i8* [[OMP_EXEC_STATUS]],
67 // CHECK: br label {{%?}}[[AWAIT_WORK:.+]]
68 //
69 // CHECK: [[AWAIT_WORK]]
70 // CHECK: call void @__kmpc_barrier_simple_spmd(%struct.ident_t* null, i32 0)
71 // CHECK: [[KPR:%.+]] = call i1 @__kmpc_kernel_parallel(i8** [[OMP_WORK_FN]])
72 // CHECK: [[KPRB:%.+]] = zext i1 [[KPR]] to i8
73 // store i8 [[KPRB]], i8* [[OMP_EXEC_STATUS]], align 1
74 // CHECK: [[WORK:%.+]] = load i8*, i8** [[OMP_WORK_FN]],
75 // CHECK: [[SHOULD_EXIT:%.+]] = icmp eq i8* [[WORK]], null
76 // CHECK: br i1 [[SHOULD_EXIT]], label {{%?}}[[EXIT:.+]], label {{%?}}[[SEL_WORKERS:.+]]
77 //
78 // CHECK: [[SEL_WORKERS]]
79 // CHECK: [[ST:%.+]] = load i8, i8* [[OMP_EXEC_STATUS]]
80 // CHECK: [[IS_ACTIVE:%.+]] = icmp ne i8 [[ST]], 0
81 // CHECK: br i1 [[IS_ACTIVE]], label {{%?}}[[EXEC_PARALLEL:.+]], label {{%?}}[[BAR_PARALLEL:.+]]
82 //
83 // CHECK: [[EXEC_PARALLEL]]
84 // CHECK: br label {{%?}}[[TERM_PARALLEL:.+]]
85 //
86 // CHECK: [[TERM_PARALLEL]]
87 // CHECK: call void @__kmpc_kernel_end_parallel()
88 // CHECK: br label {{%?}}[[BAR_PARALLEL]]
89 //
90 // CHECK: [[BAR_PARALLEL]]
91 // CHECK: call void @__kmpc_barrier_simple_spmd(%struct.ident_t* null, i32 0)
92 // CHECK: br label {{%?}}[[AWAIT_WORK]]
93 //
94 // CHECK: [[EXIT]]
95 // CHECK: ret void
96
97 // CHECK: define {{.*}}void [[T1:@__omp_offloading_.+template.+l27]](i[[SZ:32|64]] [[A:%[^)]+]])
98 // CHECK: store i[[SZ]] [[A]], i[[SZ]]* [[A_ADDR:%.+]], align
99 // CHECK: [[CONV:%.+]] = bitcast i[[SZ]]* [[A_ADDR]] to i8*
100
101 // CHECK-DAG: [[TID:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.tid.x()
102 // CHECK-DAG: [[NTH:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.ntid.x()
103 // CHECK-DAG: [[WS:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.warpsize()
104 // CHECK-DAG: [[TH_LIMIT:%.+]] = sub nuw i32 [[NTH]], [[WS]]
105 // CHECK: [[IS_WORKER:%.+]] = icmp ult i32 [[TID]], [[TH_LIMIT]]
106 // CHECK: br i1 [[IS_WORKER]], label {{%?}}[[WORKER:.+]], label {{%?}}[[CHECK_MASTER:.+]]
107 //
108 // CHECK: [[WORKER]]
109 // CHECK: {{call|invoke}} void [[T1]]_worker()
110 // CHECK: br label {{%?}}[[EXIT:.+]]
111 //
112 // CHECK: [[CHECK_MASTER]]
113 // CHECK-DAG: [[CMTID:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.tid.x()
114 // CHECK-DAG: [[CMNTH:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.ntid.x()
115 // CHECK-DAG: [[CMWS:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.warpsize()
116 // CHECK: [[IS_MASTER:%.+]] = icmp eq i32 [[CMTID]],
117 // CHECK: br i1 [[IS_MASTER]], label {{%?}}[[MASTER:.+]], label {{%?}}[[EXIT]]
118 //
119 // CHECK: [[MASTER]]
120 // CHECK-DAG: [[MNTH:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.ntid.x()
121 // CHECK-DAG: [[MWS:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.warpsize()
122 // CHECK: [[MTMP1:%.+]] = sub nuw i32 [[MNTH]], [[MWS]]
123 // CHECK: call void @__kmpc_kernel_init(i32 [[MTMP1]]
124 //
125 // CHECK-NOT: kmpc_fork_teams
126 // CHECK: [[A_VAL:%.+]] = load i8, i8* [[CONV]], align
127 // CHECK: [[ACP:%.+]] = bitcast i[[SZ]]* [[AC:%.+]] to i8*
128 // CHECK: store i8 [[A_VAL]], i8* [[ACP]], align
129 // CHECK: [[ACV:%.+]] = load i[[SZ]], i[[SZ]]* [[AC]], align
130 // CHECK: call void [[PARALLEL:@.+]](i32* %{{.+}}, i32* %{{.+}}, i[[SZ]] [[ACV]])
131 // CHECK: br label {{%?}}[[TERMINATE:.+]]
132 //
133 // CHECK: [[TERMINATE]]
134 // CHECK: call void @__kmpc_kernel_deinit(
135 // CHECK: call void @__kmpc_barrier_simple_spmd(%struct.ident_t* null, i32 0)
136 // CHECK: br label {{%?}}[[EXIT]]
137 //
138 // CHECK: [[EXIT]]
139 // CHECK: ret void
140
141 // CHECK: define internal void [[PARALLEL]](i32* noalias %{{.+}}, i32* noalias %{{.+}}, i[[SZ]] [[A_VAL:%.+]])
142 // CHECK: [[A_ADDR:%.+]] = alloca i[[SZ]],
143 // CHECK: store i[[SZ]] [[A_VAL]], i[[SZ]]* [[A_ADDR]],
144 // CHECK: [[CONV:%.+]] = bitcast i[[SZ]]* [[A_ADDR]] to i8*
145 // CHECK: store i8 49, i8* [[CONV]],
146 // CHECK: ret void
147
148 // CHECK-LABEL: define {{.*}}void {{@__omp_offloading_.+template.+l32}}_worker()
149 // CHECK-DAG: [[OMP_EXEC_STATUS:%.+]] = alloca i8,
150 // CHECK-DAG: [[OMP_WORK_FN:%.+]] = alloca i8*,
151 // CHECK: store i8* null, i8** [[OMP_WORK_FN]],
152 // CHECK: store i8 0, i8* [[OMP_EXEC_STATUS]],
153 // CHECK: br label {{%?}}[[AWAIT_WORK:.+]]
154 //
155 // CHECK: [[AWAIT_WORK]]
156 // CHECK: call void @__kmpc_barrier_simple_spmd(%struct.ident_t* null, i32 0)
157 // CHECK: [[KPR:%.+]] = call i1 @__kmpc_kernel_parallel(i8** [[OMP_WORK_FN]])
158 // CHECK: [[KPRB:%.+]] = zext i1 [[KPR]] to i8
159 // store i8 [[KPRB]], i8* [[OMP_EXEC_STATUS]], align 1
160 // CHECK: [[WORK:%.+]] = load i8*, i8** [[OMP_WORK_FN]],
161 // CHECK: [[SHOULD_EXIT:%.+]] = icmp eq i8* [[WORK]], null
162 // CHECK: br i1 [[SHOULD_EXIT]], label {{%?}}[[EXIT:.+]], label {{%?}}[[SEL_WORKERS:.+]]
163 //
164 // CHECK: [[SEL_WORKERS]]
165 // CHECK: [[ST:%.+]] = load i8, i8* [[OMP_EXEC_STATUS]]
166 // CHECK: [[IS_ACTIVE:%.+]] = icmp ne i8 [[ST]], 0
167 // CHECK: br i1 [[IS_ACTIVE]], label {{%?}}[[EXEC_PARALLEL:.+]], label {{%?}}[[BAR_PARALLEL:.+]]
168 //
169 // CHECK: [[EXEC_PARALLEL]]
170 // CHECK: br label {{%?}}[[TERM_PARALLEL:.+]]
171 //
172 // CHECK: [[TERM_PARALLEL]]
173 // CHECK: call void @__kmpc_kernel_end_parallel()
174 // CHECK: br label {{%?}}[[BAR_PARALLEL]]
175 //
176 // CHECK: [[BAR_PARALLEL]]
177 // CHECK: call void @__kmpc_barrier_simple_spmd(%struct.ident_t* null, i32 0)
178 // CHECK: br label {{%?}}[[AWAIT_WORK]]
179 //
180 // CHECK: [[EXIT]]
181 // CHECK: ret void
182
183 // CHECK: define {{.*}}void [[T2:@__omp_offloading_.+template.+l32]](i[[SZ:32|64]] [[AA:%[^)]+]])
184 // CHECK: store i[[SZ]] [[AA]], i[[SZ]]* [[AA_ADDR:%.+]], align
185 // CHECK: [[CONV:%.+]] = bitcast i[[SZ]]* [[AA_ADDR]] to i16*
186
187 // CHECK-DAG: [[TID:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.tid.x()
188 // CHECK-DAG: [[NTH:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.ntid.x()
189 // CHECK-DAG: [[WS:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.warpsize()
190 // CHECK-DAG: [[TH_LIMIT:%.+]] = sub nuw i32 [[NTH]], [[WS]]
191 // CHECK: [[IS_WORKER:%.+]] = icmp ult i32 [[TID]], [[TH_LIMIT]]
192 // CHECK: br i1 [[IS_WORKER]], label {{%?}}[[WORKER:.+]], label {{%?}}[[CHECK_MASTER:.+]]
193 //
194 // CHECK: [[WORKER]]
195 // CHECK: {{call|invoke}} void [[T2]]_worker()
196 // CHECK: br label {{%?}}[[EXIT:.+]]
197 //
198 // CHECK: [[CHECK_MASTER]]
199 // CHECK-DAG: [[CMTID:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.tid.x()
200 // CHECK-DAG: [[CMNTH:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.ntid.x()
201 // CHECK-DAG: [[CMWS:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.warpsize()
202 // CHECK: [[IS_MASTER:%.+]] = icmp eq i32 [[CMTID]],
203 // CHECK: br i1 [[IS_MASTER]], label {{%?}}[[MASTER:.+]], label {{%?}}[[EXIT]]
204 //
205 // CHECK: [[MASTER]]
206 // CHECK-DAG: [[MNTH:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.ntid.x()
207 // CHECK-DAG: [[MWS:%.+]] = call i32 @llvm.nvvm.read.ptx.sreg.warpsize()
208 // CHECK: [[MTMP1:%.+]] = sub nuw i32 [[MNTH]], [[MWS]]
209 // CHECK: call void @__kmpc_kernel_init(i32 [[MTMP1]]
210 //
211 // CHECK-NOT: kmpc_fork_teams
212 // CHECK: [[AA_VAL:%.+]] = load i16, i16* [[CONV]], align
213 // CHECK: [[ACP:%.+]] = bitcast i[[SZ]]* [[AC:%.+]] to i16*
214 // CHECK: store i16 [[AA_VAL]], i16* [[ACP]], align
215 // CHECK: [[ACV:%.+]] = load i[[SZ]], i[[SZ]]* [[AC]], align
216 // CHECK: call void [[PARALLEL:@.+]](i32* %{{.+}}, i32* %{{.+}}, i[[SZ]] [[ACV]])
217 // CHECK: br label {{%?}}[[TERMINATE:.+]]
218 //
219 // CHECK: [[TERMINATE]]
220 // CHECK: call void @__kmpc_kernel_deinit(
221 // CHECK: call void @__kmpc_barrier_simple_spmd(%struct.ident_t* null, i32 0)
222 // CHECK: br label {{%?}}[[EXIT]]
223 //
224 // CHECK: [[EXIT]]
225 // CHECK: ret void
226
227 // CHECK: define internal void [[PARALLEL]](i32* noalias %{{.+}}, i32* noalias %{{.+}}, i[[SZ]] [[A_VAL:%.+]])
228 // CHECK: [[A_ADDR:%.+]] = alloca i[[SZ]],
229 // CHECK: store i[[SZ]] [[A_VAL]], i[[SZ]]* [[A_ADDR]],
230 // CHECK: [[CONV:%.+]] = bitcast i[[SZ]]* [[A_ADDR]] to i16*
231 // CHECK: store i16 1, i16* [[CONV]],
232 // CHECK: ret void
233
234 // CHECK: define weak void @__omp_offloading_{{.*}}ftemplate{{.*}}_l37(
235 // CHECK: call void @__kmpc_spmd_kernel_init(i32 {{.+}}, i16 1)
236 // CHECK: call void @__kmpc_data_sharing_init_stack_spmd
237 // CHECK-NOT: call i8* @__kmpc_data_sharing_push_stack(
238 // CHECK-NOT: call void @__kmpc_serialized_parallel(
239 // CHECK: call void [[L0:@.+]](i32* %{{.+}}, i32* %{{.+}}, i[[SZ]] %{{.+}})
240 // CHECK-NOT: call void @__kmpc_end_serialized_parallel(
241 // CHECK-NOT: call void @__kmpc_data_sharing_pop_stack(
242 // CHECK: call void @__kmpc_spmd_kernel_deinit_v2(i16 1)
243 // CHECK: ret
244
245 // CHECK: define internal void [[L0]](i32* noalias %{{.+}}, i32* noalias %{{.+}}, i[[SZ]] %{{.+}})
246 // CHECK: call void [[L1:@.+]](i32* %{{.+}}, i32* %{{.+}}, i16* %{{.+}})
247 // CHECK: ret void
248
249 // CHECK: define internal void [[L1]](i32* noalias %{{.+}}, i32* noalias %{{.+}}, i16* nonnull align {{[0-9]+}} dereferenceable
250 // CHECK: call void @__kmpc_serialized_parallel(
251 // CHECK: call void [[L2:@.+]](i32* %{{.+}}, i32* %{{.+}}, i16* %{{.+}})
252 // CHECK: call void @__kmpc_end_serialized_parallel(
253 // CHECK: ret void
254
255 // CHECK: define internal void [[L2]](i32* noalias %{{.+}}, i32* noalias %{{.+}}, i16* nonnull align {{[0-9]+}} dereferenceable
256 // CHECK: store i16 1, i16* %
257 // CHECK: ret void
258
259 #endif
260