1; RUN: opt < %s -loop-reroll -verify-scev -S | FileCheck %s 2target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64-S128" 3target triple = "x86_64-unknown-linux-gnu" 4 5; void goo32(float alpha, float *a, float *b) { 6; for (int i = 0; i < 3200; i += 32) { 7; a[i] += alpha * b[i]; 8; a[i + 1] += alpha * b[i + 1]; 9; a[i + 2] += alpha * b[i + 2]; 10; a[i + 3] += alpha * b[i + 3]; 11; a[i + 4] += alpha * b[i + 4]; 12; a[i + 5] += alpha * b[i + 5]; 13; a[i + 6] += alpha * b[i + 6]; 14; a[i + 7] += alpha * b[i + 7]; 15; a[i + 8] += alpha * b[i + 8]; 16; a[i + 9] += alpha * b[i + 9]; 17; a[i + 10] += alpha * b[i + 10]; 18; a[i + 11] += alpha * b[i + 11]; 19; a[i + 12] += alpha * b[i + 12]; 20; a[i + 13] += alpha * b[i + 13]; 21; a[i + 14] += alpha * b[i + 14]; 22; a[i + 15] += alpha * b[i + 15]; 23; a[i + 16] += alpha * b[i + 16]; 24; a[i + 17] += alpha * b[i + 17]; 25; a[i + 18] += alpha * b[i + 18]; 26; a[i + 19] += alpha * b[i + 19]; 27; a[i + 20] += alpha * b[i + 20]; 28; a[i + 21] += alpha * b[i + 21]; 29; a[i + 22] += alpha * b[i + 22]; 30; a[i + 23] += alpha * b[i + 23]; 31; a[i + 24] += alpha * b[i + 24]; 32; a[i + 25] += alpha * b[i + 25]; 33; a[i + 26] += alpha * b[i + 26]; 34; a[i + 27] += alpha * b[i + 27]; 35; a[i + 28] += alpha * b[i + 28]; 36; a[i + 29] += alpha * b[i + 29]; 37; a[i + 30] += alpha * b[i + 30]; 38; a[i + 31] += alpha * b[i + 31]; 39; } 40; } 41 42; Function Attrs: norecurse nounwind uwtable 43define void @goo32(float %alpha, float* %a, float* readonly %b) #0 { 44entry: 45 br label %for.body 46 47for.body: ; preds = %entry, %for.body 48 %indvars.iv = phi i64 [ 0, %entry ], [ %indvars.iv.next, %for.body ] 49 %arrayidx = getelementptr inbounds float, float* %b, i64 %indvars.iv 50 %0 = load float, float* %arrayidx, align 4 51 %mul = fmul float %0, %alpha 52 %arrayidx2 = getelementptr inbounds float, float* %a, i64 %indvars.iv 53 %1 = load float, float* %arrayidx2, align 4 54 %add = fadd float %1, %mul 55 store float %add, float* %arrayidx2, align 4 56 %2 = or i64 %indvars.iv, 1 57 %arrayidx5 = getelementptr inbounds float, float* %b, i64 %2 58 %3 = load float, float* %arrayidx5, align 4 59 %mul6 = fmul float %3, %alpha 60 %arrayidx9 = getelementptr inbounds float, float* %a, i64 %2 61 %4 = load float, float* %arrayidx9, align 4 62 %add10 = fadd float %4, %mul6 63 store float %add10, float* %arrayidx9, align 4 64 %5 = or i64 %indvars.iv, 2 65 %arrayidx13 = getelementptr inbounds float, float* %b, i64 %5 66 %6 = load float, float* %arrayidx13, align 4 67 %mul14 = fmul float %6, %alpha 68 %arrayidx17 = getelementptr inbounds float, float* %a, i64 %5 69 %7 = load float, float* %arrayidx17, align 4 70 %add18 = fadd float %7, %mul14 71 store float %add18, float* %arrayidx17, align 4 72 %8 = or i64 %indvars.iv, 3 73 %arrayidx21 = getelementptr inbounds float, float* %b, i64 %8 74 %9 = load float, float* %arrayidx21, align 4 75 %mul22 = fmul float %9, %alpha 76 %arrayidx25 = getelementptr inbounds float, float* %a, i64 %8 77 %10 = load float, float* %arrayidx25, align 4 78 %add26 = fadd float %10, %mul22 79 store float %add26, float* %arrayidx25, align 4 80 %11 = or i64 %indvars.iv, 4 81 %arrayidx29 = getelementptr inbounds float, float* %b, i64 %11 82 %12 = load float, float* %arrayidx29, align 4 83 %mul30 = fmul float %12, %alpha 84 %arrayidx33 = getelementptr inbounds float, float* %a, i64 %11 85 %13 = load float, float* %arrayidx33, align 4 86 %add34 = fadd float %13, %mul30 87 store float %add34, float* %arrayidx33, align 4 88 %14 = or i64 %indvars.iv, 5 89 %arrayidx37 = getelementptr inbounds float, float* %b, i64 %14 90 %15 = load float, float* %arrayidx37, align 4 91 %mul38 = fmul float %15, %alpha 92 %arrayidx41 = getelementptr inbounds float, float* %a, i64 %14 93 %16 = load float, float* %arrayidx41, align 4 94 %add42 = fadd float %16, %mul38 95 store float %add42, float* %arrayidx41, align 4 96 %17 = or i64 %indvars.iv, 6 97 %arrayidx45 = getelementptr inbounds float, float* %b, i64 %17 98 %18 = load float, float* %arrayidx45, align 4 99 %mul46 = fmul float %18, %alpha 100 %arrayidx49 = getelementptr inbounds float, float* %a, i64 %17 101 %19 = load float, float* %arrayidx49, align 4 102 %add50 = fadd float %19, %mul46 103 store float %add50, float* %arrayidx49, align 4 104 %20 = or i64 %indvars.iv, 7 105 %arrayidx53 = getelementptr inbounds float, float* %b, i64 %20 106 %21 = load float, float* %arrayidx53, align 4 107 %mul54 = fmul float %21, %alpha 108 %arrayidx57 = getelementptr inbounds float, float* %a, i64 %20 109 %22 = load float, float* %arrayidx57, align 4 110 %add58 = fadd float %22, %mul54 111 store float %add58, float* %arrayidx57, align 4 112 %23 = or i64 %indvars.iv, 8 113 %arrayidx61 = getelementptr inbounds float, float* %b, i64 %23 114 %24 = load float, float* %arrayidx61, align 4 115 %mul62 = fmul float %24, %alpha 116 %arrayidx65 = getelementptr inbounds float, float* %a, i64 %23 117 %25 = load float, float* %arrayidx65, align 4 118 %add66 = fadd float %25, %mul62 119 store float %add66, float* %arrayidx65, align 4 120 %26 = or i64 %indvars.iv, 9 121 %arrayidx69 = getelementptr inbounds float, float* %b, i64 %26 122 %27 = load float, float* %arrayidx69, align 4 123 %mul70 = fmul float %27, %alpha 124 %arrayidx73 = getelementptr inbounds float, float* %a, i64 %26 125 %28 = load float, float* %arrayidx73, align 4 126 %add74 = fadd float %28, %mul70 127 store float %add74, float* %arrayidx73, align 4 128 %29 = or i64 %indvars.iv, 10 129 %arrayidx77 = getelementptr inbounds float, float* %b, i64 %29 130 %30 = load float, float* %arrayidx77, align 4 131 %mul78 = fmul float %30, %alpha 132 %arrayidx81 = getelementptr inbounds float, float* %a, i64 %29 133 %31 = load float, float* %arrayidx81, align 4 134 %add82 = fadd float %31, %mul78 135 store float %add82, float* %arrayidx81, align 4 136 %32 = or i64 %indvars.iv, 11 137 %arrayidx85 = getelementptr inbounds float, float* %b, i64 %32 138 %33 = load float, float* %arrayidx85, align 4 139 %mul86 = fmul float %33, %alpha 140 %arrayidx89 = getelementptr inbounds float, float* %a, i64 %32 141 %34 = load float, float* %arrayidx89, align 4 142 %add90 = fadd float %34, %mul86 143 store float %add90, float* %arrayidx89, align 4 144 %35 = or i64 %indvars.iv, 12 145 %arrayidx93 = getelementptr inbounds float, float* %b, i64 %35 146 %36 = load float, float* %arrayidx93, align 4 147 %mul94 = fmul float %36, %alpha 148 %arrayidx97 = getelementptr inbounds float, float* %a, i64 %35 149 %37 = load float, float* %arrayidx97, align 4 150 %add98 = fadd float %37, %mul94 151 store float %add98, float* %arrayidx97, align 4 152 %38 = or i64 %indvars.iv, 13 153 %arrayidx101 = getelementptr inbounds float, float* %b, i64 %38 154 %39 = load float, float* %arrayidx101, align 4 155 %mul102 = fmul float %39, %alpha 156 %arrayidx105 = getelementptr inbounds float, float* %a, i64 %38 157 %40 = load float, float* %arrayidx105, align 4 158 %add106 = fadd float %40, %mul102 159 store float %add106, float* %arrayidx105, align 4 160 %41 = or i64 %indvars.iv, 14 161 %arrayidx109 = getelementptr inbounds float, float* %b, i64 %41 162 %42 = load float, float* %arrayidx109, align 4 163 %mul110 = fmul float %42, %alpha 164 %arrayidx113 = getelementptr inbounds float, float* %a, i64 %41 165 %43 = load float, float* %arrayidx113, align 4 166 %add114 = fadd float %43, %mul110 167 store float %add114, float* %arrayidx113, align 4 168 %44 = or i64 %indvars.iv, 15 169 %arrayidx117 = getelementptr inbounds float, float* %b, i64 %44 170 %45 = load float, float* %arrayidx117, align 4 171 %mul118 = fmul float %45, %alpha 172 %arrayidx121 = getelementptr inbounds float, float* %a, i64 %44 173 %46 = load float, float* %arrayidx121, align 4 174 %add122 = fadd float %46, %mul118 175 store float %add122, float* %arrayidx121, align 4 176 %47 = or i64 %indvars.iv, 16 177 %arrayidx125 = getelementptr inbounds float, float* %b, i64 %47 178 %48 = load float, float* %arrayidx125, align 4 179 %mul126 = fmul float %48, %alpha 180 %arrayidx129 = getelementptr inbounds float, float* %a, i64 %47 181 %49 = load float, float* %arrayidx129, align 4 182 %add130 = fadd float %49, %mul126 183 store float %add130, float* %arrayidx129, align 4 184 %50 = or i64 %indvars.iv, 17 185 %arrayidx133 = getelementptr inbounds float, float* %b, i64 %50 186 %51 = load float, float* %arrayidx133, align 4 187 %mul134 = fmul float %51, %alpha 188 %arrayidx137 = getelementptr inbounds float, float* %a, i64 %50 189 %52 = load float, float* %arrayidx137, align 4 190 %add138 = fadd float %52, %mul134 191 store float %add138, float* %arrayidx137, align 4 192 %53 = or i64 %indvars.iv, 18 193 %arrayidx141 = getelementptr inbounds float, float* %b, i64 %53 194 %54 = load float, float* %arrayidx141, align 4 195 %mul142 = fmul float %54, %alpha 196 %arrayidx145 = getelementptr inbounds float, float* %a, i64 %53 197 %55 = load float, float* %arrayidx145, align 4 198 %add146 = fadd float %55, %mul142 199 store float %add146, float* %arrayidx145, align 4 200 %56 = or i64 %indvars.iv, 19 201 %arrayidx149 = getelementptr inbounds float, float* %b, i64 %56 202 %57 = load float, float* %arrayidx149, align 4 203 %mul150 = fmul float %57, %alpha 204 %arrayidx153 = getelementptr inbounds float, float* %a, i64 %56 205 %58 = load float, float* %arrayidx153, align 4 206 %add154 = fadd float %58, %mul150 207 store float %add154, float* %arrayidx153, align 4 208 %59 = or i64 %indvars.iv, 20 209 %arrayidx157 = getelementptr inbounds float, float* %b, i64 %59 210 %60 = load float, float* %arrayidx157, align 4 211 %mul158 = fmul float %60, %alpha 212 %arrayidx161 = getelementptr inbounds float, float* %a, i64 %59 213 %61 = load float, float* %arrayidx161, align 4 214 %add162 = fadd float %61, %mul158 215 store float %add162, float* %arrayidx161, align 4 216 %62 = or i64 %indvars.iv, 21 217 %arrayidx165 = getelementptr inbounds float, float* %b, i64 %62 218 %63 = load float, float* %arrayidx165, align 4 219 %mul166 = fmul float %63, %alpha 220 %arrayidx169 = getelementptr inbounds float, float* %a, i64 %62 221 %64 = load float, float* %arrayidx169, align 4 222 %add170 = fadd float %64, %mul166 223 store float %add170, float* %arrayidx169, align 4 224 %65 = or i64 %indvars.iv, 22 225 %arrayidx173 = getelementptr inbounds float, float* %b, i64 %65 226 %66 = load float, float* %arrayidx173, align 4 227 %mul174 = fmul float %66, %alpha 228 %arrayidx177 = getelementptr inbounds float, float* %a, i64 %65 229 %67 = load float, float* %arrayidx177, align 4 230 %add178 = fadd float %67, %mul174 231 store float %add178, float* %arrayidx177, align 4 232 %68 = or i64 %indvars.iv, 23 233 %arrayidx181 = getelementptr inbounds float, float* %b, i64 %68 234 %69 = load float, float* %arrayidx181, align 4 235 %mul182 = fmul float %69, %alpha 236 %arrayidx185 = getelementptr inbounds float, float* %a, i64 %68 237 %70 = load float, float* %arrayidx185, align 4 238 %add186 = fadd float %70, %mul182 239 store float %add186, float* %arrayidx185, align 4 240 %71 = or i64 %indvars.iv, 24 241 %arrayidx189 = getelementptr inbounds float, float* %b, i64 %71 242 %72 = load float, float* %arrayidx189, align 4 243 %mul190 = fmul float %72, %alpha 244 %arrayidx193 = getelementptr inbounds float, float* %a, i64 %71 245 %73 = load float, float* %arrayidx193, align 4 246 %add194 = fadd float %73, %mul190 247 store float %add194, float* %arrayidx193, align 4 248 %74 = or i64 %indvars.iv, 25 249 %arrayidx197 = getelementptr inbounds float, float* %b, i64 %74 250 %75 = load float, float* %arrayidx197, align 4 251 %mul198 = fmul float %75, %alpha 252 %arrayidx201 = getelementptr inbounds float, float* %a, i64 %74 253 %76 = load float, float* %arrayidx201, align 4 254 %add202 = fadd float %76, %mul198 255 store float %add202, float* %arrayidx201, align 4 256 %77 = or i64 %indvars.iv, 26 257 %arrayidx205 = getelementptr inbounds float, float* %b, i64 %77 258 %78 = load float, float* %arrayidx205, align 4 259 %mul206 = fmul float %78, %alpha 260 %arrayidx209 = getelementptr inbounds float, float* %a, i64 %77 261 %79 = load float, float* %arrayidx209, align 4 262 %add210 = fadd float %79, %mul206 263 store float %add210, float* %arrayidx209, align 4 264 %80 = or i64 %indvars.iv, 27 265 %arrayidx213 = getelementptr inbounds float, float* %b, i64 %80 266 %81 = load float, float* %arrayidx213, align 4 267 %mul214 = fmul float %81, %alpha 268 %arrayidx217 = getelementptr inbounds float, float* %a, i64 %80 269 %82 = load float, float* %arrayidx217, align 4 270 %add218 = fadd float %82, %mul214 271 store float %add218, float* %arrayidx217, align 4 272 %83 = or i64 %indvars.iv, 28 273 %arrayidx221 = getelementptr inbounds float, float* %b, i64 %83 274 %84 = load float, float* %arrayidx221, align 4 275 %mul222 = fmul float %84, %alpha 276 %arrayidx225 = getelementptr inbounds float, float* %a, i64 %83 277 %85 = load float, float* %arrayidx225, align 4 278 %add226 = fadd float %85, %mul222 279 store float %add226, float* %arrayidx225, align 4 280 %86 = or i64 %indvars.iv, 29 281 %arrayidx229 = getelementptr inbounds float, float* %b, i64 %86 282 %87 = load float, float* %arrayidx229, align 4 283 %mul230 = fmul float %87, %alpha 284 %arrayidx233 = getelementptr inbounds float, float* %a, i64 %86 285 %88 = load float, float* %arrayidx233, align 4 286 %add234 = fadd float %88, %mul230 287 store float %add234, float* %arrayidx233, align 4 288 %89 = or i64 %indvars.iv, 30 289 %arrayidx237 = getelementptr inbounds float, float* %b, i64 %89 290 %90 = load float, float* %arrayidx237, align 4 291 %mul238 = fmul float %90, %alpha 292 %arrayidx241 = getelementptr inbounds float, float* %a, i64 %89 293 %91 = load float, float* %arrayidx241, align 4 294 %add242 = fadd float %91, %mul238 295 store float %add242, float* %arrayidx241, align 4 296 %92 = or i64 %indvars.iv, 31 297 %arrayidx245 = getelementptr inbounds float, float* %b, i64 %92 298 %93 = load float, float* %arrayidx245, align 4 299 %mul246 = fmul float %93, %alpha 300 %arrayidx249 = getelementptr inbounds float, float* %a, i64 %92 301 %94 = load float, float* %arrayidx249, align 4 302 %add250 = fadd float %94, %mul246 303 store float %add250, float* %arrayidx249, align 4 304 %indvars.iv.next = add nuw nsw i64 %indvars.iv, 32 305 %cmp = icmp slt i64 %indvars.iv.next, 3200 306 br i1 %cmp, label %for.body, label %for.end 307 308; CHECK-LABEL: @goo32 309 310; CHECK: for.body: 311; CHECK: %indvar = phi i64 [ %indvar.next, %for.body ], [ 0, %entry ] 312; CHECK: %arrayidx = getelementptr inbounds float, float* %b, i64 %indvar 313; CHECK: %0 = load float, float* %arrayidx, align 4 314; CHECK: %mul = fmul float %0, %alpha 315; CHECK: %arrayidx2 = getelementptr inbounds float, float* %a, i64 %indvar 316; CHECK: %1 = load float, float* %arrayidx2, align 4 317; CHECK: %add = fadd float %1, %mul 318; CHECK: store float %add, float* %arrayidx2, align 4 319; CHECK: %indvar.next = add i64 %indvar, 1 320; CHECK: %exitcond = icmp eq i64 %indvar, 3199 321; CHECK: br i1 %exitcond, label %for.end, label %for.body 322; CHECK: ret 323 324for.end: ; preds = %for.body 325 ret void 326} 327 328attributes #0 = { nounwind uwtable } 329