1; REQUIRES: asserts 2; RUN: llc < %s -mtriple=x86_64-apple-darwin10.0 -relocation-model=pic -disable-fp-elim -stats 2>&1 | FileCheck %s 3; XFAIL: * 4; 69408 removed the opportunity for this optimization to work 5 6; CHECK: {{Number of modref unfolded}} 7 8 %struct.SHA512_CTX = type { [8 x i64], i64, i64, %struct.anon, i32, i32 } 9 %struct.anon = type { [16 x i64] } 10@K512 = external constant [80 x i64], align 32 ; <[80 x i64]*> [#uses=2] 11 12define fastcc void @sha512_block_data_order(%struct.SHA512_CTX* nocapture %ctx, i8* nocapture %in, i64 %num) nounwind ssp { 13entry: 14 br label %bb349 15 16bb349: ; preds = %bb349, %entry 17 %e.0489 = phi i64 [ 0, %entry ], [ %e.0, %bb349 ] ; <i64> [#uses=3] 18 %b.0472 = phi i64 [ 0, %entry ], [ %87, %bb349 ] ; <i64> [#uses=2] 19 %asmtmp356 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 41, i64 %e.0489) nounwind ; <i64> [#uses=1] 20 %0 = xor i64 0, %asmtmp356 ; <i64> [#uses=1] 21 %1 = add i64 0, %0 ; <i64> [#uses=1] 22 %2 = add i64 %1, 0 ; <i64> [#uses=1] 23 %3 = add i64 %2, 0 ; <i64> [#uses=1] 24 %4 = add i64 %3, 0 ; <i64> [#uses=5] 25 %asmtmp372 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 34, i64 %4) nounwind ; <i64> [#uses=1] 26 %asmtmp373 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 39, i64 %4) nounwind ; <i64> [#uses=0] 27 %5 = xor i64 %asmtmp372, 0 ; <i64> [#uses=0] 28 %6 = xor i64 0, %b.0472 ; <i64> [#uses=1] 29 %7 = and i64 %4, %6 ; <i64> [#uses=1] 30 %8 = xor i64 %7, 0 ; <i64> [#uses=1] 31 %9 = add i64 0, %8 ; <i64> [#uses=1] 32 %10 = add i64 %9, 0 ; <i64> [#uses=2] 33 %asmtmp377 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 61, i64 0) nounwind ; <i64> [#uses=1] 34 %11 = xor i64 0, %asmtmp377 ; <i64> [#uses=1] 35 %12 = add i64 0, %11 ; <i64> [#uses=1] 36 %13 = add i64 %12, 0 ; <i64> [#uses=1] 37 %not381 = xor i64 0, -1 ; <i64> [#uses=1] 38 %14 = and i64 %e.0489, %not381 ; <i64> [#uses=1] 39 %15 = xor i64 0, %14 ; <i64> [#uses=1] 40 %16 = add i64 %15, 0 ; <i64> [#uses=1] 41 %17 = add i64 %16, %13 ; <i64> [#uses=1] 42 %18 = add i64 %17, 0 ; <i64> [#uses=1] 43 %19 = add i64 %18, 0 ; <i64> [#uses=2] 44 %20 = add i64 %19, %b.0472 ; <i64> [#uses=3] 45 %21 = add i64 %19, 0 ; <i64> [#uses=1] 46 %22 = add i64 %21, 0 ; <i64> [#uses=1] 47 %23 = add i32 0, 12 ; <i32> [#uses=1] 48 %24 = and i32 %23, 12 ; <i32> [#uses=1] 49 %25 = zext i32 %24 to i64 ; <i64> [#uses=1] 50 %26 = getelementptr [16 x i64], [16 x i64]* null, i64 0, i64 %25 ; <i64*> [#uses=0] 51 %27 = add i64 0, %e.0489 ; <i64> [#uses=1] 52 %28 = add i64 %27, 0 ; <i64> [#uses=1] 53 %29 = add i64 %28, 0 ; <i64> [#uses=1] 54 %30 = add i64 %29, 0 ; <i64> [#uses=2] 55 %31 = and i64 %10, %4 ; <i64> [#uses=1] 56 %32 = xor i64 0, %31 ; <i64> [#uses=1] 57 %33 = add i64 %30, 0 ; <i64> [#uses=3] 58 %34 = add i64 %30, %32 ; <i64> [#uses=1] 59 %35 = add i64 %34, 0 ; <i64> [#uses=1] 60 %36 = and i64 %33, %20 ; <i64> [#uses=1] 61 %37 = xor i64 %36, 0 ; <i64> [#uses=1] 62 %38 = add i64 %37, 0 ; <i64> [#uses=1] 63 %39 = add i64 %38, 0 ; <i64> [#uses=1] 64 %40 = add i64 %39, 0 ; <i64> [#uses=1] 65 %41 = add i64 %40, 0 ; <i64> [#uses=1] 66 %42 = add i64 %41, %4 ; <i64> [#uses=3] 67 %43 = or i32 0, 6 ; <i32> [#uses=1] 68 %44 = and i32 %43, 14 ; <i32> [#uses=1] 69 %45 = zext i32 %44 to i64 ; <i64> [#uses=1] 70 %46 = getelementptr [16 x i64], [16 x i64]* null, i64 0, i64 %45 ; <i64*> [#uses=1] 71 %not417 = xor i64 %42, -1 ; <i64> [#uses=1] 72 %47 = and i64 %20, %not417 ; <i64> [#uses=1] 73 %48 = xor i64 0, %47 ; <i64> [#uses=1] 74 %49 = getelementptr [80 x i64], [80 x i64]* @K512, i64 0, i64 0 ; <i64*> [#uses=1] 75 %50 = load i64, i64* %49, align 8 ; <i64> [#uses=1] 76 %51 = add i64 %48, 0 ; <i64> [#uses=1] 77 %52 = add i64 %51, 0 ; <i64> [#uses=1] 78 %53 = add i64 %52, 0 ; <i64> [#uses=1] 79 %54 = add i64 %53, %50 ; <i64> [#uses=2] 80 %asmtmp420 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 34, i64 0) nounwind ; <i64> [#uses=1] 81 %asmtmp421 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 39, i64 0) nounwind ; <i64> [#uses=1] 82 %55 = xor i64 %asmtmp420, 0 ; <i64> [#uses=1] 83 %56 = xor i64 %55, %asmtmp421 ; <i64> [#uses=1] 84 %57 = add i64 %54, %10 ; <i64> [#uses=5] 85 %58 = add i64 %54, 0 ; <i64> [#uses=1] 86 %59 = add i64 %58, %56 ; <i64> [#uses=2] 87 %60 = or i32 0, 7 ; <i32> [#uses=1] 88 %61 = and i32 %60, 15 ; <i32> [#uses=1] 89 %62 = zext i32 %61 to i64 ; <i64> [#uses=1] 90 %63 = getelementptr [16 x i64], [16 x i64]* null, i64 0, i64 %62 ; <i64*> [#uses=2] 91 %64 = load i64, i64* null, align 8 ; <i64> [#uses=1] 92 %65 = lshr i64 %64, 6 ; <i64> [#uses=1] 93 %66 = xor i64 0, %65 ; <i64> [#uses=1] 94 %67 = xor i64 %66, 0 ; <i64> [#uses=1] 95 %68 = load i64, i64* %46, align 8 ; <i64> [#uses=1] 96 %69 = load i64, i64* null, align 8 ; <i64> [#uses=1] 97 %70 = add i64 %68, 0 ; <i64> [#uses=1] 98 %71 = add i64 %70, %67 ; <i64> [#uses=1] 99 %72 = add i64 %71, %69 ; <i64> [#uses=1] 100 %asmtmp427 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 18, i64 %57) nounwind ; <i64> [#uses=1] 101 %asmtmp428 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 41, i64 %57) nounwind ; <i64> [#uses=1] 102 %73 = xor i64 %asmtmp427, 0 ; <i64> [#uses=1] 103 %74 = xor i64 %73, %asmtmp428 ; <i64> [#uses=1] 104 %75 = and i64 %57, %42 ; <i64> [#uses=1] 105 %not429 = xor i64 %57, -1 ; <i64> [#uses=1] 106 %76 = and i64 %33, %not429 ; <i64> [#uses=1] 107 %77 = xor i64 %75, %76 ; <i64> [#uses=1] 108 %78 = getelementptr [80 x i64], [80 x i64]* @K512, i64 0, i64 0 ; <i64*> [#uses=1] 109 %79 = load i64, i64* %78, align 16 ; <i64> [#uses=1] 110 %80 = add i64 %77, %20 ; <i64> [#uses=1] 111 %81 = add i64 %80, %72 ; <i64> [#uses=1] 112 %82 = add i64 %81, %74 ; <i64> [#uses=1] 113 %83 = add i64 %82, %79 ; <i64> [#uses=1] 114 %asmtmp432 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 34, i64 %59) nounwind ; <i64> [#uses=1] 115 %asmtmp433 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 39, i64 %59) nounwind ; <i64> [#uses=1] 116 %84 = xor i64 %asmtmp432, 0 ; <i64> [#uses=1] 117 %85 = xor i64 %84, %asmtmp433 ; <i64> [#uses=1] 118 %86 = add i64 %83, %22 ; <i64> [#uses=2] 119 %87 = add i64 0, %85 ; <i64> [#uses=1] 120 %asmtmp435 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 8, i64 0) nounwind ; <i64> [#uses=1] 121 %88 = xor i64 0, %asmtmp435 ; <i64> [#uses=1] 122 %89 = load i64, i64* null, align 8 ; <i64> [#uses=3] 123 %asmtmp436 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 19, i64 %89) nounwind ; <i64> [#uses=1] 124 %asmtmp437 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 61, i64 %89) nounwind ; <i64> [#uses=1] 125 %90 = lshr i64 %89, 6 ; <i64> [#uses=1] 126 %91 = xor i64 %asmtmp436, %90 ; <i64> [#uses=1] 127 %92 = xor i64 %91, %asmtmp437 ; <i64> [#uses=1] 128 %93 = load i64, i64* %63, align 8 ; <i64> [#uses=1] 129 %94 = load i64, i64* null, align 8 ; <i64> [#uses=1] 130 %95 = add i64 %93, %88 ; <i64> [#uses=1] 131 %96 = add i64 %95, %92 ; <i64> [#uses=1] 132 %97 = add i64 %96, %94 ; <i64> [#uses=2] 133 store i64 %97, i64* %63, align 8 134 %98 = and i64 %86, %57 ; <i64> [#uses=1] 135 %not441 = xor i64 %86, -1 ; <i64> [#uses=1] 136 %99 = and i64 %42, %not441 ; <i64> [#uses=1] 137 %100 = xor i64 %98, %99 ; <i64> [#uses=1] 138 %101 = add i64 %100, %33 ; <i64> [#uses=1] 139 %102 = add i64 %101, %97 ; <i64> [#uses=1] 140 %103 = add i64 %102, 0 ; <i64> [#uses=1] 141 %104 = add i64 %103, 0 ; <i64> [#uses=1] 142 %e.0 = add i64 %104, %35 ; <i64> [#uses=1] 143 br label %bb349 144} 145