1; Test that the correct instruction is chosen for spill and reload by trying 2; to have 33 live MSA registers simultaneously 3 4; RUN: llc -march=mips -mattr=+msa,+fp64 < %s | FileCheck %s 5; RUN: llc -march=mipsel -mattr=+msa,+fp64 < %s | FileCheck %s 6 7define i32 @test_i8(<16 x i8>* %p0, <16 x i8>* %q1) nounwind { 8entry: 9 %p1 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 1 10 %p2 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 2 11 %p3 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 3 12 %p4 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 4 13 %p5 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 5 14 %p6 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 6 15 %p7 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 7 16 %p8 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 8 17 %p9 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 9 18 %p10 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 10 19 %p11 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 11 20 %p12 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 12 21 %p13 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 13 22 %p14 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 14 23 %p15 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 15 24 %p16 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 16 25 %p17 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 17 26 %p18 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 18 27 %p19 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 19 28 %p20 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 20 29 %p21 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 21 30 %p22 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 22 31 %p23 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 23 32 %p24 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 24 33 %p25 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 25 34 %p26 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 26 35 %p27 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 27 36 %p28 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 28 37 %p29 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 29 38 %p30 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 30 39 %p31 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 31 40 %p32 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 32 41 %p33 = getelementptr <16 x i8>, <16 x i8>* %p0, i32 33 42 %0 = load <16 x i8>, <16 x i8>* %p0, align 16 43 %1 = load <16 x i8>, <16 x i8>* %p1, align 16 44 %2 = load <16 x i8>, <16 x i8>* %p2, align 16 45 %3 = load <16 x i8>, <16 x i8>* %p3, align 16 46 %4 = load <16 x i8>, <16 x i8>* %p4, align 16 47 %5 = load <16 x i8>, <16 x i8>* %p5, align 16 48 %6 = load <16 x i8>, <16 x i8>* %p6, align 16 49 %7 = load <16 x i8>, <16 x i8>* %p7, align 16 50 %8 = load <16 x i8>, <16 x i8>* %p8, align 16 51 %9 = load <16 x i8>, <16 x i8>* %p9, align 16 52 %10 = load <16 x i8>, <16 x i8>* %p10, align 16 53 %11 = load <16 x i8>, <16 x i8>* %p11, align 16 54 %12 = load <16 x i8>, <16 x i8>* %p12, align 16 55 %13 = load <16 x i8>, <16 x i8>* %p13, align 16 56 %14 = load <16 x i8>, <16 x i8>* %p14, align 16 57 %15 = load <16 x i8>, <16 x i8>* %p15, align 16 58 %16 = load <16 x i8>, <16 x i8>* %p16, align 16 59 %17 = load <16 x i8>, <16 x i8>* %p17, align 16 60 %18 = load <16 x i8>, <16 x i8>* %p18, align 16 61 %19 = load <16 x i8>, <16 x i8>* %p19, align 16 62 %20 = load <16 x i8>, <16 x i8>* %p20, align 16 63 %21 = load <16 x i8>, <16 x i8>* %p21, align 16 64 %22 = load <16 x i8>, <16 x i8>* %p22, align 16 65 %23 = load <16 x i8>, <16 x i8>* %p23, align 16 66 %24 = load <16 x i8>, <16 x i8>* %p24, align 16 67 %25 = load <16 x i8>, <16 x i8>* %p25, align 16 68 %26 = load <16 x i8>, <16 x i8>* %p26, align 16 69 %27 = load <16 x i8>, <16 x i8>* %p27, align 16 70 %28 = load <16 x i8>, <16 x i8>* %p28, align 16 71 %29 = load <16 x i8>, <16 x i8>* %p29, align 16 72 %30 = load <16 x i8>, <16 x i8>* %p30, align 16 73 %31 = load <16 x i8>, <16 x i8>* %p31, align 16 74 %32 = load <16 x i8>, <16 x i8>* %p32, align 16 75 %33 = load <16 x i8>, <16 x i8>* %p33, align 16 76 %r1 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %0, <16 x i8> %1) 77 %r2 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r1, <16 x i8> %2) 78 %r3 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r2, <16 x i8> %3) 79 %r4 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r3, <16 x i8> %4) 80 %r5 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r4, <16 x i8> %5) 81 %r6 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r5, <16 x i8> %6) 82 %r7 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r6, <16 x i8> %7) 83 %r8 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r7, <16 x i8> %8) 84 %r9 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r8, <16 x i8> %9) 85 %r10 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r9, <16 x i8> %10) 86 %r11 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r10, <16 x i8> %11) 87 %r12 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r11, <16 x i8> %12) 88 %r13 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r12, <16 x i8> %13) 89 %r14 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r13, <16 x i8> %14) 90 %r15 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r14, <16 x i8> %15) 91 %r16 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r15, <16 x i8> %16) 92 %r17 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r16, <16 x i8> %17) 93 %r18 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r17, <16 x i8> %18) 94 %r19 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r18, <16 x i8> %19) 95 %r20 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r19, <16 x i8> %20) 96 %r21 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r20, <16 x i8> %21) 97 %r22 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r21, <16 x i8> %22) 98 %r23 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r22, <16 x i8> %23) 99 %r24 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r23, <16 x i8> %24) 100 %r25 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r24, <16 x i8> %25) 101 %r26 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r25, <16 x i8> %26) 102 %r27 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r26, <16 x i8> %27) 103 %r28 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r27, <16 x i8> %28) 104 %r29 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r28, <16 x i8> %29) 105 %r30 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r29, <16 x i8> %30) 106 %r31 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r30, <16 x i8> %31) 107 %r32 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r31, <16 x i8> %32) 108 %r33 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r32, <16 x i8> %33) 109 %rx1 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %r33, <16 x i8> %1) 110 %rx2 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx1, <16 x i8> %2) 111 %rx3 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx2, <16 x i8> %3) 112 %rx4 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx3, <16 x i8> %4) 113 %rx5 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx4, <16 x i8> %5) 114 %rx6 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx5, <16 x i8> %6) 115 %rx7 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx6, <16 x i8> %7) 116 %rx8 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx7, <16 x i8> %8) 117 %rx9 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx8, <16 x i8> %9) 118 %rx10 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx9, <16 x i8> %10) 119 %rx11 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx10, <16 x i8> %11) 120 %rx12 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx11, <16 x i8> %12) 121 %rx13 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx12, <16 x i8> %13) 122 %rx14 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx13, <16 x i8> %14) 123 %rx15 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx14, <16 x i8> %15) 124 %rx16 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx15, <16 x i8> %16) 125 %rx17 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx16, <16 x i8> %17) 126 %rx18 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx17, <16 x i8> %18) 127 %rx19 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx18, <16 x i8> %19) 128 %rx20 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx19, <16 x i8> %20) 129 %rx21 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx20, <16 x i8> %21) 130 %rx22 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx21, <16 x i8> %22) 131 %rx23 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx22, <16 x i8> %23) 132 %rx24 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx23, <16 x i8> %24) 133 %rx25 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx24, <16 x i8> %25) 134 %rx26 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx25, <16 x i8> %26) 135 %rx27 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx26, <16 x i8> %27) 136 %rx28 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx27, <16 x i8> %28) 137 %rx29 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx28, <16 x i8> %29) 138 %rx30 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx29, <16 x i8> %30) 139 %rx31 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx30, <16 x i8> %31) 140 %rx32 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx31, <16 x i8> %32) 141 %rx33 = call <16 x i8> @llvm.mips.addv.b(<16 x i8> %rx32, <16 x i8> %33) 142 %res = call i32 @llvm.mips.copy.s.b(<16 x i8> %rx33, i32 0) 143 ret i32 %res 144} 145 146declare <16 x i8> @llvm.mips.addv.b(<16 x i8>, <16 x i8>) nounwind 147declare i32 @llvm.mips.copy.s.b(<16 x i8>, i32) nounwind 148 149; CHECK: test_i8: 150; CHECK: st.b {{.*}} Spill 151; CHECK: st.b {{.*}} Spill 152; CHECK: ld.b {{.*}} Reload 153; CHECK: ld.b {{.*}} Reload 154; CHECK: .size 155 156define i32 @test_i16(<8 x i16>* %p0, <8 x i16>* %q1) nounwind { 157entry: 158 %p1 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 1 159 %p2 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 2 160 %p3 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 3 161 %p4 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 4 162 %p5 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 5 163 %p6 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 6 164 %p7 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 7 165 %p8 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 8 166 %p9 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 9 167 %p10 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 10 168 %p11 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 11 169 %p12 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 12 170 %p13 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 13 171 %p14 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 14 172 %p15 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 15 173 %p16 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 16 174 %p17 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 17 175 %p18 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 18 176 %p19 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 19 177 %p20 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 20 178 %p21 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 21 179 %p22 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 22 180 %p23 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 23 181 %p24 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 24 182 %p25 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 25 183 %p26 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 26 184 %p27 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 27 185 %p28 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 28 186 %p29 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 29 187 %p30 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 30 188 %p31 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 31 189 %p32 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 32 190 %p33 = getelementptr <8 x i16>, <8 x i16>* %p0, i32 33 191 %0 = load <8 x i16>, <8 x i16>* %p0, align 16 192 %1 = load <8 x i16>, <8 x i16>* %p1, align 16 193 %2 = load <8 x i16>, <8 x i16>* %p2, align 16 194 %3 = load <8 x i16>, <8 x i16>* %p3, align 16 195 %4 = load <8 x i16>, <8 x i16>* %p4, align 16 196 %5 = load <8 x i16>, <8 x i16>* %p5, align 16 197 %6 = load <8 x i16>, <8 x i16>* %p6, align 16 198 %7 = load <8 x i16>, <8 x i16>* %p7, align 16 199 %8 = load <8 x i16>, <8 x i16>* %p8, align 16 200 %9 = load <8 x i16>, <8 x i16>* %p9, align 16 201 %10 = load <8 x i16>, <8 x i16>* %p10, align 16 202 %11 = load <8 x i16>, <8 x i16>* %p11, align 16 203 %12 = load <8 x i16>, <8 x i16>* %p12, align 16 204 %13 = load <8 x i16>, <8 x i16>* %p13, align 16 205 %14 = load <8 x i16>, <8 x i16>* %p14, align 16 206 %15 = load <8 x i16>, <8 x i16>* %p15, align 16 207 %16 = load <8 x i16>, <8 x i16>* %p16, align 16 208 %17 = load <8 x i16>, <8 x i16>* %p17, align 16 209 %18 = load <8 x i16>, <8 x i16>* %p18, align 16 210 %19 = load <8 x i16>, <8 x i16>* %p19, align 16 211 %20 = load <8 x i16>, <8 x i16>* %p20, align 16 212 %21 = load <8 x i16>, <8 x i16>* %p21, align 16 213 %22 = load <8 x i16>, <8 x i16>* %p22, align 16 214 %23 = load <8 x i16>, <8 x i16>* %p23, align 16 215 %24 = load <8 x i16>, <8 x i16>* %p24, align 16 216 %25 = load <8 x i16>, <8 x i16>* %p25, align 16 217 %26 = load <8 x i16>, <8 x i16>* %p26, align 16 218 %27 = load <8 x i16>, <8 x i16>* %p27, align 16 219 %28 = load <8 x i16>, <8 x i16>* %p28, align 16 220 %29 = load <8 x i16>, <8 x i16>* %p29, align 16 221 %30 = load <8 x i16>, <8 x i16>* %p30, align 16 222 %31 = load <8 x i16>, <8 x i16>* %p31, align 16 223 %32 = load <8 x i16>, <8 x i16>* %p32, align 16 224 %33 = load <8 x i16>, <8 x i16>* %p33, align 16 225 %r1 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %0, <8 x i16> %1) 226 %r2 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r1, <8 x i16> %2) 227 %r3 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r2, <8 x i16> %3) 228 %r4 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r3, <8 x i16> %4) 229 %r5 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r4, <8 x i16> %5) 230 %r6 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r5, <8 x i16> %6) 231 %r7 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r6, <8 x i16> %7) 232 %r8 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r7, <8 x i16> %8) 233 %r9 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r8, <8 x i16> %9) 234 %r10 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r9, <8 x i16> %10) 235 %r11 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r10, <8 x i16> %11) 236 %r12 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r11, <8 x i16> %12) 237 %r13 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r12, <8 x i16> %13) 238 %r14 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r13, <8 x i16> %14) 239 %r15 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r14, <8 x i16> %15) 240 %r16 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r15, <8 x i16> %16) 241 %r17 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r16, <8 x i16> %17) 242 %r18 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r17, <8 x i16> %18) 243 %r19 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r18, <8 x i16> %19) 244 %r20 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r19, <8 x i16> %20) 245 %r21 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r20, <8 x i16> %21) 246 %r22 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r21, <8 x i16> %22) 247 %r23 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r22, <8 x i16> %23) 248 %r24 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r23, <8 x i16> %24) 249 %r25 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r24, <8 x i16> %25) 250 %r26 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r25, <8 x i16> %26) 251 %r27 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r26, <8 x i16> %27) 252 %r28 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r27, <8 x i16> %28) 253 %r29 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r28, <8 x i16> %29) 254 %r30 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r29, <8 x i16> %30) 255 %r31 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r30, <8 x i16> %31) 256 %r32 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r31, <8 x i16> %32) 257 %r33 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r32, <8 x i16> %33) 258 %rx1 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %r33, <8 x i16> %1) 259 %rx2 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx1, <8 x i16> %2) 260 %rx3 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx2, <8 x i16> %3) 261 %rx4 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx3, <8 x i16> %4) 262 %rx5 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx4, <8 x i16> %5) 263 %rx6 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx5, <8 x i16> %6) 264 %rx7 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx6, <8 x i16> %7) 265 %rx8 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx7, <8 x i16> %8) 266 %rx9 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx8, <8 x i16> %9) 267 %rx10 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx9, <8 x i16> %10) 268 %rx11 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx10, <8 x i16> %11) 269 %rx12 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx11, <8 x i16> %12) 270 %rx13 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx12, <8 x i16> %13) 271 %rx14 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx13, <8 x i16> %14) 272 %rx15 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx14, <8 x i16> %15) 273 %rx16 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx15, <8 x i16> %16) 274 %rx17 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx16, <8 x i16> %17) 275 %rx18 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx17, <8 x i16> %18) 276 %rx19 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx18, <8 x i16> %19) 277 %rx20 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx19, <8 x i16> %20) 278 %rx21 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx20, <8 x i16> %21) 279 %rx22 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx21, <8 x i16> %22) 280 %rx23 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx22, <8 x i16> %23) 281 %rx24 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx23, <8 x i16> %24) 282 %rx25 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx24, <8 x i16> %25) 283 %rx26 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx25, <8 x i16> %26) 284 %rx27 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx26, <8 x i16> %27) 285 %rx28 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx27, <8 x i16> %28) 286 %rx29 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx28, <8 x i16> %29) 287 %rx30 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx29, <8 x i16> %30) 288 %rx31 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx30, <8 x i16> %31) 289 %rx32 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx31, <8 x i16> %32) 290 %rx33 = call <8 x i16> @llvm.mips.addv.h(<8 x i16> %rx32, <8 x i16> %33) 291 %res = call i32 @llvm.mips.copy.s.h(<8 x i16> %rx33, i32 0) 292 ret i32 %res 293} 294 295declare <8 x i16> @llvm.mips.addv.h(<8 x i16>, <8 x i16>) nounwind 296declare i32 @llvm.mips.copy.s.h(<8 x i16>, i32) nounwind 297 298; CHECK: test_i16: 299; CHECK: st.h {{.*}} Spill 300; CHECK: st.h {{.*}} Spill 301; CHECK: ld.h {{.*}} Reload 302; CHECK: ld.h {{.*}} Reload 303; CHECK: .size 304 305define i32 @test_i32(<4 x i32>* %p0, <4 x i32>* %q1) nounwind { 306entry: 307 %p1 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 1 308 %p2 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 2 309 %p3 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 3 310 %p4 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 4 311 %p5 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 5 312 %p6 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 6 313 %p7 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 7 314 %p8 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 8 315 %p9 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 9 316 %p10 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 10 317 %p11 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 11 318 %p12 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 12 319 %p13 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 13 320 %p14 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 14 321 %p15 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 15 322 %p16 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 16 323 %p17 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 17 324 %p18 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 18 325 %p19 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 19 326 %p20 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 20 327 %p21 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 21 328 %p22 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 22 329 %p23 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 23 330 %p24 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 24 331 %p25 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 25 332 %p26 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 26 333 %p27 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 27 334 %p28 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 28 335 %p29 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 29 336 %p30 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 30 337 %p31 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 31 338 %p32 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 32 339 %p33 = getelementptr <4 x i32>, <4 x i32>* %p0, i32 33 340 %0 = load <4 x i32>, <4 x i32>* %p0, align 16 341 %1 = load <4 x i32>, <4 x i32>* %p1, align 16 342 %2 = load <4 x i32>, <4 x i32>* %p2, align 16 343 %3 = load <4 x i32>, <4 x i32>* %p3, align 16 344 %4 = load <4 x i32>, <4 x i32>* %p4, align 16 345 %5 = load <4 x i32>, <4 x i32>* %p5, align 16 346 %6 = load <4 x i32>, <4 x i32>* %p6, align 16 347 %7 = load <4 x i32>, <4 x i32>* %p7, align 16 348 %8 = load <4 x i32>, <4 x i32>* %p8, align 16 349 %9 = load <4 x i32>, <4 x i32>* %p9, align 16 350 %10 = load <4 x i32>, <4 x i32>* %p10, align 16 351 %11 = load <4 x i32>, <4 x i32>* %p11, align 16 352 %12 = load <4 x i32>, <4 x i32>* %p12, align 16 353 %13 = load <4 x i32>, <4 x i32>* %p13, align 16 354 %14 = load <4 x i32>, <4 x i32>* %p14, align 16 355 %15 = load <4 x i32>, <4 x i32>* %p15, align 16 356 %16 = load <4 x i32>, <4 x i32>* %p16, align 16 357 %17 = load <4 x i32>, <4 x i32>* %p17, align 16 358 %18 = load <4 x i32>, <4 x i32>* %p18, align 16 359 %19 = load <4 x i32>, <4 x i32>* %p19, align 16 360 %20 = load <4 x i32>, <4 x i32>* %p20, align 16 361 %21 = load <4 x i32>, <4 x i32>* %p21, align 16 362 %22 = load <4 x i32>, <4 x i32>* %p22, align 16 363 %23 = load <4 x i32>, <4 x i32>* %p23, align 16 364 %24 = load <4 x i32>, <4 x i32>* %p24, align 16 365 %25 = load <4 x i32>, <4 x i32>* %p25, align 16 366 %26 = load <4 x i32>, <4 x i32>* %p26, align 16 367 %27 = load <4 x i32>, <4 x i32>* %p27, align 16 368 %28 = load <4 x i32>, <4 x i32>* %p28, align 16 369 %29 = load <4 x i32>, <4 x i32>* %p29, align 16 370 %30 = load <4 x i32>, <4 x i32>* %p30, align 16 371 %31 = load <4 x i32>, <4 x i32>* %p31, align 16 372 %32 = load <4 x i32>, <4 x i32>* %p32, align 16 373 %33 = load <4 x i32>, <4 x i32>* %p33, align 16 374 %r1 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %0, <4 x i32> %1) 375 %r2 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r1, <4 x i32> %2) 376 %r3 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r2, <4 x i32> %3) 377 %r4 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r3, <4 x i32> %4) 378 %r5 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r4, <4 x i32> %5) 379 %r6 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r5, <4 x i32> %6) 380 %r7 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r6, <4 x i32> %7) 381 %r8 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r7, <4 x i32> %8) 382 %r9 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r8, <4 x i32> %9) 383 %r10 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r9, <4 x i32> %10) 384 %r11 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r10, <4 x i32> %11) 385 %r12 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r11, <4 x i32> %12) 386 %r13 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r12, <4 x i32> %13) 387 %r14 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r13, <4 x i32> %14) 388 %r15 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r14, <4 x i32> %15) 389 %r16 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r15, <4 x i32> %16) 390 %r17 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r16, <4 x i32> %17) 391 %r18 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r17, <4 x i32> %18) 392 %r19 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r18, <4 x i32> %19) 393 %r20 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r19, <4 x i32> %20) 394 %r21 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r20, <4 x i32> %21) 395 %r22 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r21, <4 x i32> %22) 396 %r23 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r22, <4 x i32> %23) 397 %r24 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r23, <4 x i32> %24) 398 %r25 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r24, <4 x i32> %25) 399 %r26 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r25, <4 x i32> %26) 400 %r27 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r26, <4 x i32> %27) 401 %r28 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r27, <4 x i32> %28) 402 %r29 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r28, <4 x i32> %29) 403 %r30 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r29, <4 x i32> %30) 404 %r31 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r30, <4 x i32> %31) 405 %r32 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r31, <4 x i32> %32) 406 %r33 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r32, <4 x i32> %33) 407 %rx1 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %r33, <4 x i32> %1) 408 %rx2 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx1, <4 x i32> %2) 409 %rx3 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx2, <4 x i32> %3) 410 %rx4 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx3, <4 x i32> %4) 411 %rx5 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx4, <4 x i32> %5) 412 %rx6 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx5, <4 x i32> %6) 413 %rx7 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx6, <4 x i32> %7) 414 %rx8 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx7, <4 x i32> %8) 415 %rx9 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx8, <4 x i32> %9) 416 %rx10 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx9, <4 x i32> %10) 417 %rx11 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx10, <4 x i32> %11) 418 %rx12 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx11, <4 x i32> %12) 419 %rx13 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx12, <4 x i32> %13) 420 %rx14 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx13, <4 x i32> %14) 421 %rx15 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx14, <4 x i32> %15) 422 %rx16 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx15, <4 x i32> %16) 423 %rx17 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx16, <4 x i32> %17) 424 %rx18 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx17, <4 x i32> %18) 425 %rx19 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx18, <4 x i32> %19) 426 %rx20 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx19, <4 x i32> %20) 427 %rx21 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx20, <4 x i32> %21) 428 %rx22 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx21, <4 x i32> %22) 429 %rx23 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx22, <4 x i32> %23) 430 %rx24 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx23, <4 x i32> %24) 431 %rx25 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx24, <4 x i32> %25) 432 %rx26 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx25, <4 x i32> %26) 433 %rx27 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx26, <4 x i32> %27) 434 %rx28 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx27, <4 x i32> %28) 435 %rx29 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx28, <4 x i32> %29) 436 %rx30 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx29, <4 x i32> %30) 437 %rx31 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx30, <4 x i32> %31) 438 %rx32 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx31, <4 x i32> %32) 439 %rx33 = call <4 x i32> @llvm.mips.addv.w(<4 x i32> %rx32, <4 x i32> %33) 440 %res = call i32 @llvm.mips.copy.s.w(<4 x i32> %rx33, i32 0) 441 ret i32 %res 442} 443 444declare <4 x i32> @llvm.mips.addv.w(<4 x i32>, <4 x i32>) nounwind 445declare i32 @llvm.mips.copy.s.w(<4 x i32>, i32) nounwind 446 447; CHECK: test_i32: 448; CHECK: st.w {{.*}} Spill 449; CHECK: st.w {{.*}} Spill 450; CHECK: ld.w {{.*}} Reload 451; CHECK: ld.w {{.*}} Reload 452; CHECK: .size 453 454define i32 @test_i64(<2 x i64>* %p0, <2 x i64>* %q1) nounwind { 455entry: 456 %p1 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 1 457 %p2 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 2 458 %p3 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 3 459 %p4 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 4 460 %p5 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 5 461 %p6 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 6 462 %p7 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 7 463 %p8 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 8 464 %p9 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 9 465 %p10 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 10 466 %p11 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 11 467 %p12 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 12 468 %p13 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 13 469 %p14 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 14 470 %p15 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 15 471 %p16 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 16 472 %p17 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 17 473 %p18 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 18 474 %p19 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 19 475 %p20 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 20 476 %p21 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 21 477 %p22 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 22 478 %p23 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 23 479 %p24 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 24 480 %p25 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 25 481 %p26 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 26 482 %p27 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 27 483 %p28 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 28 484 %p29 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 29 485 %p30 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 30 486 %p31 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 31 487 %p32 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 32 488 %p33 = getelementptr <2 x i64>, <2 x i64>* %p0, i32 33 489 %0 = load <2 x i64>, <2 x i64>* %p0, align 16 490 %1 = load <2 x i64>, <2 x i64>* %p1, align 16 491 %2 = load <2 x i64>, <2 x i64>* %p2, align 16 492 %3 = load <2 x i64>, <2 x i64>* %p3, align 16 493 %4 = load <2 x i64>, <2 x i64>* %p4, align 16 494 %5 = load <2 x i64>, <2 x i64>* %p5, align 16 495 %6 = load <2 x i64>, <2 x i64>* %p6, align 16 496 %7 = load <2 x i64>, <2 x i64>* %p7, align 16 497 %8 = load <2 x i64>, <2 x i64>* %p8, align 16 498 %9 = load <2 x i64>, <2 x i64>* %p9, align 16 499 %10 = load <2 x i64>, <2 x i64>* %p10, align 16 500 %11 = load <2 x i64>, <2 x i64>* %p11, align 16 501 %12 = load <2 x i64>, <2 x i64>* %p12, align 16 502 %13 = load <2 x i64>, <2 x i64>* %p13, align 16 503 %14 = load <2 x i64>, <2 x i64>* %p14, align 16 504 %15 = load <2 x i64>, <2 x i64>* %p15, align 16 505 %16 = load <2 x i64>, <2 x i64>* %p16, align 16 506 %17 = load <2 x i64>, <2 x i64>* %p17, align 16 507 %18 = load <2 x i64>, <2 x i64>* %p18, align 16 508 %19 = load <2 x i64>, <2 x i64>* %p19, align 16 509 %20 = load <2 x i64>, <2 x i64>* %p20, align 16 510 %21 = load <2 x i64>, <2 x i64>* %p21, align 16 511 %22 = load <2 x i64>, <2 x i64>* %p22, align 16 512 %23 = load <2 x i64>, <2 x i64>* %p23, align 16 513 %24 = load <2 x i64>, <2 x i64>* %p24, align 16 514 %25 = load <2 x i64>, <2 x i64>* %p25, align 16 515 %26 = load <2 x i64>, <2 x i64>* %p26, align 16 516 %27 = load <2 x i64>, <2 x i64>* %p27, align 16 517 %28 = load <2 x i64>, <2 x i64>* %p28, align 16 518 %29 = load <2 x i64>, <2 x i64>* %p29, align 16 519 %30 = load <2 x i64>, <2 x i64>* %p30, align 16 520 %31 = load <2 x i64>, <2 x i64>* %p31, align 16 521 %32 = load <2 x i64>, <2 x i64>* %p32, align 16 522 %33 = load <2 x i64>, <2 x i64>* %p33, align 16 523 %r1 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %0, <2 x i64> %1) 524 %r2 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r1, <2 x i64> %2) 525 %r3 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r2, <2 x i64> %3) 526 %r4 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r3, <2 x i64> %4) 527 %r5 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r4, <2 x i64> %5) 528 %r6 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r5, <2 x i64> %6) 529 %r7 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r6, <2 x i64> %7) 530 %r8 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r7, <2 x i64> %8) 531 %r9 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r8, <2 x i64> %9) 532 %r10 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r9, <2 x i64> %10) 533 %r11 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r10, <2 x i64> %11) 534 %r12 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r11, <2 x i64> %12) 535 %r13 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r12, <2 x i64> %13) 536 %r14 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r13, <2 x i64> %14) 537 %r15 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r14, <2 x i64> %15) 538 %r16 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r15, <2 x i64> %16) 539 %r17 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r16, <2 x i64> %17) 540 %r18 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r17, <2 x i64> %18) 541 %r19 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r18, <2 x i64> %19) 542 %r20 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r19, <2 x i64> %20) 543 %r21 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r20, <2 x i64> %21) 544 %r22 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r21, <2 x i64> %22) 545 %r23 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r22, <2 x i64> %23) 546 %r24 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r23, <2 x i64> %24) 547 %r25 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r24, <2 x i64> %25) 548 %r26 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r25, <2 x i64> %26) 549 %r27 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r26, <2 x i64> %27) 550 %r28 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r27, <2 x i64> %28) 551 %r29 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r28, <2 x i64> %29) 552 %r30 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r29, <2 x i64> %30) 553 %r31 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r30, <2 x i64> %31) 554 %r32 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r31, <2 x i64> %32) 555 %r33 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r32, <2 x i64> %33) 556 %rx1 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %r33, <2 x i64> %1) 557 %rx2 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx1, <2 x i64> %2) 558 %rx3 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx2, <2 x i64> %3) 559 %rx4 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx3, <2 x i64> %4) 560 %rx5 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx4, <2 x i64> %5) 561 %rx6 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx5, <2 x i64> %6) 562 %rx7 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx6, <2 x i64> %7) 563 %rx8 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx7, <2 x i64> %8) 564 %rx9 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx8, <2 x i64> %9) 565 %rx10 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx9, <2 x i64> %10) 566 %rx11 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx10, <2 x i64> %11) 567 %rx12 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx11, <2 x i64> %12) 568 %rx13 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx12, <2 x i64> %13) 569 %rx14 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx13, <2 x i64> %14) 570 %rx15 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx14, <2 x i64> %15) 571 %rx16 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx15, <2 x i64> %16) 572 %rx17 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx16, <2 x i64> %17) 573 %rx18 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx17, <2 x i64> %18) 574 %rx19 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx18, <2 x i64> %19) 575 %rx20 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx19, <2 x i64> %20) 576 %rx21 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx20, <2 x i64> %21) 577 %rx22 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx21, <2 x i64> %22) 578 %rx23 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx22, <2 x i64> %23) 579 %rx24 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx23, <2 x i64> %24) 580 %rx25 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx24, <2 x i64> %25) 581 %rx26 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx25, <2 x i64> %26) 582 %rx27 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx26, <2 x i64> %27) 583 %rx28 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx27, <2 x i64> %28) 584 %rx29 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx28, <2 x i64> %29) 585 %rx30 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx29, <2 x i64> %30) 586 %rx31 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx30, <2 x i64> %31) 587 %rx32 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx31, <2 x i64> %32) 588 %rx33 = call <2 x i64> @llvm.mips.addv.d(<2 x i64> %rx32, <2 x i64> %33) 589 %res1 = bitcast <2 x i64> %rx33 to <4 x i32> 590 %res = call i32 @llvm.mips.copy.s.w(<4 x i32> %res1, i32 0) 591 ret i32 %res 592} 593 594declare <2 x i64> @llvm.mips.addv.d(<2 x i64>, <2 x i64>) nounwind 595 596; CHECK: test_i64: 597; CHECK: st.d {{.*}} Spill 598; CHECK: st.d {{.*}} Spill 599; CHECK: ld.d {{.*}} Reload 600; CHECK: ld.d {{.*}} Reload 601; CHECK: .size 602