/external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
D | field-extract-use-trunc.ll | 5 %tmp7.25 = lshr i32 %f12, 16 6 %tmp7.26 = trunc i32 %tmp7.25 to i8 7 %tmp78.2 = sext i8 %tmp7.26 to i32 13 %tmp7.25 = ashr i32 %f11, 24 14 ret i32 %tmp7.25 19 %tmp7.25 = ashr i32 %f11, 24 20 ret i32 %tmp7.25 25 %tmp7.25 = ashr i64 %f11, 32 26 ret i64 %tmp7.25 31 %tmp7.25 = ashr i16 %f11, 8 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/ |
D | field-extract-use-trunc.ll | 5 %tmp7.25 = lshr i32 %f12, 16 6 %tmp7.26 = trunc i32 %tmp7.25 to i8 7 %tmp78.2 = sext i8 %tmp7.26 to i32 13 %tmp7.25 = ashr i32 %f11, 24 14 ret i32 %tmp7.25 19 %tmp7.25 = ashr i32 %f11, 24 20 ret i32 %tmp7.25 25 %tmp7.25 = ashr i64 %f11, 32 26 ret i64 %tmp7.25 31 %tmp7.25 = ashr i16 %f11, 8 [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | field-extract-use-trunc.ll | 5 %tmp7.25 = lshr i32 %f12, 16 6 %tmp7.26 = trunc i32 %tmp7.25 to i8 7 %tmp78.2 = sext i8 %tmp7.26 to i32 13 %tmp7.25 = ashr i32 %f11, 24 14 ret i32 %tmp7.25 19 %tmp7.25 = ashr i32 %f11, 24 20 ret i32 %tmp7.25 25 %tmp7.25 = ashr i64 %f11, 32 26 ret i64 %tmp7.25 31 %tmp7.25 = ashr i16 %f11, 8 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/IndVarSimplify/ |
D | huge_muls.ll | 31 %tmp7 = mul i32 %tmp6, %tmp1 37 %tmp8 = mul i32 %tmp7, %local_2_24.us.postloop 39 %tmp10 = mul i32 %tmp7, %tmp9 41 %tmp12 = mul i32 %tmp7, %tmp11 43 %tmp14 = mul i32 %tmp7, %tmp13 45 %tmp16 = mul i32 %tmp7, %tmp15 55 %tmp20 = mul i32 %tmp7, %tmp17 57 %tmp22 = mul i32 %tmp7, %tmp21 59 %tmp24 = mul i32 %tmp7, %tmp23 61 %tmp26 = mul i32 %tmp7, %tmp25 [all …]
|
D | replace-iv-with-loop-invariant.ll | 13 %tmp = phi i64* [%arg, %bb ], [ %tmp7, %bb2 ] 16 %tmp7 = load i64*, i64** undef, align 8 28 %tmp = phi i64* [%arg, %bb ], [ %tmp7, %bb2 ] 31 %tmp7 = load i64*, i64** undef, align 8 43 %tmp = phi i64* [%arg, %bb ], [ %tmp7, %bb2 ] 46 %tmp7 = load i64*, i64** undef, align 8 59 %tmp = phi i64* [%arg, %bb ], [ %tmp7, %bb2 ] 62 %tmp7 = load i64*, i64** undef, align 8 74 %tmp = phi i64* [%arg, %bb ], [ %tmp7, %bb2 ] 79 %tmp7 = load i64*, i64** undef, align 8
|
D | ada-loops.ll | 53 %i.0.reg2mem.0 = phi i8 [ 0, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=1] 54 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=3] 55 %tmp1 = zext i8 %tmp7 to i32 ; <i32> [#uses=1] 58 %0 = icmp eq i8 %tmp7, -1 ; <i1> [#uses=1] 70 %i.0.reg2mem.0 = phi i8 [ -10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2] 75 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2] 76 %0 = icmp sgt i8 %tmp7, 10 ; <i1> [#uses=1] 88 %i.0.reg2mem.0 = phi i8 [ 10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2] 93 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2] 94 %0 = icmp sgt i8 %tmp7, 30 ; <i1> [#uses=1]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/AMDGPU/ |
D | rv7x0_count3.ll | 13 %tmp7 = insertelement <4 x float> %tmp6, float %tmp3, i32 3 14 %tmp8 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 16 …%tmp10 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 18 …%tmp12 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 20 …%tmp14 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 22 …%tmp16 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 24 …%tmp18 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 26 …%tmp20 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 28 …%tmp22 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 30 …%tmp24 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> [all …]
|
D | idiv-licm.ll | 29 %tmp = phi i32 [ 0, %bb ], [ %tmp7, %bb3 ] 34 %tmp7 = add nuw nsw i32 %tmp, 1 35 %tmp8 = icmp eq i32 %tmp7, 1024 65 %tmp = phi i32 [ 0, %bb ], [ %tmp7, %bb3 ] 70 %tmp7 = add nuw nsw i32 %tmp, 1 71 %tmp8 = icmp eq i32 %tmp7, 1024 101 %tmp = phi i32 [ 0, %bb ], [ %tmp7, %bb3 ] 106 %tmp7 = add nuw nsw i32 %tmp, 1 107 %tmp8 = icmp eq i32 %tmp7, 1024 137 %tmp = phi i32 [ 0, %bb ], [ %tmp7, %bb3 ] [all …]
|
D | mubuf-shader-vgpr.ll | 12 %tmp7 = call float @llvm.amdgcn.buffer.load.format.f32(<4 x i32> %tmp2, i32 0, i32 0, i1 0, i1 0) 13 ret float %tmp7 22 …%tmp7 = call float @llvm.amdgcn.buffer.load.format.f32(<4 x i32> %tmp2, i32 undef, i32 0, i1 0, i1… 23 ret float %tmp7 32 …%tmp7 = call float @llvm.amdgcn.buffer.load.format.f32(<4 x i32> %tmp2, i32 0, i32 undef, i1 0, i1… 33 ret float %tmp7 42 …%tmp7 = call float @llvm.amdgcn.buffer.load.format.f32(<4 x i32> %tmp2, i32 undef, i32 undef, i1 0… 43 ret float %tmp7
|
/external/llvm/test/CodeGen/AMDGPU/ |
D | rv7x0_count3.ll | 13 %tmp7 = insertelement <4 x float> %tmp6, float %tmp3, i32 3 14 %tmp8 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 16 …%tmp10 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 18 …%tmp12 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 20 …%tmp14 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 22 …%tmp16 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 24 …%tmp18 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 26 …%tmp20 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 28 …%tmp22 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> 30 …%tmp24 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3> [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/InstCombine/ |
D | and-xor-merge.ll | 7 ; CHECK-NEXT: %tmp7 = and i32 %tmp61, %z 8 ; CHECK-NEXT: ret i32 %tmp7 11 %tmp7 = xor i32 %tmp3, %tmp6 12 ret i32 %tmp7 18 ; CHECK-NEXT: %tmp7 = xor i32 %y, %x 19 ; CHECK-NEXT: ret i32 %tmp7 22 %tmp7 = xor i32 %tmp3, %tmp6 23 ret i32 %tmp7
|
/external/llvm/test/Transforms/InstCombine/ |
D | and-xor-merge.ll | 7 ; CHECK-NEXT: %tmp7 = and i32 %tmp61, %z 8 ; CHECK-NEXT: ret i32 %tmp7 11 %tmp7 = xor i32 %tmp3, %tmp6 12 ret i32 %tmp7 18 ; CHECK-NEXT: %tmp7 = xor i32 %y, %x 19 ; CHECK-NEXT: ret i32 %tmp7 22 %tmp7 = xor i32 %tmp3, %tmp6 23 ret i32 %tmp7
|
D | and-or-not.ll | 11 %tmp7 = or i32 %tmp6, %tmp3not ; <i32> [#uses=1] 12 %tmp7not = xor i32 %tmp7, -1 ; <i32> [#uses=1] 24 %tmp7 = and i32 %tmp3, %tmp6not ; <i32> [#uses=1] 25 ret i32 %tmp7 36 %tmp7 = or <4 x i32> %tmp6, %tmp3not ; <<4 x i32>> [#uses=1] 37 …%tmp7not = xor <4 x i32> %tmp7, < i32 -1, i32 -1, i32 -1, i32 -1 > ; <<4 x i32>> [#us… 49 %tmp7 = and <4 x i32> %tmp3, %tmp6not ; <<4 x i32>> [#uses=1] 50 ret <4 x i32> %tmp7
|
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | vbsl.ll | 12 %tmp7 = or <8 x i8> %tmp4, %tmp6 13 ret <8 x i8> %tmp7 25 %tmp7 = or <4 x i16> %tmp4, %tmp6 26 ret <4 x i16> %tmp7 38 %tmp7 = or <2 x i32> %tmp4, %tmp6 39 ret <2 x i32> %tmp7 51 %tmp7 = or <1 x i64> %tmp4, %tmp6 52 ret <1 x i64> %tmp7 64 %tmp7 = or <16 x i8> %tmp4, %tmp6 65 ret <16 x i8> %tmp7 [all …]
|
D | vbsl-constant.ll | 13 %tmp7 = or <8 x i8> %tmp4, %tmp6 14 ret <8 x i8> %tmp7 27 %tmp7 = or <4 x i16> %tmp4, %tmp6 28 ret <4 x i16> %tmp7 41 %tmp7 = or <2 x i32> %tmp4, %tmp6 42 ret <2 x i32> %tmp7 56 %tmp7 = or <1 x i64> %tmp4, %tmp6 57 ret <1 x i64> %tmp7 70 %tmp7 = or <16 x i8> %tmp4, %tmp6 71 ret <16 x i8> %tmp7 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | vbsl-constant.ll | 13 %tmp7 = or <8 x i8> %tmp4, %tmp6 14 ret <8 x i8> %tmp7 27 %tmp7 = or <4 x i16> %tmp4, %tmp6 28 ret <4 x i16> %tmp7 41 %tmp7 = or <2 x i32> %tmp4, %tmp6 42 ret <2 x i32> %tmp7 56 %tmp7 = or <1 x i64> %tmp4, %tmp6 57 ret <1 x i64> %tmp7 70 %tmp7 = or <16 x i8> %tmp4, %tmp6 71 ret <16 x i8> %tmp7 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/ |
D | vbsl-constant.ll | 13 %tmp7 = or <8 x i8> %tmp4, %tmp6 14 ret <8 x i8> %tmp7 27 %tmp7 = or <4 x i16> %tmp4, %tmp6 28 ret <4 x i16> %tmp7 41 %tmp7 = or <2 x i32> %tmp4, %tmp6 42 ret <2 x i32> %tmp7 56 %tmp7 = or <1 x i64> %tmp4, %tmp6 57 ret <1 x i64> %tmp7 70 %tmp7 = or <16 x i8> %tmp4, %tmp6 71 ret <16 x i8> %tmp7 [all …]
|
/external/libjpeg-turbo/ |
D | jfdctint.c | 145 JLONG tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 159 tmp7 = dataptr[0] - dataptr[7]; 190 z1 = tmp4 + tmp7; 193 z4 = tmp5 + tmp7; 199 tmp7 = MULTIPLY(tmp7, FIX_1_501321110); /* sqrt(2) * ( c1+c3-c5-c7) */ 211 dataptr[1] = (DCTELEM)DESCALE(tmp7 + z1 + z4, CONST_BITS - PASS1_BITS); 224 tmp7 = dataptr[DCTSIZE * 0] - dataptr[DCTSIZE * 7]; 257 z1 = tmp4 + tmp7; 260 z4 = tmp5 + tmp7; 266 tmp7 = MULTIPLY(tmp7, FIX_1_501321110); /* sqrt(2) * ( c1+c3-c5-c7) */ [all …]
|
D | jidctflt.c | 76 FAST_FLOAT tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 149 tmp7 = DEQUANTIZE(inptr[DCTSIZE * 7], quantptr[DCTSIZE * 7] * _0_125); 153 z11 = tmp4 + tmp7; 154 z12 = tmp4 - tmp7; 156 tmp7 = z11 + z13; /* phase 5 */ 163 tmp6 = tmp12 - tmp7; /* phase 2 */ 167 wsptr[DCTSIZE * 0] = tmp0 + tmp7; 168 wsptr[DCTSIZE * 7] = tmp0 - tmp7; 214 tmp7 = z11 + z13; 221 tmp6 = tmp12 - tmp7; [all …]
|
D | jfdctflt.c | 62 FAST_FLOAT tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 73 tmp7 = dataptr[0] - dataptr[7]; 99 tmp12 = tmp6 + tmp7; 107 z11 = tmp7 + z3; /* phase 5 */ 108 z13 = tmp7 - z3; 123 tmp7 = dataptr[DCTSIZE * 0] - dataptr[DCTSIZE * 7]; 149 tmp12 = tmp6 + tmp7; 157 z11 = tmp7 + z3; /* phase 5 */ 158 z13 = tmp7 - z3;
|
D | jfdctfst.c | 119 DCTELEM tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 131 tmp7 = dataptr[0] - dataptr[7]; 157 tmp12 = tmp6 + tmp7; 165 z11 = tmp7 + z3; /* phase 5 */ 166 z13 = tmp7 - z3; 181 tmp7 = dataptr[DCTSIZE * 0] - dataptr[DCTSIZE * 7]; 207 tmp12 = tmp6 + tmp7; 215 z11 = tmp7 + z3; /* phase 5 */ 216 z13 = tmp7 - z3;
|
D | jidctfst.c | 175 DCTELEM tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 248 tmp7 = DEQUANTIZE(inptr[DCTSIZE * 7], quantptr[DCTSIZE * 7]); 252 z11 = tmp4 + tmp7; 253 z12 = tmp4 - tmp7; 255 tmp7 = z11 + z13; /* phase 5 */ 262 tmp6 = tmp12 - tmp7; /* phase 2 */ 266 wsptr[DCTSIZE * 0] = (int)(tmp0 + tmp7); 267 wsptr[DCTSIZE * 7] = (int)(tmp0 - tmp7); 337 tmp7 = z11 + z13; /* phase 5 */ 344 tmp6 = tmp12 - tmp7; /* phase 2 */ [all …]
|
/external/swiftshader/third_party/LLVM/test/Transforms/InstCombine/ |
D | and-or-not.ll | 14 %tmp7 = or i32 %tmp6, %tmp3not ; <i32> [#uses=1] 15 %tmp7not = xor i32 %tmp7, -1 ; <i32> [#uses=1] 24 %tmp7 = and i32 %tmp3, %tmp6not ; <i32> [#uses=1] 25 ret i32 %tmp7 33 %tmp7 = or <4 x i32> %tmp6, %tmp3not ; <<4 x i32>> [#uses=1] 34 …%tmp7not = xor <4 x i32> %tmp7, < i32 -1, i32 -1, i32 -1, i32 -1 > ; <<4 x i32>> [#us… 43 %tmp7 = and <4 x i32> %tmp3, %tmp6not ; <<4 x i32>> [#uses=1] 44 ret <4 x i32> %tmp7
|
/external/swiftshader/third_party/LLVM/test/Transforms/IndVarSimplify/ |
D | ada-loops.ll | 47 %i.0.reg2mem.0 = phi i8 [ 0, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=1] 48 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=3] 49 %tmp1 = zext i8 %tmp7 to i32 ; <i32> [#uses=1] 52 %0 = icmp eq i8 %tmp7, -1 ; <i1> [#uses=1] 64 %i.0.reg2mem.0 = phi i8 [ -10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2] 69 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2] 70 %0 = icmp sgt i8 %tmp7, 10 ; <i1> [#uses=1] 82 %i.0.reg2mem.0 = phi i8 [ 10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2] 87 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2] 88 %0 = icmp sgt i8 %tmp7, 30 ; <i1> [#uses=1]
|
/external/llvm/test/Transforms/IndVarSimplify/ |
D | ada-loops.ll | 46 %i.0.reg2mem.0 = phi i8 [ 0, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=1] 47 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=3] 48 %tmp1 = zext i8 %tmp7 to i32 ; <i32> [#uses=1] 51 %0 = icmp eq i8 %tmp7, -1 ; <i1> [#uses=1] 63 %i.0.reg2mem.0 = phi i8 [ -10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2] 68 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2] 69 %0 = icmp sgt i8 %tmp7, 10 ; <i1> [#uses=1] 81 %i.0.reg2mem.0 = phi i8 [ 10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2] 86 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2] 87 %0 = icmp sgt i8 %tmp7, 30 ; <i1> [#uses=1]
|