Home
last modified time | relevance | path

Searched refs:tmp7 (Results 1 – 25 of 1081) sorted by relevance

12345678910>>...44

/external/swiftshader/third_party/LLVM/test/CodeGen/X86/
Dfield-extract-use-trunc.ll5 %tmp7.25 = lshr i32 %f12, 16
6 %tmp7.26 = trunc i32 %tmp7.25 to i8
7 %tmp78.2 = sext i8 %tmp7.26 to i32
13 %tmp7.25 = ashr i32 %f11, 24
14 ret i32 %tmp7.25
19 %tmp7.25 = ashr i32 %f11, 24
20 ret i32 %tmp7.25
25 %tmp7.25 = ashr i64 %f11, 32
26 ret i64 %tmp7.25
31 %tmp7.25 = ashr i16 %f11, 8
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/
Dfield-extract-use-trunc.ll5 %tmp7.25 = lshr i32 %f12, 16
6 %tmp7.26 = trunc i32 %tmp7.25 to i8
7 %tmp78.2 = sext i8 %tmp7.26 to i32
13 %tmp7.25 = ashr i32 %f11, 24
14 ret i32 %tmp7.25
19 %tmp7.25 = ashr i32 %f11, 24
20 ret i32 %tmp7.25
25 %tmp7.25 = ashr i64 %f11, 32
26 ret i64 %tmp7.25
31 %tmp7.25 = ashr i16 %f11, 8
[all …]
/external/llvm/test/CodeGen/X86/
Dfield-extract-use-trunc.ll5 %tmp7.25 = lshr i32 %f12, 16
6 %tmp7.26 = trunc i32 %tmp7.25 to i8
7 %tmp78.2 = sext i8 %tmp7.26 to i32
13 %tmp7.25 = ashr i32 %f11, 24
14 ret i32 %tmp7.25
19 %tmp7.25 = ashr i32 %f11, 24
20 ret i32 %tmp7.25
25 %tmp7.25 = ashr i64 %f11, 32
26 ret i64 %tmp7.25
31 %tmp7.25 = ashr i16 %f11, 8
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/IndVarSimplify/
Dhuge_muls.ll31 %tmp7 = mul i32 %tmp6, %tmp1
37 %tmp8 = mul i32 %tmp7, %local_2_24.us.postloop
39 %tmp10 = mul i32 %tmp7, %tmp9
41 %tmp12 = mul i32 %tmp7, %tmp11
43 %tmp14 = mul i32 %tmp7, %tmp13
45 %tmp16 = mul i32 %tmp7, %tmp15
55 %tmp20 = mul i32 %tmp7, %tmp17
57 %tmp22 = mul i32 %tmp7, %tmp21
59 %tmp24 = mul i32 %tmp7, %tmp23
61 %tmp26 = mul i32 %tmp7, %tmp25
[all …]
Dreplace-iv-with-loop-invariant.ll13 %tmp = phi i64* [%arg, %bb ], [ %tmp7, %bb2 ]
16 %tmp7 = load i64*, i64** undef, align 8
28 %tmp = phi i64* [%arg, %bb ], [ %tmp7, %bb2 ]
31 %tmp7 = load i64*, i64** undef, align 8
43 %tmp = phi i64* [%arg, %bb ], [ %tmp7, %bb2 ]
46 %tmp7 = load i64*, i64** undef, align 8
59 %tmp = phi i64* [%arg, %bb ], [ %tmp7, %bb2 ]
62 %tmp7 = load i64*, i64** undef, align 8
74 %tmp = phi i64* [%arg, %bb ], [ %tmp7, %bb2 ]
79 %tmp7 = load i64*, i64** undef, align 8
Dada-loops.ll53 %i.0.reg2mem.0 = phi i8 [ 0, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=1]
54 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=3]
55 %tmp1 = zext i8 %tmp7 to i32 ; <i32> [#uses=1]
58 %0 = icmp eq i8 %tmp7, -1 ; <i1> [#uses=1]
70 %i.0.reg2mem.0 = phi i8 [ -10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2]
75 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2]
76 %0 = icmp sgt i8 %tmp7, 10 ; <i1> [#uses=1]
88 %i.0.reg2mem.0 = phi i8 [ 10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2]
93 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2]
94 %0 = icmp sgt i8 %tmp7, 30 ; <i1> [#uses=1]
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/AMDGPU/
Drv7x0_count3.ll13 %tmp7 = insertelement <4 x float> %tmp6, float %tmp3, i32 3
14 %tmp8 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
16 …%tmp10 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
18 …%tmp12 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
20 …%tmp14 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
22 …%tmp16 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
24 …%tmp18 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
26 …%tmp20 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
28 …%tmp22 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
30 …%tmp24 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
[all …]
Didiv-licm.ll29 %tmp = phi i32 [ 0, %bb ], [ %tmp7, %bb3 ]
34 %tmp7 = add nuw nsw i32 %tmp, 1
35 %tmp8 = icmp eq i32 %tmp7, 1024
65 %tmp = phi i32 [ 0, %bb ], [ %tmp7, %bb3 ]
70 %tmp7 = add nuw nsw i32 %tmp, 1
71 %tmp8 = icmp eq i32 %tmp7, 1024
101 %tmp = phi i32 [ 0, %bb ], [ %tmp7, %bb3 ]
106 %tmp7 = add nuw nsw i32 %tmp, 1
107 %tmp8 = icmp eq i32 %tmp7, 1024
137 %tmp = phi i32 [ 0, %bb ], [ %tmp7, %bb3 ]
[all …]
Dmubuf-shader-vgpr.ll12 %tmp7 = call float @llvm.amdgcn.buffer.load.format.f32(<4 x i32> %tmp2, i32 0, i32 0, i1 0, i1 0)
13 ret float %tmp7
22 …%tmp7 = call float @llvm.amdgcn.buffer.load.format.f32(<4 x i32> %tmp2, i32 undef, i32 0, i1 0, i1…
23 ret float %tmp7
32 …%tmp7 = call float @llvm.amdgcn.buffer.load.format.f32(<4 x i32> %tmp2, i32 0, i32 undef, i1 0, i1…
33 ret float %tmp7
42 …%tmp7 = call float @llvm.amdgcn.buffer.load.format.f32(<4 x i32> %tmp2, i32 undef, i32 undef, i1 0…
43 ret float %tmp7
/external/llvm/test/CodeGen/AMDGPU/
Drv7x0_count3.ll13 %tmp7 = insertelement <4 x float> %tmp6, float %tmp3, i32 3
14 %tmp8 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
16 …%tmp10 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
18 …%tmp12 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
20 …%tmp14 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
22 …%tmp16 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
24 …%tmp18 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
26 …%tmp20 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
28 …%tmp22 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
30 …%tmp24 = shufflevector <4 x float> %tmp7, <4 x float> %tmp7, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/InstCombine/
Dand-xor-merge.ll7 ; CHECK-NEXT: %tmp7 = and i32 %tmp61, %z
8 ; CHECK-NEXT: ret i32 %tmp7
11 %tmp7 = xor i32 %tmp3, %tmp6
12 ret i32 %tmp7
18 ; CHECK-NEXT: %tmp7 = xor i32 %y, %x
19 ; CHECK-NEXT: ret i32 %tmp7
22 %tmp7 = xor i32 %tmp3, %tmp6
23 ret i32 %tmp7
/external/llvm/test/Transforms/InstCombine/
Dand-xor-merge.ll7 ; CHECK-NEXT: %tmp7 = and i32 %tmp61, %z
8 ; CHECK-NEXT: ret i32 %tmp7
11 %tmp7 = xor i32 %tmp3, %tmp6
12 ret i32 %tmp7
18 ; CHECK-NEXT: %tmp7 = xor i32 %y, %x
19 ; CHECK-NEXT: ret i32 %tmp7
22 %tmp7 = xor i32 %tmp3, %tmp6
23 ret i32 %tmp7
Dand-or-not.ll11 %tmp7 = or i32 %tmp6, %tmp3not ; <i32> [#uses=1]
12 %tmp7not = xor i32 %tmp7, -1 ; <i32> [#uses=1]
24 %tmp7 = and i32 %tmp3, %tmp6not ; <i32> [#uses=1]
25 ret i32 %tmp7
36 %tmp7 = or <4 x i32> %tmp6, %tmp3not ; <<4 x i32>> [#uses=1]
37 …%tmp7not = xor <4 x i32> %tmp7, < i32 -1, i32 -1, i32 -1, i32 -1 > ; <<4 x i32>> [#us…
49 %tmp7 = and <4 x i32> %tmp3, %tmp6not ; <<4 x i32>> [#uses=1]
50 ret <4 x i32> %tmp7
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/
Dvbsl.ll12 %tmp7 = or <8 x i8> %tmp4, %tmp6
13 ret <8 x i8> %tmp7
25 %tmp7 = or <4 x i16> %tmp4, %tmp6
26 ret <4 x i16> %tmp7
38 %tmp7 = or <2 x i32> %tmp4, %tmp6
39 ret <2 x i32> %tmp7
51 %tmp7 = or <1 x i64> %tmp4, %tmp6
52 ret <1 x i64> %tmp7
64 %tmp7 = or <16 x i8> %tmp4, %tmp6
65 ret <16 x i8> %tmp7
[all …]
Dvbsl-constant.ll13 %tmp7 = or <8 x i8> %tmp4, %tmp6
14 ret <8 x i8> %tmp7
27 %tmp7 = or <4 x i16> %tmp4, %tmp6
28 ret <4 x i16> %tmp7
41 %tmp7 = or <2 x i32> %tmp4, %tmp6
42 ret <2 x i32> %tmp7
56 %tmp7 = or <1 x i64> %tmp4, %tmp6
57 ret <1 x i64> %tmp7
70 %tmp7 = or <16 x i8> %tmp4, %tmp6
71 ret <16 x i8> %tmp7
[all …]
/external/llvm/test/CodeGen/ARM/
Dvbsl-constant.ll13 %tmp7 = or <8 x i8> %tmp4, %tmp6
14 ret <8 x i8> %tmp7
27 %tmp7 = or <4 x i16> %tmp4, %tmp6
28 ret <4 x i16> %tmp7
41 %tmp7 = or <2 x i32> %tmp4, %tmp6
42 ret <2 x i32> %tmp7
56 %tmp7 = or <1 x i64> %tmp4, %tmp6
57 ret <1 x i64> %tmp7
70 %tmp7 = or <16 x i8> %tmp4, %tmp6
71 ret <16 x i8> %tmp7
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/
Dvbsl-constant.ll13 %tmp7 = or <8 x i8> %tmp4, %tmp6
14 ret <8 x i8> %tmp7
27 %tmp7 = or <4 x i16> %tmp4, %tmp6
28 ret <4 x i16> %tmp7
41 %tmp7 = or <2 x i32> %tmp4, %tmp6
42 ret <2 x i32> %tmp7
56 %tmp7 = or <1 x i64> %tmp4, %tmp6
57 ret <1 x i64> %tmp7
70 %tmp7 = or <16 x i8> %tmp4, %tmp6
71 ret <16 x i8> %tmp7
[all …]
/external/libjpeg-turbo/
Djfdctint.c145 JLONG tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
159 tmp7 = dataptr[0] - dataptr[7];
190 z1 = tmp4 + tmp7;
193 z4 = tmp5 + tmp7;
199 tmp7 = MULTIPLY(tmp7, FIX_1_501321110); /* sqrt(2) * ( c1+c3-c5-c7) */
211 dataptr[1] = (DCTELEM)DESCALE(tmp7 + z1 + z4, CONST_BITS - PASS1_BITS);
224 tmp7 = dataptr[DCTSIZE * 0] - dataptr[DCTSIZE * 7];
257 z1 = tmp4 + tmp7;
260 z4 = tmp5 + tmp7;
266 tmp7 = MULTIPLY(tmp7, FIX_1_501321110); /* sqrt(2) * ( c1+c3-c5-c7) */
[all …]
Djidctflt.c76 FAST_FLOAT tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
149 tmp7 = DEQUANTIZE(inptr[DCTSIZE * 7], quantptr[DCTSIZE * 7] * _0_125);
153 z11 = tmp4 + tmp7;
154 z12 = tmp4 - tmp7;
156 tmp7 = z11 + z13; /* phase 5 */
163 tmp6 = tmp12 - tmp7; /* phase 2 */
167 wsptr[DCTSIZE * 0] = tmp0 + tmp7;
168 wsptr[DCTSIZE * 7] = tmp0 - tmp7;
214 tmp7 = z11 + z13;
221 tmp6 = tmp12 - tmp7;
[all …]
Djfdctflt.c62 FAST_FLOAT tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
73 tmp7 = dataptr[0] - dataptr[7];
99 tmp12 = tmp6 + tmp7;
107 z11 = tmp7 + z3; /* phase 5 */
108 z13 = tmp7 - z3;
123 tmp7 = dataptr[DCTSIZE * 0] - dataptr[DCTSIZE * 7];
149 tmp12 = tmp6 + tmp7;
157 z11 = tmp7 + z3; /* phase 5 */
158 z13 = tmp7 - z3;
Djfdctfst.c119 DCTELEM tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
131 tmp7 = dataptr[0] - dataptr[7];
157 tmp12 = tmp6 + tmp7;
165 z11 = tmp7 + z3; /* phase 5 */
166 z13 = tmp7 - z3;
181 tmp7 = dataptr[DCTSIZE * 0] - dataptr[DCTSIZE * 7];
207 tmp12 = tmp6 + tmp7;
215 z11 = tmp7 + z3; /* phase 5 */
216 z13 = tmp7 - z3;
Djidctfst.c175 DCTELEM tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
248 tmp7 = DEQUANTIZE(inptr[DCTSIZE * 7], quantptr[DCTSIZE * 7]);
252 z11 = tmp4 + tmp7;
253 z12 = tmp4 - tmp7;
255 tmp7 = z11 + z13; /* phase 5 */
262 tmp6 = tmp12 - tmp7; /* phase 2 */
266 wsptr[DCTSIZE * 0] = (int)(tmp0 + tmp7);
267 wsptr[DCTSIZE * 7] = (int)(tmp0 - tmp7);
337 tmp7 = z11 + z13; /* phase 5 */
344 tmp6 = tmp12 - tmp7; /* phase 2 */
[all …]
/external/swiftshader/third_party/LLVM/test/Transforms/InstCombine/
Dand-or-not.ll14 %tmp7 = or i32 %tmp6, %tmp3not ; <i32> [#uses=1]
15 %tmp7not = xor i32 %tmp7, -1 ; <i32> [#uses=1]
24 %tmp7 = and i32 %tmp3, %tmp6not ; <i32> [#uses=1]
25 ret i32 %tmp7
33 %tmp7 = or <4 x i32> %tmp6, %tmp3not ; <<4 x i32>> [#uses=1]
34 …%tmp7not = xor <4 x i32> %tmp7, < i32 -1, i32 -1, i32 -1, i32 -1 > ; <<4 x i32>> [#us…
43 %tmp7 = and <4 x i32> %tmp3, %tmp6not ; <<4 x i32>> [#uses=1]
44 ret <4 x i32> %tmp7
/external/swiftshader/third_party/LLVM/test/Transforms/IndVarSimplify/
Dada-loops.ll47 %i.0.reg2mem.0 = phi i8 [ 0, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=1]
48 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=3]
49 %tmp1 = zext i8 %tmp7 to i32 ; <i32> [#uses=1]
52 %0 = icmp eq i8 %tmp7, -1 ; <i1> [#uses=1]
64 %i.0.reg2mem.0 = phi i8 [ -10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2]
69 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2]
70 %0 = icmp sgt i8 %tmp7, 10 ; <i1> [#uses=1]
82 %i.0.reg2mem.0 = phi i8 [ 10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2]
87 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2]
88 %0 = icmp sgt i8 %tmp7, 30 ; <i1> [#uses=1]
/external/llvm/test/Transforms/IndVarSimplify/
Dada-loops.ll46 %i.0.reg2mem.0 = phi i8 [ 0, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=1]
47 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=3]
48 %tmp1 = zext i8 %tmp7 to i32 ; <i32> [#uses=1]
51 %0 = icmp eq i8 %tmp7, -1 ; <i1> [#uses=1]
63 %i.0.reg2mem.0 = phi i8 [ -10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2]
68 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2]
69 %0 = icmp sgt i8 %tmp7, 10 ; <i1> [#uses=1]
81 %i.0.reg2mem.0 = phi i8 [ 10, %bb.thread ], [ %tmp7, %bb ] ; <i8> [#uses=2]
86 %tmp7 = add i8 %i.0.reg2mem.0, 1 ; <i8> [#uses=2]
87 %0 = icmp sgt i8 %tmp7, 30 ; <i1> [#uses=1]

12345678910>>...44