Home
last modified time | relevance | path

Searched refs:tmp5 (Results 1 – 25 of 1422) sorted by relevance

12345678910>>...57

/external/llvm-project/polly/test/Isl/CodeGen/
Dpartial_write_impossible_restriction___%for.body344---%if.then.i.i1141.loopexit.jscop.transformed14 "context" : "[tmp5] -> { : -2147483648 <= tmp5 <= 2147483647 }",
21 "relation" : "[tmp5] -> { Stmt_for_body344[-1 + tmp5] -> MemRef__pn[-1 + tmp5] }"
24 … "domain" : "[tmp5] -> { Stmt_for_body344[i0] : 0 <= i0 < tmp5; Stmt_for_body344[0] : tmp5 <= 0 }",
26 …"schedule" : "[tmp5] -> { Stmt_for_body344[i0] -> [i0, 0] : i0 < tmp5; Stmt_for_body344[0] -> [0, …
32 "relation" : "[tmp5] -> { Stmt_cond_false[i0] -> MemRef_tmp4[1 + i0] }"
36 …"relation" : "[tmp5] -> { Stmt_cond_false[i0] -> MemRef__pn[i0] : i0 <= -2 + tmp5; Stmt_cond_false…
39 …"domain" : "[tmp5] -> { Stmt_cond_false[i0] : 0 <= i0 <= -2 + tmp5; Stmt_cond_false[0] : tmp5 <= 0…
41 …"schedule" : "[tmp5] -> { Stmt_cond_false[i0] -> [i0, 1] : i0 <= -2 + tmp5; Stmt_cond_false[0] -> …
47 "relation" : "[tmp5] -> { Stmt_cond_end[i0] -> MemRef__pn[i0] }"
51 "relation" : "[tmp5] -> { Stmt_cond_end[i0] -> MemRef__pn[i0] }"
[all …]
Dpartial_write_impossible_restriction___%for.body344---%if.then.i.i1141.loopexit.jscop14 "context" : "[tmp5] -> { : -2147483648 <= tmp5 <= 2147483647 }",
21 … "relation" : "[tmp5] -> { Stmt_for_body344[i0] -> MemRef_cond_in_sroa_speculated__phi[] }"
24 … "domain" : "[tmp5] -> { Stmt_for_body344[i0] : 0 <= i0 < tmp5; Stmt_for_body344[0] : tmp5 <= 0 }",
26 …"schedule" : "[tmp5] -> { Stmt_for_body344[i0] -> [i0, 0] : i0 < tmp5; Stmt_for_body344[0] -> [0, …
32 "relation" : "[tmp5] -> { Stmt_cond_false[i0] -> MemRef_tmp4[1 + i0] }"
36 … "relation" : "[tmp5] -> { Stmt_cond_false[i0] -> MemRef_cond_in_sroa_speculated__phi[] }"
39 …"domain" : "[tmp5] -> { Stmt_cond_false[i0] : 0 <= i0 <= -2 + tmp5; Stmt_cond_false[0] : tmp5 <= 0…
41 …"schedule" : "[tmp5] -> { Stmt_cond_false[i0] -> [i0, 1] : i0 <= -2 + tmp5; Stmt_cond_false[0] -> …
47 … "relation" : "[tmp5] -> { Stmt_cond_end[i0] -> MemRef_cond_in_sroa_speculated__phi[] }"
51 "relation" : "[tmp5] -> { Stmt_cond_end[i0] -> MemRef__pn[i0] }"
[all …]
/external/llvm-project/llvm/test/CodeGen/ARM/
Dvaba.ll10 %tmp5 = add <8 x i8> %tmp1, %tmp4
11 ret <8 x i8> %tmp5
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
22 ret <4 x i16> %tmp5
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
33 ret <2 x i32> %tmp5
43 %tmp5 = add <8 x i8> %tmp1, %tmp4
44 ret <8 x i8> %tmp5
54 %tmp5 = add <4 x i16> %tmp1, %tmp4
55 ret <4 x i16> %tmp5
[all …]
Dvmla.ll10 %tmp5 = add <8 x i8> %tmp1, %tmp4
11 ret <8 x i8> %tmp5
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
22 ret <4 x i16> %tmp5
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
33 ret <2 x i32> %tmp5
43 %tmp5 = fadd <2 x float> %tmp1, %tmp4
44 ret <2 x float> %tmp5
54 %tmp5 = add <16 x i8> %tmp1, %tmp4
55 ret <16 x i8> %tmp5
[all …]
Dvmls.ll10 %tmp5 = sub <8 x i8> %tmp1, %tmp4
11 ret <8 x i8> %tmp5
21 %tmp5 = sub <4 x i16> %tmp1, %tmp4
22 ret <4 x i16> %tmp5
32 %tmp5 = sub <2 x i32> %tmp1, %tmp4
33 ret <2 x i32> %tmp5
43 %tmp5 = fsub <2 x float> %tmp1, %tmp4
44 ret <2 x float> %tmp5
54 %tmp5 = sub <16 x i8> %tmp1, %tmp4
55 ret <16 x i8> %tmp5
[all …]
/external/llvm/test/CodeGen/ARM/
Dvaba.ll10 %tmp5 = add <8 x i8> %tmp1, %tmp4
11 ret <8 x i8> %tmp5
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
22 ret <4 x i16> %tmp5
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
33 ret <2 x i32> %tmp5
43 %tmp5 = add <8 x i8> %tmp1, %tmp4
44 ret <8 x i8> %tmp5
54 %tmp5 = add <4 x i16> %tmp1, %tmp4
55 ret <4 x i16> %tmp5
[all …]
Dvmls.ll10 %tmp5 = sub <8 x i8> %tmp1, %tmp4
11 ret <8 x i8> %tmp5
21 %tmp5 = sub <4 x i16> %tmp1, %tmp4
22 ret <4 x i16> %tmp5
32 %tmp5 = sub <2 x i32> %tmp1, %tmp4
33 ret <2 x i32> %tmp5
43 %tmp5 = fsub <2 x float> %tmp1, %tmp4
44 ret <2 x float> %tmp5
54 %tmp5 = sub <16 x i8> %tmp1, %tmp4
55 ret <16 x i8> %tmp5
[all …]
Dvmla.ll10 %tmp5 = add <8 x i8> %tmp1, %tmp4
11 ret <8 x i8> %tmp5
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
22 ret <4 x i16> %tmp5
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
33 ret <2 x i32> %tmp5
43 %tmp5 = fadd <2 x float> %tmp1, %tmp4
44 ret <2 x float> %tmp5
54 %tmp5 = add <16 x i8> %tmp1, %tmp4
55 ret <16 x i8> %tmp5
[all …]
Duxtb.ll37 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
38 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1]
46 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
47 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1]
54 %tmp5 = lshr i32 %x, 24 ; <i32> [#uses=1]
55 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1]
62 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
63 %tmp6 = or i32 %tmp5, %tmp1 ; <i32> [#uses=1]
71 %tmp5 = and i32 %tmp4, 458759 ; <i32> [#uses=1]
72 %tmp7 = or i32 %tmp5, %tmp2 ; <i32> [#uses=1]
/external/llvm/test/CodeGen/X86/
D2007-03-15-GEP-Idx-Sink.ll16 %tmp5.sum72 = add i32 %col, 7 ; <i32> [#uses=1]
17 %tmp5.sum71 = add i32 %col, 5 ; <i32> [#uses=1]
18 %tmp5.sum70 = add i32 %col, 3 ; <i32> [#uses=1]
19 %tmp5.sum69 = add i32 %col, 2 ; <i32> [#uses=1]
20 %tmp5.sum68 = add i32 %col, 1 ; <i32> [#uses=1]
21 %tmp5.sum66 = add i32 %col, 4 ; <i32> [#uses=1]
22 %tmp5.sum = add i32 %col, 6 ; <i32> [#uses=1]
31 %tmp5 = getelementptr i8, i8* %tmp3, i32 %col ; <i8*> [#uses=1]
33 store i8 %tmp7, i8* %tmp5
37 %tmp15 = getelementptr i8, i8* %tmp3, i32 %tmp5.sum72 ; <i8*> [#uses=1]
[all …]
/external/llvm-project/llvm/test/CodeGen/X86/
D2007-03-15-GEP-Idx-Sink.ll15 %tmp5.sum72 = add i32 %col, 7 ; <i32> [#uses=1]
16 %tmp5.sum71 = add i32 %col, 5 ; <i32> [#uses=1]
17 %tmp5.sum70 = add i32 %col, 3 ; <i32> [#uses=1]
18 %tmp5.sum69 = add i32 %col, 2 ; <i32> [#uses=1]
19 %tmp5.sum68 = add i32 %col, 1 ; <i32> [#uses=1]
20 %tmp5.sum66 = add i32 %col, 4 ; <i32> [#uses=1]
21 %tmp5.sum = add i32 %col, 6 ; <i32> [#uses=1]
30 %tmp5 = getelementptr i8, i8* %tmp3, i32 %col ; <i8*> [#uses=1]
32 store i8 %tmp7, i8* %tmp5
36 %tmp15 = getelementptr i8, i8* %tmp3, i32 %tmp5.sum72 ; <i8*> [#uses=1]
[all …]
/external/llvm/test/Transforms/InstCombine/
Dapint-cast.ll10 %tmp5 = shl i37 %tmp, 8 ; <i37> [#uses=1]
11 ; CHECK: %tmp5 = shl i17 %a, 8
12 %tmp.upgrd.32 = or i37 %tmp21, %tmp5 ; <i37> [#uses=1]
13 ; CHECK: %tmp.upgrd.32 = or i17 %tmp21, %tmp5
23 %tmp5 = shl i577 %tmp, 8 ; <i577> [#uses=1]
24 ; CHECK: %tmp5 = shl i167 %a, 8
25 %tmp.upgrd.32 = or i577 %tmp21, %tmp5 ; <i577> [#uses=1]
26 ; CHECK: %tmp.upgrd.32 = or i167 %tmp21, %tmp5
Dbswap.ll11 %tmp5 = or i32 %tmp1, %tmp4
14 %tmp9 = or i32 %tmp5, %tmp8
25 %tmp5 = and i32 %tmp4, 16711680
26 %tmp6 = or i32 %tmp2, %tmp5
40 %tmp5 = or i16 %tmp2, %tmp4
41 ret i16 %tmp5
49 %tmp5 = or i16 %tmp4, %tmp2
50 ret i16 %tmp5
61 %tmp5 = shl i32 %tmp4, 8
62 %tmp5.upgrd.2 = trunc i32 %tmp5 to i16
[all …]
/external/llvm/test/CodeGen/AArch64/
Darm64-trn.ll12 %tmp5 = add <8 x i8> %tmp3, %tmp4
13 ret <8 x i8> %tmp5
25 %tmp5 = add <4 x i16> %tmp3, %tmp4
26 ret <4 x i16> %tmp5
39 %tmp5 = add <2 x i32> %tmp3, %tmp4
40 ret <2 x i32> %tmp5
52 %tmp5 = fadd <2 x float> %tmp3, %tmp4
53 ret <2 x float> %tmp5
65 %tmp5 = add <16 x i8> %tmp3, %tmp4
66 ret <16 x i8> %tmp5
[all …]
Darm64-zip.ll12 %tmp5 = add <8 x i8> %tmp3, %tmp4
13 ret <8 x i8> %tmp5
25 %tmp5 = add <4 x i16> %tmp3, %tmp4
26 ret <4 x i16> %tmp5
38 %tmp5 = add <16 x i8> %tmp3, %tmp4
39 ret <16 x i8> %tmp5
51 %tmp5 = add <8 x i16> %tmp3, %tmp4
52 ret <8 x i16> %tmp5
64 %tmp5 = add <4 x i32> %tmp3, %tmp4
65 ret <4 x i32> %tmp5
[all …]
/external/llvm-project/llvm/test/CodeGen/AArch64/
Darm64-trn.ll12 %tmp5 = add <8 x i8> %tmp3, %tmp4
13 ret <8 x i8> %tmp5
25 %tmp5 = add <4 x i16> %tmp3, %tmp4
26 ret <4 x i16> %tmp5
39 %tmp5 = add <2 x i32> %tmp3, %tmp4
40 ret <2 x i32> %tmp5
52 %tmp5 = fadd <2 x float> %tmp3, %tmp4
53 ret <2 x float> %tmp5
65 %tmp5 = add <16 x i8> %tmp3, %tmp4
66 ret <16 x i8> %tmp5
[all …]
Darm64-zip.ll12 %tmp5 = add <8 x i8> %tmp3, %tmp4
13 ret <8 x i8> %tmp5
25 %tmp5 = add <4 x i16> %tmp3, %tmp4
26 ret <4 x i16> %tmp5
38 %tmp5 = add <16 x i8> %tmp3, %tmp4
39 ret <16 x i8> %tmp5
51 %tmp5 = add <8 x i16> %tmp3, %tmp4
52 ret <8 x i16> %tmp5
64 %tmp5 = add <4 x i32> %tmp3, %tmp4
65 ret <4 x i32> %tmp5
[all …]
Darm64-uzp.ll12 %tmp5 = add <8 x i8> %tmp3, %tmp4
13 ret <8 x i8> %tmp5
25 %tmp5 = add <4 x i16> %tmp3, %tmp4
26 ret <4 x i16> %tmp5
38 %tmp5 = add <16 x i8> %tmp3, %tmp4
39 ret <16 x i8> %tmp5
51 %tmp5 = add <8 x i16> %tmp3, %tmp4
52 ret <8 x i16> %tmp5
64 %tmp5 = add <4 x i32> %tmp3, %tmp4
65 ret <4 x i32> %tmp5
[all …]
/external/libjpeg-turbo/
Djfdctint.c145 JLONG tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
163 tmp5 = dataptr[2] - dataptr[5];
191 z2 = tmp5 + tmp6;
193 z4 = tmp5 + tmp7;
197 tmp5 = MULTIPLY(tmp5, FIX_2_053119869); /* sqrt(2) * ( c1+c3-c5+c7) */
209 dataptr[5] = (DCTELEM)DESCALE(tmp5 + z2 + z4, CONST_BITS - PASS1_BITS);
228 tmp5 = dataptr[DCTSIZE * 2] - dataptr[DCTSIZE * 5];
258 z2 = tmp5 + tmp6;
260 z4 = tmp5 + tmp7;
264 tmp5 = MULTIPLY(tmp5, FIX_2_053119869); /* sqrt(2) * ( c1+c3-c5+c7) */
[all …]
Djidctflt.c76 FAST_FLOAT tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
147 tmp5 = DEQUANTIZE(inptr[DCTSIZE * 3], quantptr[DCTSIZE * 3] * _0_125);
151 z13 = tmp6 + tmp5; /* phase 6 */
152 z10 = tmp6 - tmp5;
164 tmp5 = tmp11 - tmp6;
165 tmp4 = tmp10 - tmp5;
171 wsptr[DCTSIZE * 2] = tmp2 + tmp5;
172 wsptr[DCTSIZE * 5] = tmp2 - tmp5;
222 tmp5 = tmp11 - tmp6;
223 tmp4 = tmp10 - tmp5;
[all …]
/external/llvm/test/Analysis/DivergenceAnalysis/AMDGPU/
Dno-return-blocks.ll3 ; CHECK: DIVERGENT: %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2
4 ; CHECK: DIVERGENT: %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4
5 ; CHECK: DIVERGENT: %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4
12 %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2
13 %tmp6 = load volatile float, float addrspace(1)* %tmp5, align 4
18 %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4
22 %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4
/external/llvm-project/llvm/test/Analysis/LegacyDivergenceAnalysis/AMDGPU/
Dno-return-blocks.ll3 ; CHECK: DIVERGENT: %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2
4 ; CHECK: DIVERGENT: %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4
5 ; CHECK: DIVERGENT: %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4
12 %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2
13 %tmp6 = load volatile float, float addrspace(1)* %tmp5, align 4
18 %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4
22 %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4
/external/llvm-project/llvm/test/Analysis/DivergenceAnalysis/AMDGPU/
Dno-return-blocks.ll3 ; CHECK: DIVERGENT: %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2
4 ; CHECK: DIVERGENT: %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4
5 ; CHECK: DIVERGENT: %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4
12 %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2
13 %tmp6 = load volatile float, float addrspace(1)* %tmp5, align 4
18 %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4
22 %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4
/external/llvm-project/llvm/test/CodeGen/SystemZ/
Dint-cmp-56.ll19 %tmp5 = icmp eq i32 %tmp4, 0
20 br i1 %tmp5, label %bb4, label %bb2
46 %tmp5 = icmp eq i32 %tmp4, 0
47 br i1 %tmp5, label %bb4, label %bb2
73 %tmp5 = icmp eq i32 %tmp4, 0
74 br i1 %tmp5, label %bb4, label %bb2
100 %tmp5 = icmp eq i32 %tmp4, 0
101 br i1 %tmp5, label %bb4, label %bb2
126 %tmp5 = icmp eq i32 %tmp4, 0
127 br i1 %tmp5, label %bb4, label %bb2
[all …]
/external/llvm-project/llvm/test/CodeGen/AMDGPU/
Dalignbit-pat.ll13 %tmp5 = lshr i64 %tmp, %tmp4
14 %tmp6 = trunc i64 %tmp5 to i32
33 %tmp5 = lshr i64 %tmp, %tmp4
34 %tmp6 = trunc i64 %tmp5 to i32
49 %tmp5 = lshr i64 %tmp, %tmp4
50 %tmp6 = trunc i64 %tmp5 to i32
65 %tmp5 = lshr i64 %tmp, %tmp4
66 %tmp6 = trunc i64 %tmp5 to i32
78 %tmp5 = lshr i64 %tmp, 30
79 %tmp6 = trunc i64 %tmp5 to i32
[all …]

12345678910>>...57