Home
last modified time | relevance | path

Searched refs:tmp5 (Results 1 – 25 of 286) sorted by relevance

12345678910>>...12

/external/llvm/test/CodeGen/ARM/
Dvaba.ll10 %tmp5 = add <8 x i8> %tmp1, %tmp4
11 ret <8 x i8> %tmp5
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
22 ret <4 x i16> %tmp5
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
33 ret <2 x i32> %tmp5
43 %tmp5 = add <8 x i8> %tmp1, %tmp4
44 ret <8 x i8> %tmp5
54 %tmp5 = add <4 x i16> %tmp1, %tmp4
55 ret <4 x i16> %tmp5
[all …]
Dvmls.ll10 %tmp5 = sub <8 x i8> %tmp1, %tmp4
11 ret <8 x i8> %tmp5
21 %tmp5 = sub <4 x i16> %tmp1, %tmp4
22 ret <4 x i16> %tmp5
32 %tmp5 = sub <2 x i32> %tmp1, %tmp4
33 ret <2 x i32> %tmp5
43 %tmp5 = fsub <2 x float> %tmp1, %tmp4
44 ret <2 x float> %tmp5
54 %tmp5 = sub <16 x i8> %tmp1, %tmp4
55 ret <16 x i8> %tmp5
[all …]
Dvmla.ll10 %tmp5 = add <8 x i8> %tmp1, %tmp4
11 ret <8 x i8> %tmp5
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
22 ret <4 x i16> %tmp5
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
33 ret <2 x i32> %tmp5
43 %tmp5 = fadd <2 x float> %tmp1, %tmp4
44 ret <2 x float> %tmp5
54 %tmp5 = add <16 x i8> %tmp1, %tmp4
55 ret <16 x i8> %tmp5
[all …]
Dvbsl.ll10 %tmp5 = xor <8 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
11 %tmp6 = and <8 x i8> %tmp5, %tmp3
23 %tmp5 = xor <4 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1 >
24 %tmp6 = and <4 x i16> %tmp5, %tmp3
36 %tmp5 = xor <2 x i32> %tmp1, < i32 -1, i32 -1 >
37 %tmp6 = and <2 x i32> %tmp5, %tmp3
49 %tmp5 = xor <1 x i64> %tmp1, < i64 -1 >
50 %tmp6 = and <1 x i64> %tmp5, %tmp3
62 …%tmp5 = xor <16 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -…
63 %tmp6 = and <16 x i8> %tmp5, %tmp3
[all …]
Dvtrn.ll11 %tmp5 = add <8 x i8> %tmp3, %tmp4
12 ret <8 x i8> %tmp5
23 %tmp5 = add <4 x i16> %tmp3, %tmp4
24 ret <4 x i16> %tmp5
35 %tmp5 = add <2 x i32> %tmp3, %tmp4
36 ret <2 x i32> %tmp5
47 %tmp5 = fadd <2 x float> %tmp3, %tmp4
48 ret <2 x float> %tmp5
59 %tmp5 = add <16 x i8> %tmp3, %tmp4
60 ret <16 x i8> %tmp5
[all …]
Duxtb.ll37 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
38 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1]
46 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
47 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1]
54 %tmp5 = lshr i32 %x, 24 ; <i32> [#uses=1]
55 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1]
62 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
63 %tmp6 = or i32 %tmp5, %tmp1 ; <i32> [#uses=1]
71 %tmp5 = and i32 %tmp4, 458759 ; <i32> [#uses=1]
72 %tmp7 = or i32 %tmp5, %tmp2 ; <i32> [#uses=1]
Dvuzp.ll11 %tmp5 = add <8 x i8> %tmp3, %tmp4
12 ret <8 x i8> %tmp5
23 %tmp5 = add <4 x i16> %tmp3, %tmp4
24 ret <4 x i16> %tmp5
37 %tmp5 = add <16 x i8> %tmp3, %tmp4
38 ret <16 x i8> %tmp5
49 %tmp5 = add <8 x i16> %tmp3, %tmp4
50 ret <8 x i16> %tmp5
61 %tmp5 = add <4 x i32> %tmp3, %tmp4
62 ret <4 x i32> %tmp5
[all …]
Dvzip.ll11 %tmp5 = add <8 x i8> %tmp3, %tmp4
12 ret <8 x i8> %tmp5
23 %tmp5 = add <4 x i16> %tmp3, %tmp4
24 ret <4 x i16> %tmp5
37 %tmp5 = add <16 x i8> %tmp3, %tmp4
38 ret <16 x i8> %tmp5
49 %tmp5 = add <8 x i16> %tmp3, %tmp4
50 ret <8 x i16> %tmp5
61 %tmp5 = add <4 x i32> %tmp3, %tmp4
62 ret <4 x i32> %tmp5
[all …]
Dvldlane.ll96 %tmp5 = add <8 x i8> %tmp3, %tmp4
97 ret <8 x i8> %tmp5
109 %tmp5 = add <4 x i16> %tmp3, %tmp4
110 ret <4 x i16> %tmp5
121 %tmp5 = add <2 x i32> %tmp3, %tmp4
122 ret <2 x i32> %tmp5
135 %tmp5 = add <2 x i32> %tmp3, %tmp4
138 ret <2 x i32> %tmp5
149 %tmp5 = fadd <2 x float> %tmp3, %tmp4
150 ret <2 x float> %tmp5
[all …]
Dpack.ll8 %tmp5 = or i32 %tmp4, %tmp1
9 ret i32 %tmp5
27 %tmp5 = or i32 %tmp37, %tmp19
28 ret i32 %tmp5
46 %tmp5 = or i32 %tmp4, %tmp17
47 ret i32 %tmp5
56 %tmp5 = or i32 %tmp39, %tmp110
57 ret i32 %tmp5
Dvtbl.ll23 %tmp5 = call <8 x i8> @llvm.arm.neon.vtbl2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4)
24 ret <8 x i8> %tmp5
34 %tmp5 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 2
35 … call <8 x i8> @llvm.arm.neon.vtbl3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5)
46 %tmp5 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 2
48 …llvm.arm.neon.vtbl4(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6)
69 %tmp5 = load <8 x i8>* %C
70 … call <8 x i8> @llvm.arm.neon.vtbx2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5)
81 %tmp5 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 2
83 …llvm.arm.neon.vtbx3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6)
[all …]
/external/llvm/test/Transforms/InstCombine/
Dbswap.ll10 %tmp5 = or i32 %tmp1, %tmp4 ; <i32> [#uses=1]
13 %tmp9 = or i32 %tmp5, %tmp8 ; <i32> [#uses=1]
22 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
23 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1]
35 %tmp5 = or i16 %tmp2, %tmp4 ; <i16> [#uses=1]
36 ret i16 %tmp5
42 %tmp5 = or i16 %tmp4, %tmp2 ; <i16> [#uses=1]
43 ret i16 %tmp5
52 %tmp5 = shl i32 %tmp4, 8 ; <i32> [#uses=1]
53 %tmp5.upgrd.2 = trunc i32 %tmp5 to i16 ; <i16> [#uses=1]
[all …]
Dapint-cast.ll10 %tmp5 = shl i37 %tmp, 8 ; <i37> [#uses=1]
11 ; CHECK: %tmp5 = shl i17 %a, 8
12 %tmp.upgrd.32 = or i37 %tmp21, %tmp5 ; <i37> [#uses=1]
13 ; CHECK: %tmp.upgrd.32 = or i17 %tmp21, %tmp5
23 %tmp5 = shl i577 %tmp, 8 ; <i577> [#uses=1]
24 ; CHECK: %tmp5 = shl i167 %a, 8
25 %tmp.upgrd.32 = or i577 %tmp21, %tmp5 ; <i577> [#uses=1]
26 ; CHECK: %tmp.upgrd.32 = or i167 %tmp21, %tmp5
/external/llvm/test/CodeGen/X86/
D2007-03-15-GEP-Idx-Sink.ll10 %tmp5.sum72 = add i32 %col, 7 ; <i32> [#uses=1]
11 %tmp5.sum71 = add i32 %col, 5 ; <i32> [#uses=1]
12 %tmp5.sum70 = add i32 %col, 3 ; <i32> [#uses=1]
13 %tmp5.sum69 = add i32 %col, 2 ; <i32> [#uses=1]
14 %tmp5.sum68 = add i32 %col, 1 ; <i32> [#uses=1]
15 %tmp5.sum66 = add i32 %col, 4 ; <i32> [#uses=1]
16 %tmp5.sum = add i32 %col, 6 ; <i32> [#uses=1]
25 %tmp5 = getelementptr i8* %tmp3, i32 %col ; <i8*> [#uses=1]
27 store i8 %tmp7, i8* %tmp5
31 %tmp15 = getelementptr i8* %tmp3, i32 %tmp5.sum72 ; <i8*> [#uses=1]
[all …]
Drotate2.ll7 %tmp5 = or i64 %tmp2, %tmp4 ; <i64> [#uses=1]
8 ret i64 %tmp5
15 %tmp5 = or i32 %tmp2, %tmp4 ; <i32> [#uses=1]
16 %tmp56 = zext i32 %tmp5 to i64 ; <i64> [#uses=1]
/external/jpeg/
Djfdctint.c142 INT32 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
160 tmp5 = dataptr[2] - dataptr[5];
188 z2 = tmp5 + tmp6;
190 z4 = tmp5 + tmp7;
194 tmp5 = MULTIPLY(tmp5, FIX_2_053119869); /* sqrt(2) * ( c1+c3-c5+c7) */
206 dataptr[5] = (DCTELEM) DESCALE(tmp5 + z2 + z4, CONST_BITS-PASS1_BITS);
225 tmp5 = dataptr[DCTSIZE*2] - dataptr[DCTSIZE*5];
253 z2 = tmp5 + tmp6;
255 z4 = tmp5 + tmp7;
259 tmp5 = MULTIPLY(tmp5, FIX_2_053119869); /* sqrt(2) * ( c1+c3-c5+c7) */
[all …]
Djidctflt.c72 FAST_FLOAT tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
142 tmp5 = DEQUANTIZE(inptr[DCTSIZE*3], quantptr[DCTSIZE*3]);
146 z13 = tmp6 + tmp5; /* phase 6 */
147 z10 = tmp6 - tmp5;
159 tmp5 = tmp11 - tmp6;
160 tmp4 = tmp10 + tmp5;
166 wsptr[DCTSIZE*2] = tmp2 + tmp5;
167 wsptr[DCTSIZE*5] = tmp2 - tmp5;
216 tmp5 = tmp11 - tmp6;
217 tmp4 = tmp10 + tmp5;
[all …]
Djidctfst.c172 DCTELEM tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
243 tmp5 = DEQUANTIZE(inptr[DCTSIZE*3], quantptr[DCTSIZE*3]);
247 z13 = tmp6 + tmp5; /* phase 6 */
248 z10 = tmp6 - tmp5;
260 tmp5 = tmp11 - tmp6;
261 tmp4 = tmp10 + tmp5;
267 wsptr[DCTSIZE*2] = (int) (tmp2 + tmp5);
268 wsptr[DCTSIZE*5] = (int) (tmp2 - tmp5);
342 tmp5 = tmp11 - tmp6;
343 tmp4 = tmp10 + tmp5;
[all …]
Djfdctflt.c61 FAST_FLOAT tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
76 tmp5 = dataptr[2] - dataptr[5];
96 tmp10 = tmp4 + tmp5; /* phase 2 */
97 tmp11 = tmp5 + tmp6;
126 tmp5 = dataptr[DCTSIZE*2] - dataptr[DCTSIZE*5];
146 tmp10 = tmp4 + tmp5; /* phase 2 */
147 tmp11 = tmp5 + tmp6;
Djfdctfst.c116 DCTELEM tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
132 tmp5 = dataptr[2] - dataptr[5];
152 tmp10 = tmp4 + tmp5; /* phase 2 */
153 tmp11 = tmp5 + tmp6;
182 tmp5 = dataptr[DCTSIZE*2] - dataptr[DCTSIZE*5];
202 tmp10 = tmp4 + tmp5; /* phase 2 */
203 tmp11 = tmp5 + tmp6;
/external/llvm/test/CodeGen/Thumb2/
Dthumb2-pack.ll8 %tmp5 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1]
9 ret i32 %tmp5
17 %tmp5 = or i32 %tmp37, %tmp19 ; <i32> [#uses=1]
18 ret i32 %tmp5
36 %tmp5 = or i32 %tmp37, %tmp19 ; <i32> [#uses=1]
37 ret i32 %tmp5
55 %tmp5 = or i32 %tmp4, %tmp17 ; <i32> [#uses=1]
56 ret i32 %tmp5
65 %tmp5 = or i32 %tmp39, %tmp110 ; <i32> [#uses=1]
66 ret i32 %tmp5
Dthumb2-uxtb.ll73 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
74 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1]
88 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
89 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1]
102 %tmp5 = lshr i32 %x, 24 ; <i32> [#uses=1]
103 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1]
116 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
117 %tmp6 = or i32 %tmp5, %tmp1 ; <i32> [#uses=1]
138 %tmp5 = and i32 %tmp4, 458759 ; <i32> [#uses=1]
139 %tmp7 = or i32 %tmp5, %tmp2 ; <i32> [#uses=1]
/external/llvm/test/Analysis/BasicAA/
Dfull-store-partial-alias.ll6 ; so the %tmp5 load is PartialAlias with the store and suppress TBAA.
7 ; Without BasicAA, TBAA should say that %tmp5 is NoAlias with the store.
25 %tmp5 = load i32* %arrayidx, align 4, !tbaa !3
26 %tmp5.lobit = lshr i32 %tmp5, 31
27 ret i32 %tmp5.lobit
/external/llvm/test/CodeGen/Thumb/
Drev.ll10 %tmp5 = and i32 %tmp4, -16777216
13 %tmp6 = or i32 %tmp5, %tmp2
27 %tmp5 = or i16 %tmp2, %tmp4
28 %tmp5.upgrd.2 = sext i16 %tmp5 to i32
29 ret i32 %tmp5.upgrd.2
/external/llvm/test/Transforms/SimplifyCFG/
Dspeculate-with-offset.ll20 %tmp5 = load i64** %__a.addr, align 8
24 %storemerge = phi i64* [ undef, %if.then ], [ %tmp5, %if.end ]
42 %tmp5 = load i64** %__a.addr, align 8
46 %storemerge = phi i64* [ undef, %if.then ], [ %tmp5, %if.end ]
64 %tmp5 = load i64** %__a.addr, align 8
68 %storemerge = phi i64* [ undef, %if.then ], [ %tmp5, %if.end ]
86 %tmp5 = load i64** %__a.addr, align 8
90 %storemerge = phi i64* [ undef, %if.then ], [ %tmp5, %if.end ]

12345678910>>...12