Home
last modified time | relevance | path

Searched refs:tmp4 (Results 1 – 25 of 552) sorted by relevance

12345678910>>...23

/external/llvm/test/CodeGen/AArch64/
Darm64-neon-compare-instructions.ll6 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
7 ret <8 x i8> %tmp4
13 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
14 ret <16 x i8> %tmp4
20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
21 ret <4 x i16> %tmp4
27 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
28 ret <8 x i16> %tmp4
34 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
35 ret <2 x i32> %tmp4
[all …]
Dneon-compare-instructions.ll7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
8 ret <8 x i8> %tmp4
15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
16 ret <16 x i8> %tmp4
23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
24 ret <4 x i16> %tmp4
31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
32 ret <8 x i16> %tmp4
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
40 ret <2 x i32> %tmp4
[all …]
Darm64-vsra.ll9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <16 x i8> %tmp1, %tmp3
40 ret <16 x i8> %tmp4
49 %tmp4 = add <8 x i16> %tmp1, %tmp3
50 ret <8 x i16> %tmp4
[all …]
Daarch64-smull.ll9 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
10 %tmp5 = mul <8 x i16> %tmp3, %tmp4
20 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
21 %tmp5 = mul <4 x i32> %tmp3, %tmp4
31 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
32 %tmp5 = mul <2 x i64> %tmp3, %tmp4
42 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
43 %tmp5 = mul <8 x i16> %tmp3, %tmp4
53 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
54 %tmp5 = mul <4 x i32> %tmp3, %tmp4
[all …]
Darm64-trn.ll11 …%tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 9, i32 3, i32 11, i32 …
12 %tmp5 = add <8 x i8> %tmp3, %tmp4
24 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 5, i32 3, i32 7>
25 %tmp5 = add <4 x i16> %tmp3, %tmp4
38 %tmp4 = shufflevector <2 x i32> %tmp1, <2 x i32> %tmp2, <2 x i32> <i32 1, i32 3>
39 %tmp5 = add <2 x i32> %tmp3, %tmp4
51 %tmp4 = shufflevector <2 x float> %tmp1, <2 x float> %tmp2, <2 x i32> <i32 1, i32 3>
52 %tmp5 = fadd <2 x float> %tmp3, %tmp4
64 …%tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 17, i32 3, i32 19, …
65 %tmp5 = add <16 x i8> %tmp3, %tmp4
[all …]
Darm64-fmuladd.ll10 %tmp4 = call float @llvm.fmuladd.f32(float %tmp1, float %tmp2, float %tmp3)
11 ret float %tmp4
21 …%tmp4 = call <2 x float> @llvm.fmuladd.v2f32(<2 x float> %tmp1, <2 x float> %tmp2, <2 x float> %tm…
22 ret <2 x float> %tmp4
32 …%tmp4 = call <4 x float> @llvm.fmuladd.v4f32(<4 x float> %tmp1, <4 x float> %tmp2, <4 x float> %tm…
33 ret <4 x float> %tmp4
44 …%tmp4 = call <8 x float> @llvm.fmuladd.v8f32(<8 x float> %tmp1, <8 x float> %tmp2, <8 x float> %tm…
45 ret <8 x float> %tmp4
55 %tmp4 = call double @llvm.fmuladd.f64(double %tmp1, double %tmp2, double %tmp3)
56 ret double %tmp4
[all …]
/external/llvm/test/CodeGen/ARM/
Dvsra.ll9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <1 x i64> %tmp1, %tmp3
40 ret <1 x i64> %tmp4
49 %tmp4 = add <16 x i8> %tmp1, %tmp3
50 ret <16 x i8> %tmp4
[all …]
Dvcgt.ll10 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
11 ret <8 x i8> %tmp4
20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
21 ret <4 x i16> %tmp4
30 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
31 ret <2 x i32> %tmp4
40 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
41 ret <8 x i8> %tmp4
50 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
51 ret <4 x i16> %tmp4
[all …]
Dvceq.ll9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
10 ret <8 x i8> %tmp4
19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
20 ret <4 x i16> %tmp4
29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
30 ret <2 x i32> %tmp4
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
40 ret <2 x i32> %tmp4
49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
50 ret <16 x i8> %tmp4
[all …]
Dvicmp.ll16 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
17 ret <8 x i8> %tmp4
27 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
28 ret <4 x i16> %tmp4
38 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
39 ret <2 x i32> %tmp4
49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
50 ret <16 x i8> %tmp4
60 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
61 ret <8 x i16> %tmp4
[all …]
Dvcge.ll9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
10 ret <8 x i8> %tmp4
19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
20 ret <4 x i16> %tmp4
29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
30 ret <2 x i32> %tmp4
39 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
40 ret <8 x i8> %tmp4
49 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
50 ret <4 x i16> %tmp4
[all …]
Dvfcmp.ll13 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
14 ret <2 x i32> %tmp4
24 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
25 ret <2 x i32> %tmp4
35 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
36 ret <2 x i32> %tmp4
47 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
48 ret <2 x i32> %tmp4
59 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
60 ret <2 x i32> %tmp4
[all …]
Dvaba.ll9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3)
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
43 %tmp5 = add <8 x i8> %tmp1, %tmp4
53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
54 %tmp5 = add <4 x i16> %tmp1, %tmp4
[all …]
Dvmla.ll9 %tmp4 = mul <8 x i8> %tmp2, %tmp3
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3
43 %tmp5 = fadd <2 x float> %tmp1, %tmp4
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3
54 %tmp5 = add <16 x i8> %tmp1, %tmp4
[all …]
Dvmls.ll9 %tmp4 = mul <8 x i8> %tmp2, %tmp3
10 %tmp5 = sub <8 x i8> %tmp1, %tmp4
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3
21 %tmp5 = sub <4 x i16> %tmp1, %tmp4
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3
32 %tmp5 = sub <2 x i32> %tmp1, %tmp4
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3
43 %tmp5 = fsub <2 x float> %tmp1, %tmp4
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3
54 %tmp5 = sub <16 x i8> %tmp1, %tmp4
[all …]
Dvld3.ll22 %tmp4 = add <8 x i8> %tmp2, %tmp3
23 ret <8 x i8> %tmp4
33 %tmp4 = add <4 x i16> %tmp2, %tmp3
34 ret <4 x i16> %tmp4
46 %tmp4 = add <4 x i16> %tmp2, %tmp3
49 ret <4 x i16> %tmp4
59 %tmp4 = add <2 x i32> %tmp2, %tmp3
60 ret <2 x i32> %tmp4
70 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
[all …]
Dvld2.ll21 %tmp4 = add <8 x i8> %tmp2, %tmp3
22 ret <8 x i8> %tmp4
33 %tmp4 = add <4 x i16> %tmp2, %tmp3
34 ret <4 x i16> %tmp4
44 %tmp4 = add <2 x i32> %tmp2, %tmp3
45 ret <2 x i32> %tmp4
55 %tmp4 = fadd <2 x float> %tmp2, %tmp3
56 ret <2 x float> %tmp4
68 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
[all …]
Dvld4.ll21 %tmp4 = add <8 x i8> %tmp2, %tmp3
22 ret <8 x i8> %tmp4
33 %tmp4 = add <8 x i8> %tmp2, %tmp3
36 ret <8 x i8> %tmp4
47 %tmp4 = add <4 x i16> %tmp2, %tmp3
48 ret <4 x i16> %tmp4
59 %tmp4 = add <2 x i32> %tmp2, %tmp3
60 ret <2 x i32> %tmp4
70 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
[all …]
Dvbsl-constant.ll11 %tmp4 = and <8 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3>
13 %tmp7 = or <8 x i8> %tmp4, %tmp6
25 %tmp4 = and <4 x i16> %tmp1, <i16 3, i16 3, i16 3, i16 3>
27 %tmp7 = or <4 x i16> %tmp4, %tmp6
39 %tmp4 = and <2 x i32> %tmp1, <i32 3, i32 3>
41 %tmp7 = or <2 x i32> %tmp4, %tmp6
54 %tmp4 = and <1 x i64> %tmp1, <i64 3>
56 %tmp7 = or <1 x i64> %tmp4, %tmp6
68 …%tmp4 = and <16 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8…
70 %tmp7 = or <16 x i8> %tmp4, %tmp6
[all …]
/external/llvm/test/CodeGen/X86/
Dbt.ll27 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
28 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
45 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
46 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
63 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
64 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
80 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
81 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
98 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
99 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
[all …]
/external/llvm/test/Transforms/Reassociate/
Drepeats.ll43 %tmp4 = mul i8 %tmp3, 3
44 ret i8 %tmp4
57 %tmp4 = mul i3 %tmp3, %x
58 ret i3 %tmp4
70 %tmp4 = mul i3 %tmp3, %x
71 %tmp5 = mul i3 %tmp4, %x
84 %tmp4 = mul i3 %tmp3, %x
85 %tmp5 = mul i3 %tmp4, %x
99 %tmp4 = mul i4 %tmp3, %x
100 %tmp5 = mul i4 %tmp4, %x
[all …]
/external/opencv3/3rdparty/libjpeg/
Djfdctint.c928 INT32 tmp0, tmp1, tmp2, tmp3, tmp4; in jpeg_fdct_9x9() local
955 tmp4 = GETJSAMPLE(elemptr[4]); in jpeg_fdct_9x9()
963 z2 = tmp1 + tmp4; in jpeg_fdct_9x9()
970 z2 = MULTIPLY(tmp1 - tmp4 - tmp4, FIX(0.707106781)); /* c6 */ in jpeg_fdct_9x9()
1021 tmp4 = dataptr[DCTSIZE*4]; in jpeg_fdct_9x9()
1029 z2 = tmp1 + tmp4; in jpeg_fdct_9x9()
1037 z2 = MULTIPLY(tmp1 - tmp4 - tmp4, FIX(1.117403309)); /* c6 */ in jpeg_fdct_9x9()
1078 INT32 tmp0, tmp1, tmp2, tmp3, tmp4; in jpeg_fdct_10x10() local
1104 tmp4 = GETJSAMPLE(elemptr[4]) + GETJSAMPLE(elemptr[5]); in jpeg_fdct_10x10()
1106 tmp10 = tmp0 + tmp4; in jpeg_fdct_10x10()
[all …]
/external/pdfium/third_party/libjpeg/
Dfpdfapi_jfdctint.c142 INT32 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
162 tmp4 = dataptr[3] - dataptr[4];
187 z1 = tmp4 + tmp7;
189 z3 = tmp4 + tmp6;
193 tmp4 = MULTIPLY(tmp4, FIX_0_298631336); /* sqrt(2) * (-c1+c3+c5-c7) */
205 dataptr[7] = (DCTELEM) DESCALE(tmp4 + z1 + z3, CONST_BITS-PASS1_BITS);
227 tmp4 = dataptr[DCTSIZE*3] - dataptr[DCTSIZE*4];
252 z1 = tmp4 + tmp7;
254 z3 = tmp4 + tmp6;
258 tmp4 = MULTIPLY(tmp4, FIX_0_298631336); /* sqrt(2) * (-c1+c3+c5-c7) */
[all …]
/external/libjpeg-turbo/
Djfdctint.c144 INT32 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable
164 tmp4 = dataptr[3] - dataptr[4];
189 z1 = tmp4 + tmp7;
191 z3 = tmp4 + tmp6;
195 tmp4 = MULTIPLY(tmp4, FIX_0_298631336); /* sqrt(2) * (-c1+c3+c5-c7) */
207 dataptr[7] = (DCTELEM) DESCALE(tmp4 + z1 + z3, CONST_BITS-PASS1_BITS);
229 tmp4 = dataptr[DCTSIZE*3] - dataptr[DCTSIZE*4];
254 z1 = tmp4 + tmp7;
256 z3 = tmp4 + tmp6;
260 tmp4 = MULTIPLY(tmp4, FIX_0_298631336); /* sqrt(2) * (-c1+c3+c5-c7) */
[all …]
/external/llvm/test/Transforms/InstCombine/
Dbswap.ll9 %tmp4 = and i32 %tmp3, 65280 ; <i32> [#uses=1]
10 %tmp5 = or i32 %tmp1, %tmp4 ; <i32> [#uses=1]
21 %tmp4 = shl i32 %arg, 8 ; <i32> [#uses=1]
22 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
34 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1]
35 %tmp5 = or i16 %tmp2, %tmp4 ; <i16> [#uses=1]
41 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1]
42 %tmp5 = or i16 %tmp4, %tmp2 ; <i16> [#uses=1]
51 %tmp4 = and i32 %tmp, 255 ; <i32> [#uses=1]
52 %tmp5 = shl i32 %tmp4, 8 ; <i32> [#uses=1]
[all …]

12345678910>>...23