Home
last modified time | relevance | path

Searched refs:tmp3 (Results 1 – 25 of 645) sorted by relevance

12345678910>>...26

/external/llvm/test/CodeGen/AArch64/
Darm64-neon-compare-instructions.ll5 %tmp3 = icmp eq <8 x i8> %A, %B;
6 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
12 %tmp3 = icmp eq <16 x i8> %A, %B;
13 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
19 %tmp3 = icmp eq <4 x i16> %A, %B;
20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
26 %tmp3 = icmp eq <8 x i16> %A, %B;
27 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
33 %tmp3 = icmp eq <2 x i32> %A, %B;
34 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
[all …]
Darm64-cvt.ll10 %tmp3 = call i32 @llvm.aarch64.neon.fcvtas.i32.f32(float %A)
11 ret i32 %tmp3
18 %tmp3 = call i64 @llvm.aarch64.neon.fcvtas.i64.f32(float %A)
19 ret i64 %tmp3
26 %tmp3 = call i32 @llvm.aarch64.neon.fcvtas.i32.f64(double %A)
27 ret i32 %tmp3
34 %tmp3 = call i64 @llvm.aarch64.neon.fcvtas.i64.f64(double %A)
35 ret i64 %tmp3
50 %tmp3 = call i32 @llvm.aarch64.neon.fcvtau.i32.f32(float %A)
51 ret i32 %tmp3
[all …]
Dneon-compare-instructions.ll6 %tmp3 = icmp eq <8 x i8> %A, %B;
7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
14 %tmp3 = icmp eq <16 x i8> %A, %B;
15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
22 %tmp3 = icmp eq <4 x i16> %A, %B;
23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
30 %tmp3 = icmp eq <8 x i16> %A, %B;
31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
38 %tmp3 = icmp eq <2 x i32> %A, %B;
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
[all …]
Darm64-vcvt.ll8 %tmp3 = call <2 x i32> @llvm.aarch64.neon.fcvtas.v2i32.v2f32(<2 x float> %A)
9 ret <2 x i32> %tmp3
17 %tmp3 = call <4 x i32> @llvm.aarch64.neon.fcvtas.v4i32.v4f32(<4 x float> %A)
18 ret <4 x i32> %tmp3
26 %tmp3 = call <2 x i64> @llvm.aarch64.neon.fcvtas.v2i64.v2f64(<2 x double> %A)
27 ret <2 x i64> %tmp3
39 %tmp3 = call <2 x i32> @llvm.aarch64.neon.fcvtau.v2i32.v2f32(<2 x float> %A)
40 ret <2 x i32> %tmp3
48 %tmp3 = call <4 x i32> @llvm.aarch64.neon.fcvtau.v4i32.v4f32(<4 x float> %A)
49 ret <4 x i32> %tmp3
[all …]
Darm64-vmovn.ll8 %tmp3 = trunc <8 x i16> %A to <8 x i8>
9 ret <8 x i8> %tmp3
17 %tmp3 = trunc <4 x i32> %A to <4 x i16>
18 ret <4 x i16> %tmp3
26 %tmp3 = trunc <2 x i64> %A to <2 x i32>
27 ret <2 x i32> %tmp3
35 %tmp3 = trunc <8 x i16> %A to <8 x i8>
36 …%res = shufflevector <8 x i8> %ret, <8 x i8> %tmp3, <16 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4,…
45 %tmp3 = trunc <4 x i32> %A to <4 x i16>
46 …%res = shufflevector <4 x i16> %ret, <4 x i16> %tmp3, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4…
[all …]
Darm64-vshift.ll8 %tmp3 = call <8 x i8> @llvm.aarch64.neon.sqshl.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
9 ret <8 x i8> %tmp3
17 %tmp3 = call <4 x i16> @llvm.aarch64.neon.sqshl.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
18 ret <4 x i16> %tmp3
26 %tmp3 = call <2 x i32> @llvm.aarch64.neon.sqshl.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
27 ret <2 x i32> %tmp3
35 %tmp3 = call <8 x i8> @llvm.aarch64.neon.uqshl.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
36 ret <8 x i8> %tmp3
44 %tmp3 = call <4 x i16> @llvm.aarch64.neon.uqshl.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
45 ret <4 x i16> %tmp3
[all …]
Darm64-neon-mul-div.ll7 %tmp3 = mul <8 x i8> %A, %B;
8 ret <8 x i8> %tmp3
14 %tmp3 = mul <16 x i8> %A, %B;
15 ret <16 x i8> %tmp3
21 %tmp3 = mul <4 x i16> %A, %B;
22 ret <4 x i16> %tmp3
28 %tmp3 = mul <8 x i16> %A, %B;
29 ret <8 x i16> %tmp3
35 %tmp3 = mul <2 x i32> %A, %B;
36 ret <2 x i32> %tmp3
[all …]
Darm64-vsqrt.ll8 %tmp3 = call <2 x float> @llvm.aarch64.neon.frecps.v2f32(<2 x float> %tmp1, <2 x float> %tmp2)
9 ret <2 x float> %tmp3
17 %tmp3 = call <4 x float> @llvm.aarch64.neon.frecps.v4f32(<4 x float> %tmp1, <4 x float> %tmp2)
18 ret <4 x float> %tmp3
26 %tmp3 = call <2 x double> @llvm.aarch64.neon.frecps.v2f64(<2 x double> %tmp1, <2 x double> %tmp2)
27 ret <2 x double> %tmp3
40 %tmp3 = call <2 x float> @llvm.aarch64.neon.frsqrts.v2f32(<2 x float> %tmp1, <2 x float> %tmp2)
41 ret <2 x float> %tmp3
49 %tmp3 = call <4 x float> @llvm.aarch64.neon.frsqrts.v4f32(<4 x float> %tmp1, <4 x float> %tmp2)
50 ret <4 x float> %tmp3
[all …]
Darm64-neon-add-sub.ll5 %tmp3 = add <8 x i8> %A, %B;
6 ret <8 x i8> %tmp3
11 %tmp3 = add <16 x i8> %A, %B;
12 ret <16 x i8> %tmp3
17 %tmp3 = add <4 x i16> %A, %B;
18 ret <4 x i16> %tmp3
23 %tmp3 = add <8 x i16> %A, %B;
24 ret <8 x i16> %tmp3
29 %tmp3 = add <2 x i32> %A, %B;
30 ret <2 x i32> %tmp3
[all …]
Darm64-vsra.ll8 %tmp3 = ashr <8 x i8> %tmp2, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 >
9 %tmp4 = add <8 x i8> %tmp1, %tmp3
18 %tmp3 = ashr <4 x i16> %tmp2, < i16 15, i16 15, i16 15, i16 15 >
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
28 %tmp3 = ashr <2 x i32> %tmp2, < i32 31, i32 31 >
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
38 …%tmp3 = ashr <16 x i8> %tmp2, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, …
39 %tmp4 = add <16 x i8> %tmp1, %tmp3
48 %tmp3 = ashr <8 x i16> %tmp2, < i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15 >
49 %tmp4 = add <8 x i16> %tmp1, %tmp3
[all …]
Darm64-vmax.ll8 %tmp3 = call <8 x i8> @llvm.aarch64.neon.smax.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
9 ret <8 x i8> %tmp3
17 %tmp3 = call <16 x i8> @llvm.aarch64.neon.smax.v16i8(<16 x i8> %tmp1, <16 x i8> %tmp2)
18 ret <16 x i8> %tmp3
26 %tmp3 = call <4 x i16> @llvm.aarch64.neon.smax.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
27 ret <4 x i16> %tmp3
35 %tmp3 = call <8 x i16> @llvm.aarch64.neon.smax.v8i16(<8 x i16> %tmp1, <8 x i16> %tmp2)
36 ret <8 x i16> %tmp3
44 %tmp3 = call <2 x i32> @llvm.aarch64.neon.smax.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
45 ret <2 x i32> %tmp3
[all …]
Darm64-mul.ll13 %tmp3 = mul i128 %tmp1, %tmp2
14 ret i128 %tmp3
24 %tmp3 = mul i128 %tmp1, %tmp2
25 ret i128 %tmp3
34 %tmp3 = mul i64 %tmp1, %tmp2
35 ret i64 %tmp3
44 %tmp3 = mul i64 %tmp1, %tmp2
45 ret i64 %tmp3
54 %tmp3 = mul i64 %tmp1, %tmp2
55 %tmp4 = add i64 %c, %tmp3
[all …]
Darm64-vhadd.ll8 %tmp3 = call <8 x i8> @llvm.aarch64.neon.shadd.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
9 ret <8 x i8> %tmp3
17 %tmp3 = call <16 x i8> @llvm.aarch64.neon.shadd.v16i8(<16 x i8> %tmp1, <16 x i8> %tmp2)
18 ret <16 x i8> %tmp3
26 %tmp3 = call <4 x i16> @llvm.aarch64.neon.shadd.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
27 ret <4 x i16> %tmp3
35 %tmp3 = call <8 x i16> @llvm.aarch64.neon.shadd.v8i16(<8 x i16> %tmp1, <8 x i16> %tmp2)
36 ret <8 x i16> %tmp3
44 %tmp3 = call <2 x i32> @llvm.aarch64.neon.shadd.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
45 ret <2 x i32> %tmp3
[all …]
/external/llvm/test/CodeGen/ARM/
Dvbits.ll8 %tmp3 = and <8 x i8> %tmp1, %tmp2
9 ret <8 x i8> %tmp3
17 %tmp3 = and <4 x i16> %tmp1, %tmp2
18 ret <4 x i16> %tmp3
26 %tmp3 = and <2 x i32> %tmp1, %tmp2
27 ret <2 x i32> %tmp3
35 %tmp3 = and <1 x i64> %tmp1, %tmp2
36 ret <1 x i64> %tmp3
44 %tmp3 = and <16 x i8> %tmp1, %tmp2
45 ret <16 x i8> %tmp3
[all …]
Dvsub.ll8 %tmp3 = sub <8 x i8> %tmp1, %tmp2
9 ret <8 x i8> %tmp3
17 %tmp3 = sub <4 x i16> %tmp1, %tmp2
18 ret <4 x i16> %tmp3
26 %tmp3 = sub <2 x i32> %tmp1, %tmp2
27 ret <2 x i32> %tmp3
35 %tmp3 = sub <1 x i64> %tmp1, %tmp2
36 ret <1 x i64> %tmp3
44 %tmp3 = fsub <2 x float> %tmp1, %tmp2
45 ret <2 x float> %tmp3
[all …]
Dvadd.ll8 %tmp3 = add <8 x i8> %tmp1, %tmp2
9 ret <8 x i8> %tmp3
17 %tmp3 = add <4 x i16> %tmp1, %tmp2
18 ret <4 x i16> %tmp3
26 %tmp3 = add <2 x i32> %tmp1, %tmp2
27 ret <2 x i32> %tmp3
35 %tmp3 = add <1 x i64> %tmp1, %tmp2
36 ret <1 x i64> %tmp3
44 %tmp3 = fadd <2 x float> %tmp1, %tmp2
45 ret <2 x float> %tmp3
[all …]
Dvcgt.ll9 %tmp3 = icmp sgt <8 x i8> %tmp1, %tmp2
10 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
19 %tmp3 = icmp sgt <4 x i16> %tmp1, %tmp2
20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
29 %tmp3 = icmp sgt <2 x i32> %tmp1, %tmp2
30 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
39 %tmp3 = icmp ugt <8 x i8> %tmp1, %tmp2
40 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
49 %tmp3 = icmp ugt <4 x i16> %tmp1, %tmp2
50 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
[all …]
Dvsra.ll8 %tmp3 = ashr <8 x i8> %tmp2, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 >
9 %tmp4 = add <8 x i8> %tmp1, %tmp3
18 %tmp3 = ashr <4 x i16> %tmp2, < i16 15, i16 15, i16 15, i16 15 >
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
28 %tmp3 = ashr <2 x i32> %tmp2, < i32 31, i32 31 >
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
38 %tmp3 = ashr <1 x i64> %tmp2, < i64 63 >
39 %tmp4 = add <1 x i64> %tmp1, %tmp3
48 …%tmp3 = ashr <16 x i8> %tmp2, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, …
49 %tmp4 = add <16 x i8> %tmp1, %tmp3
[all …]
Dvminmax.ll8 %tmp3 = call <8 x i8> @llvm.arm.neon.vmins.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
9 ret <8 x i8> %tmp3
17 %tmp3 = call <4 x i16> @llvm.arm.neon.vmins.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
18 ret <4 x i16> %tmp3
26 %tmp3 = call <2 x i32> @llvm.arm.neon.vmins.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
27 ret <2 x i32> %tmp3
35 %tmp3 = call <8 x i8> @llvm.arm.neon.vminu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
36 ret <8 x i8> %tmp3
44 %tmp3 = call <4 x i16> @llvm.arm.neon.vminu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
45 ret <4 x i16> %tmp3
[all …]
Dvhadd.ll8 %tmp3 = call <8 x i8> @llvm.arm.neon.vhadds.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
9 ret <8 x i8> %tmp3
17 %tmp3 = call <4 x i16> @llvm.arm.neon.vhadds.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
18 ret <4 x i16> %tmp3
26 %tmp3 = call <2 x i32> @llvm.arm.neon.vhadds.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
27 ret <2 x i32> %tmp3
35 %tmp3 = call <8 x i8> @llvm.arm.neon.vhaddu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
36 ret <8 x i8> %tmp3
44 %tmp3 = call <4 x i16> @llvm.arm.neon.vhaddu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
45 ret <4 x i16> %tmp3
[all …]
Dvabd.ll8 %tmp3 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
9 ret <8 x i8> %tmp3
17 %tmp3 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
18 ret <4 x i16> %tmp3
26 %tmp3 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
27 ret <2 x i32> %tmp3
35 %tmp3 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
36 ret <8 x i8> %tmp3
44 %tmp3 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
45 ret <4 x i16> %tmp3
[all …]
Dvcge.ll8 %tmp3 = icmp sge <8 x i8> %tmp1, %tmp2
9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
18 %tmp3 = icmp sge <4 x i16> %tmp1, %tmp2
19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
28 %tmp3 = icmp sge <2 x i32> %tmp1, %tmp2
29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
38 %tmp3 = icmp uge <8 x i8> %tmp1, %tmp2
39 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
48 %tmp3 = icmp uge <4 x i16> %tmp1, %tmp2
49 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
[all …]
/external/llvm/test/Transforms/InstCombine/
Dbitcast-vector-fold.ll6 %tmp3 = bitcast <4 x i32> < i32 0, i32 1, i32 2, i32 3 > to <2 x i64>
7 ret <2 x i64> %tmp3
11 %tmp3 = bitcast <2 x i64> < i64 0, i64 1 > to <4 x i32>
12 ret <4 x i32> %tmp3
16 %tmp3 = bitcast <4 x i32> < i32 0, i32 1, i32 2, i32 3 > to <2 x double>
17 ret <2 x double> %tmp3
21 %tmp3 = bitcast <2 x i64> < i64 0, i64 1 > to <4 x float>
22 ret <4 x float> %tmp3
26 %tmp3 = bitcast <4 x float> <float 0.0, float 1.0, float 2.0, float 3.0> to <2 x i64>
27 ret <2 x i64> %tmp3
[all …]
/external/llvm/test/CodeGen/X86/
Dbt.ll26 %tmp3 = and i32 %tmp29, 1 ; <i32> [#uses=1]
27 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
44 %tmp3 = and i32 1, %tmp29
45 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
62 %tmp3 = and i32 %tmp29, 1 ; <i32> [#uses=1]
63 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
79 %tmp3 = and i32 1, %tmp29
80 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
97 %tmp3 = and i32 %tmp29, %x ; <i32> [#uses=1]
98 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
[all …]
/external/jpeg/
Djidctint.c152 INT32 tmp0, tmp1, tmp2, tmp3; variable
211 tmp3 = z1 + MULTIPLY(z2, FIX_0_765366865);
219 tmp10 = tmp0 + tmp3;
220 tmp13 = tmp0 - tmp3;
231 tmp3 = DEQUANTIZE(inptr[DCTSIZE*1], quantptr[DCTSIZE*1]);
233 z1 = tmp0 + tmp3;
236 z4 = tmp1 + tmp3;
242 tmp3 = MULTIPLY(tmp3, FIX_1_501321110); /* sqrt(2) * ( c1+c3-c5-c7) */
254 tmp3 += z1 + z4;
258 wsptr[DCTSIZE*0] = (int) DESCALE(tmp10 + tmp3, CONST_BITS-PASS1_BITS);
[all …]

12345678910>>...26