Home
last modified time | relevance | path

Searched refs:tmp4 (Results 1 – 25 of 1708) sorted by relevance

12345678910>>...69

/external/llvm/test/CodeGen/AArch64/
Darm64-neon-compare-instructions.ll6 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
7 ret <8 x i8> %tmp4
13 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
14 ret <16 x i8> %tmp4
20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
21 ret <4 x i16> %tmp4
27 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
28 ret <8 x i16> %tmp4
34 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
35 ret <2 x i32> %tmp4
[all …]
Dneon-compare-instructions.ll7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
8 ret <8 x i8> %tmp4
15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
16 ret <16 x i8> %tmp4
23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
24 ret <4 x i16> %tmp4
31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
32 ret <8 x i16> %tmp4
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
40 ret <2 x i32> %tmp4
[all …]
Darm64-vsra.ll9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <16 x i8> %tmp1, %tmp3
40 ret <16 x i8> %tmp4
49 %tmp4 = add <8 x i16> %tmp1, %tmp3
50 ret <8 x i16> %tmp4
[all …]
Daarch64-smull.ll9 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
10 %tmp5 = mul <8 x i16> %tmp3, %tmp4
20 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
21 %tmp5 = mul <4 x i32> %tmp3, %tmp4
31 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
32 %tmp5 = mul <2 x i64> %tmp3, %tmp4
42 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
43 %tmp5 = mul <8 x i16> %tmp3, %tmp4
53 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
54 %tmp5 = mul <4 x i32> %tmp3, %tmp4
[all …]
/external/llvm-project/llvm/test/CodeGen/AArch64/
Dneon-compare-instructions.ll7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
8 ret <8 x i8> %tmp4
15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
16 ret <16 x i8> %tmp4
23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
24 ret <4 x i16> %tmp4
31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
32 ret <8 x i16> %tmp4
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
40 ret <2 x i32> %tmp4
[all …]
Darm64-vsra.ll9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <16 x i8> %tmp1, %tmp3
40 ret <16 x i8> %tmp4
49 %tmp4 = add <8 x i16> %tmp1, %tmp3
50 ret <8 x i16> %tmp4
[all …]
Daarch64-smull.ll9 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
10 %tmp5 = mul <8 x i16> %tmp3, %tmp4
20 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
21 %tmp5 = mul <4 x i32> %tmp3, %tmp4
31 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
32 %tmp5 = mul <2 x i64> %tmp3, %tmp4
42 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
43 %tmp5 = mul <8 x i16> %tmp3, %tmp4
53 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
54 %tmp5 = mul <4 x i32> %tmp3, %tmp4
[all …]
/external/llvm-project/llvm/test/CodeGen/ARM/
Dfp16-vminmaxnm-vector.ll13 %tmp4 = select <4 x i1> %tmp3, <4 x half> %A, <4 x half> %B
14 ret <4 x half> %tmp4
22 %tmp4 = select <4 x i1> %tmp3, <4 x half> %B, <4 x half> %A
23 ret <4 x half> %tmp4
31 %tmp4 = select <4 x i1> %tmp3, <4 x half> %B, <4 x half> %A
32 ret <4 x half> %tmp4
40 %tmp4 = select <4 x i1> %tmp3, <4 x half> %A, <4 x half> %B
41 ret <4 x half> %tmp4
49 %tmp4 = select <4 x i1> %tmp3, <4 x half> %A, <4 x half> %B
50 ret <4 x half> %tmp4
[all …]
Dvsra.ll9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <1 x i64> %tmp1, %tmp3
40 ret <1 x i64> %tmp4
49 %tmp4 = add <16 x i8> %tmp1, %tmp3
50 ret <16 x i8> %tmp4
[all …]
Dvicmp.ll16 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
17 ret <8 x i8> %tmp4
27 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
28 ret <4 x i16> %tmp4
38 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
39 ret <2 x i32> %tmp4
49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
50 ret <16 x i8> %tmp4
60 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
61 ret <8 x i16> %tmp4
[all …]
Dvfcmp.ll13 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
14 ret <2 x i32> %tmp4
24 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
25 ret <2 x i32> %tmp4
35 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
36 ret <2 x i32> %tmp4
47 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
48 ret <2 x i32> %tmp4
59 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
60 ret <2 x i32> %tmp4
[all …]
Dvaba.ll9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3)
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
43 %tmp5 = add <8 x i8> %tmp1, %tmp4
53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
54 %tmp5 = add <4 x i16> %tmp1, %tmp4
[all …]
Dvmla.ll9 %tmp4 = mul <8 x i8> %tmp2, %tmp3
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3
43 %tmp5 = fadd <2 x float> %tmp1, %tmp4
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3
54 %tmp5 = add <16 x i8> %tmp1, %tmp4
[all …]
/external/arm-optimized-routines/string/aarch64/
Dstrcpy.S37 #define tmp4 x11 macro
119 rev tmp4, data2
120 sub tmp3, tmp4, zeroones
121 orr tmp4, tmp4, #REP8_7f
128 orr tmp4, data2, #REP8_7f
130 bics has_nul2, tmp3, tmp4
212 orr tmp4, data2, #REP8_7f
214 bics has_nul2, tmp3, tmp4
271 orr tmp4, data2, #REP8_7f
273 bics has_nul2, tmp3, tmp4
[all …]
/external/llvm-project/libc/AOR_v20.02/string/aarch64/
Dstrcpy.S38 #define tmp4 x11 macro
118 rev tmp4, data2
119 sub tmp3, tmp4, zeroones
120 orr tmp4, tmp4, #REP8_7f
127 orr tmp4, data2, #REP8_7f
129 bics has_nul2, tmp3, tmp4
211 orr tmp4, data2, #REP8_7f
213 bics has_nul2, tmp3, tmp4
270 orr tmp4, data2, #REP8_7f
272 bics has_nul2, tmp3, tmp4
[all …]
Dstrlen.S33 #define tmp4 x7 macro
94 orr tmp4, data2, REP8_7f
96 bic has_nul2, tmp3, tmp4
134 orr tmp4, data2, REP8_7f
136 bic has_nul2, tmp3, tmp4
168 orr tmp4, data2, REP8_7f
170 bic has_nul2, tmp3, tmp4
177 orr tmp4, data2, REP8_7f
179 bic has_nul2, tmp3, tmp4
191 mov tmp4, -1
[all …]
/external/llvm/test/CodeGen/ARM/
Dvsra.ll9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <1 x i64> %tmp1, %tmp3
40 ret <1 x i64> %tmp4
49 %tmp4 = add <16 x i8> %tmp1, %tmp3
50 ret <16 x i8> %tmp4
[all …]
Dvcgt.ll10 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
11 ret <8 x i8> %tmp4
20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
21 ret <4 x i16> %tmp4
30 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
31 ret <2 x i32> %tmp4
40 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
41 ret <8 x i8> %tmp4
50 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
51 ret <4 x i16> %tmp4
[all …]
Dvceq.ll9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
10 ret <8 x i8> %tmp4
19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
20 ret <4 x i16> %tmp4
29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
30 ret <2 x i32> %tmp4
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
40 ret <2 x i32> %tmp4
49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
50 ret <16 x i8> %tmp4
[all …]
Dvicmp.ll16 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
17 ret <8 x i8> %tmp4
27 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
28 ret <4 x i16> %tmp4
38 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
39 ret <2 x i32> %tmp4
49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
50 ret <16 x i8> %tmp4
60 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
61 ret <8 x i16> %tmp4
[all …]
Dvcge.ll9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
10 ret <8 x i8> %tmp4
19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
20 ret <4 x i16> %tmp4
29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
30 ret <2 x i32> %tmp4
39 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
40 ret <8 x i8> %tmp4
49 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
50 ret <4 x i16> %tmp4
[all …]
Dvfcmp.ll13 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
14 ret <2 x i32> %tmp4
24 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
25 ret <2 x i32> %tmp4
35 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
36 ret <2 x i32> %tmp4
47 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
48 ret <2 x i32> %tmp4
59 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
60 ret <2 x i32> %tmp4
[all …]
Dvaba.ll9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3)
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
43 %tmp5 = add <8 x i8> %tmp1, %tmp4
53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
54 %tmp5 = add <4 x i16> %tmp1, %tmp4
[all …]
/external/llvm/test/CodeGen/X86/
Dbt.ll30 %tmp4 = icmp eq i32 %tmp3, 0
31 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
50 %tmp4 = icmp eq i32 %tmp3, 0
51 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
70 %tmp4 = icmp eq i32 %tmp3, 0
71 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
90 %tmp4 = icmp eq i32 %tmp3, 0
91 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
110 %tmp4 = icmp eq i32 %tmp3, 0
111 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
[all …]
/external/llvm-project/llvm/test/CodeGen/X86/
Dfold-and-shift-x86_64.ll13 %tmp4 = and i64 %tmp2, -1020
14 %tmp7 = getelementptr i8, i8* %X, i64 %tmp4
28 %tmp4 = and i64 %tmp2, -56
29 %tmp7 = getelementptr i8, i8* %X, i64 %tmp4
43 %tmp4 = and i64 %tmp2, 17179869180
44 %tmp7 = getelementptr i8, i8* %X, i64 %tmp4
58 %tmp4 = and i64 %tmp2, 17179869176
59 %tmp7 = getelementptr i8, i8* %X, i64 %tmp4
73 %tmp4 = and i64 %tmp2, 17178869176
74 %tmp7 = getelementptr i8, i8* %X, i64 %tmp4
[all …]

12345678910>>...69