Searched refs:tmp4 (Results 1 – 25 of 1699) sorted by relevance
12345678910>>...68
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/AArch64/ |
D | arm64-neon-compare-instructions.ll | 6 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 7 ret <8 x i8> %tmp4 13 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 14 ret <16 x i8> %tmp4 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 21 ret <4 x i16> %tmp4 27 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 28 ret <8 x i16> %tmp4 34 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 35 ret <2 x i32> %tmp4 [all …]
|
D | neon-compare-instructions.ll | 7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 8 ret <8 x i8> %tmp4 15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 16 ret <16 x i8> %tmp4 23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 24 ret <4 x i16> %tmp4 31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 32 ret <8 x i16> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 [all …]
|
D | arm64-vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <16 x i8> %tmp1, %tmp3 40 ret <16 x i8> %tmp4 49 %tmp4 = add <8 x i16> %tmp1, %tmp3 50 ret <8 x i16> %tmp4 [all …]
|
D | aarch64-smull.ll | 9 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16> 10 %tmp5 = mul <8 x i16> %tmp3, %tmp4 20 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32> 21 %tmp5 = mul <4 x i32> %tmp3, %tmp4 31 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64> 32 %tmp5 = mul <2 x i64> %tmp3, %tmp4 42 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16> 43 %tmp5 = mul <8 x i16> %tmp3, %tmp4 53 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32> 54 %tmp5 = mul <4 x i32> %tmp3, %tmp4 [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-neon-compare-instructions.ll | 6 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 7 ret <8 x i8> %tmp4 13 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 14 ret <16 x i8> %tmp4 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 21 ret <4 x i16> %tmp4 27 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 28 ret <8 x i16> %tmp4 34 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 35 ret <2 x i32> %tmp4 [all …]
|
D | neon-compare-instructions.ll | 7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 8 ret <8 x i8> %tmp4 15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 16 ret <16 x i8> %tmp4 23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 24 ret <4 x i16> %tmp4 31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 32 ret <8 x i16> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 [all …]
|
D | arm64-vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <16 x i8> %tmp1, %tmp3 40 ret <16 x i8> %tmp4 49 %tmp4 = add <8 x i16> %tmp1, %tmp3 50 ret <8 x i16> %tmp4 [all …]
|
D | aarch64-smull.ll | 9 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16> 10 %tmp5 = mul <8 x i16> %tmp3, %tmp4 20 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32> 21 %tmp5 = mul <4 x i32> %tmp3, %tmp4 31 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64> 32 %tmp5 = mul <2 x i64> %tmp3, %tmp4 42 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16> 43 %tmp5 = mul <8 x i16> %tmp3, %tmp4 53 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32> 54 %tmp5 = mul <4 x i32> %tmp3, %tmp4 [all …]
|
/external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
D | bt.ll | 26 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 27 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 41 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 42 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 56 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 57 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 71 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 72 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 86 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 87 br i1 %tmp4, label %bb, label %UnifiedReturnBlock [all …]
|
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <1 x i64> %tmp1, %tmp3 40 ret <1 x i64> %tmp4 49 %tmp4 = add <16 x i8> %tmp1, %tmp3 50 ret <16 x i8> %tmp4 [all …]
|
D | vcgt.ll | 10 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 11 ret <8 x i8> %tmp4 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 21 ret <4 x i16> %tmp4 30 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 31 ret <2 x i32> %tmp4 40 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 41 ret <8 x i8> %tmp4 50 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 51 ret <4 x i16> %tmp4 [all …]
|
D | vcge.ll | 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 10 ret <8 x i8> %tmp4 19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 20 ret <4 x i16> %tmp4 29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 30 ret <2 x i32> %tmp4 39 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 40 ret <8 x i8> %tmp4 49 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 50 ret <4 x i16> %tmp4 [all …]
|
D | vceq.ll | 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 10 ret <8 x i8> %tmp4 19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 20 ret <4 x i16> %tmp4 29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 30 ret <2 x i32> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 50 ret <16 x i8> %tmp4 [all …]
|
D | vicmp.ll | 16 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 17 ret <8 x i8> %tmp4 27 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 28 ret <4 x i16> %tmp4 38 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 39 ret <2 x i32> %tmp4 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 50 ret <16 x i8> %tmp4 60 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 61 ret <8 x i16> %tmp4 [all …]
|
D | vfcmp.ll | 13 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 14 ret <2 x i32> %tmp4 24 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 25 ret <2 x i32> %tmp4 35 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 36 ret <2 x i32> %tmp4 47 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 48 ret <2 x i32> %tmp4 59 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 60 ret <2 x i32> %tmp4 [all …]
|
D | vaba.ll | 9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3) 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <1 x i64> %tmp1, %tmp3 40 ret <1 x i64> %tmp4 49 %tmp4 = add <16 x i8> %tmp1, %tmp3 50 ret <16 x i8> %tmp4 [all …]
|
D | vcgt.ll | 10 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 11 ret <8 x i8> %tmp4 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 21 ret <4 x i16> %tmp4 30 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 31 ret <2 x i32> %tmp4 40 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 41 ret <8 x i8> %tmp4 50 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 51 ret <4 x i16> %tmp4 [all …]
|
D | vceq.ll | 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 10 ret <8 x i8> %tmp4 19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 20 ret <4 x i16> %tmp4 29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 30 ret <2 x i32> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 50 ret <16 x i8> %tmp4 [all …]
|
D | vicmp.ll | 16 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 17 ret <8 x i8> %tmp4 27 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 28 ret <4 x i16> %tmp4 38 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 39 ret <2 x i32> %tmp4 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 50 ret <16 x i8> %tmp4 60 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 61 ret <8 x i16> %tmp4 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/ |
D | vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <1 x i64> %tmp1, %tmp3 40 ret <1 x i64> %tmp4 49 %tmp4 = add <16 x i8> %tmp1, %tmp3 50 ret <16 x i8> %tmp4 [all …]
|
D | vcgt.ll | 10 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 11 ret <8 x i8> %tmp4 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 21 ret <4 x i16> %tmp4 30 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 31 ret <2 x i32> %tmp4 40 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 41 ret <8 x i8> %tmp4 50 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 51 ret <4 x i16> %tmp4 [all …]
|
D | vceq.ll | 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 10 ret <8 x i8> %tmp4 19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 20 ret <4 x i16> %tmp4 29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 30 ret <2 x i32> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 50 ret <16 x i8> %tmp4 [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | bt.ll | 30 %tmp4 = icmp eq i32 %tmp3, 0 31 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 50 %tmp4 = icmp eq i32 %tmp3, 0 51 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 70 %tmp4 = icmp eq i32 %tmp3, 0 71 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 90 %tmp4 = icmp eq i32 %tmp3, 0 91 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 110 %tmp4 = icmp eq i32 %tmp3, 0 111 br i1 %tmp4, label %bb, label %UnifiedReturnBlock [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/InstCombine/ |
D | icmp-logical.ll | 170 %tmp4 = and i1 %tmp3, %tmp2 171 ret i1 %tmp4 183 %tmp4 = or i1 %tmp3, %tmp2 184 ret i1 %tmp4 230 %tmp4 = icmp eq i32 %tmp3, 1 231 %tmp5 = and i1 %tmp2, %tmp4 245 %tmp4 = icmp eq i32 %tmp3, 1 246 %tmp5 = and i1 %tmp2, %tmp4 263 %tmp4 = icmp eq i32 %tmp3, 1 264 %tmp5 = and i1 %tmp2, %tmp4 [all …]
|
12345678910>>...68