/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/InstCombine/ |
D | unfold-masked-merge-with-const-mask-vector.ll | 9 define <2 x i4> @splat (<2 x i4> %x, <2 x i4> %y) { 11 ; CHECK-NEXT: [[TMP1:%.*]] = and <2 x i4> [[X:%.*]], <i4 -2, i4 -2> 12 ; CHECK-NEXT: [[TMP2:%.*]] = and <2 x i4> [[Y:%.*]], <i4 1, i4 1> 13 ; CHECK-NEXT: [[R:%.*]] = or <2 x i4> [[TMP1]], [[TMP2]] 14 ; CHECK-NEXT: ret <2 x i4> [[R]] 16 %n0 = xor <2 x i4> %x, %y 17 %n1 = and <2 x i4> %n0, <i4 -2, i4 -2> 18 %r = xor <2 x i4> %n1, %y 19 ret <2 x i4> %r 22 define <3 x i4> @splat_undef (<3 x i4> %x, <3 x i4> %y) { [all …]
|
D | invert-variable-mask-in-masked-merge-vector.ll | 9 define <2 x i4> @vector (<2 x i4> %x, <2 x i4> %y, <2 x i4> %m) { 11 ; CHECK-NEXT: [[N0:%.*]] = xor <2 x i4> [[X:%.*]], [[Y:%.*]] 12 ; CHECK-NEXT: [[TMP1:%.*]] = and <2 x i4> [[N0]], [[M:%.*]] 13 ; CHECK-NEXT: [[R:%.*]] = xor <2 x i4> [[TMP1]], [[X]] 14 ; CHECK-NEXT: ret <2 x i4> [[R]] 16 %im = xor <2 x i4> %m, <i4 -1, i4 -1> 17 %n0 = xor <2 x i4> %x, %y 18 %n1 = and <2 x i4> %n0, %im 19 %r = xor <2 x i4> %n1, %y 20 ret <2 x i4> %r [all …]
|
D | invert-variable-mask-in-masked-merge-scalar.ll | 9 define i4 @scalar (i4 %x, i4 %y, i4 %m) { 11 ; CHECK-NEXT: [[N0:%.*]] = xor i4 [[X:%.*]], [[Y:%.*]] 12 ; CHECK-NEXT: [[TMP1:%.*]] = and i4 [[N0]], [[M:%.*]] 13 ; CHECK-NEXT: [[R:%.*]] = xor i4 [[TMP1]], [[X]] 14 ; CHECK-NEXT: ret i4 [[R]] 16 %im = xor i4 %m, -1 17 %n0 = xor i4 %x, %y 18 %n1 = and i4 %n0, %im 19 %r = xor i4 %n1, %y 20 ret i4 %r [all …]
|
D | unfold-masked-merge-with-const-mask-scalar.ll | 9 define i4 @scalar0 (i4 %x, i4 %y) { 11 ; CHECK-NEXT: [[TMP1:%.*]] = and i4 [[X:%.*]], 1 12 ; CHECK-NEXT: [[TMP2:%.*]] = and i4 [[Y:%.*]], -2 13 ; CHECK-NEXT: [[R:%.*]] = or i4 [[TMP1]], [[TMP2]] 14 ; CHECK-NEXT: ret i4 [[R]] 16 %n0 = xor i4 %x, %y 17 %n1 = and i4 %n0, 1 18 %r = xor i4 %n1, %y 19 ret i4 %r 22 define i4 @scalar1 (i4 %x, i4 %y) { [all …]
|
D | icmp-shr-lt-gt.ll | 3 define i1 @lshrugt_01_00(i4 %x) { 5 ; CHECK-NEXT: [[C:%.*]] = icmp ugt i4 %x, 1 8 %s = lshr i4 %x, 1 9 %c = icmp ugt i4 %s, 0 13 define i1 @lshrugt_01_01(i4 %x) { 15 ; CHECK-NEXT: [[C:%.*]] = icmp ugt i4 %x, 3 18 %s = lshr i4 %x, 1 19 %c = icmp ugt i4 %s, 1 23 define i1 @lshrugt_01_02(i4 %x) { 25 ; CHECK-NEXT: [[C:%.*]] = icmp ugt i4 %x, 5 [all …]
|
D | xor-icmps.ll | 4 define i1 @eq_zero(i4 %x, i4 %y) { 6 ; CHECK-NEXT: [[I0:%.*]] = icmp eq i4 [[X:%.*]], 0 7 ; CHECK-NEXT: [[I1:%.*]] = icmp eq i4 [[Y:%.*]], 0 11 %i0 = icmp eq i4 %x, 0 12 %i1 = icmp eq i4 %y, 0 17 define i1 @ne_zero(i4 %x, i4 %y) { 19 ; CHECK-NEXT: [[I0:%.*]] = icmp ne i4 [[X:%.*]], 0 20 ; CHECK-NEXT: [[I1:%.*]] = icmp ne i4 [[Y:%.*]], 0 24 %i0 = icmp ne i4 %x, 0 25 %i1 = icmp ne i4 %y, 0 [all …]
|
/external/deqp-deps/glslang/Test/ |
D | spv.vulkan100.subgroupArithmetic.comp | 10 ivec4 i4; 24 data[invocation].i4.x = subgroupAdd(data[0].i4.x); 25 data[invocation].i4.xy = subgroupAdd(data[1].i4.xy); 26 data[invocation].i4.xyz = subgroupAdd(data[2].i4.xyz); 27 data[invocation].i4 = subgroupAdd(data[3].i4); 44 data[invocation].i4.x = subgroupMul(data[0].i4.x); 45 data[invocation].i4.xy = subgroupMul(data[1].i4.xy); 46 data[invocation].i4.xyz = subgroupMul(data[2].i4.xyz); 47 data[invocation].i4 = subgroupMul(data[3].i4); 64 data[invocation].i4.x = subgroupMin(data[0].i4.x); [all …]
|
D | spv.subgroupArithmetic.comp | 10 ivec4 i4; 24 data[invocation].i4.x = subgroupAdd(data[0].i4.x); 25 data[invocation].i4.xy = subgroupAdd(data[1].i4.xy); 26 data[invocation].i4.xyz = subgroupAdd(data[2].i4.xyz); 27 data[invocation].i4 = subgroupAdd(data[3].i4); 44 data[invocation].i4.x = subgroupMul(data[0].i4.x); 45 data[invocation].i4.xy = subgroupMul(data[1].i4.xy); 46 data[invocation].i4.xyz = subgroupMul(data[2].i4.xyz); 47 data[invocation].i4 = subgroupMul(data[3].i4); 64 data[invocation].i4.x = subgroupMin(data[0].i4.x); [all …]
|
D | spv.vulkan100.subgroupPartitioned.comp | 10 ivec4 i4; 26 data[invocation].u4 = subgroupPartitionNV(data[0].i4.x); 27 data[invocation].u4 = subgroupPartitionNV(data[0].i4.xy); 28 data[invocation].u4 = subgroupPartitionNV(data[0].i4.xyz); 29 data[invocation].u4 = subgroupPartitionNV(data[0].i4); 41 data[invocation].u4 = subgroupPartitionNV(bool(data[0].i4.x)); 42 data[invocation].u4 = subgroupPartitionNV(bvec2(data[0].i4.xy)); 43 data[invocation].u4 = subgroupPartitionNV(bvec3(data[0].i4.xyz)); 44 data[invocation].u4 = subgroupPartitionNV(bvec4(data[0].i4)); 51 data[invocation].i4.x = subgroupPartitionedAddNV(data[0].i4.x, ballot); [all …]
|
D | spv.subgroupPartitioned.comp | 10 ivec4 i4; 26 data[invocation].u4 = subgroupPartitionNV(data[0].i4.x); 27 data[invocation].u4 = subgroupPartitionNV(data[0].i4.xy); 28 data[invocation].u4 = subgroupPartitionNV(data[0].i4.xyz); 29 data[invocation].u4 = subgroupPartitionNV(data[0].i4); 41 data[invocation].u4 = subgroupPartitionNV(bool(data[0].i4.x)); 42 data[invocation].u4 = subgroupPartitionNV(bvec2(data[0].i4.xy)); 43 data[invocation].u4 = subgroupPartitionNV(bvec3(data[0].i4.xyz)); 44 data[invocation].u4 = subgroupPartitionNV(bvec4(data[0].i4)); 51 data[invocation].i4.x = subgroupPartitionedAddNV(data[0].i4.x, ballot); [all …]
|
D | spv.subgroupClustered.comp | 10 ivec4 i4; 24 data[invocation].i4.x = subgroupClusteredAdd(data[0].i4.x, 1); 25 data[invocation].i4.xy = subgroupClusteredAdd(data[1].i4.xy, 1); 26 data[invocation].i4.xyz = subgroupClusteredAdd(data[2].i4.xyz, 1); 27 data[invocation].i4 = subgroupClusteredAdd(data[3].i4, 1); 44 data[invocation].i4.x = subgroupClusteredMul(data[0].i4.x, 1); 45 data[invocation].i4.xy = subgroupClusteredMul(data[1].i4.xy, 1); 46 data[invocation].i4.xyz = subgroupClusteredMul(data[2].i4.xyz, 1); 47 data[invocation].i4 = subgroupClusteredMul(data[3].i4, 1); 64 data[invocation].i4.x = subgroupClusteredMin(data[0].i4.x, 1); [all …]
|
D | spv.subgroupQuad.comp | 10 ivec4 i4; 24 data[invocation].i4.x = subgroupQuadBroadcast(data[0].i4.x, 1); 25 data[invocation].i4.xy = subgroupQuadBroadcast(data[1].i4.xy, 1); 26 data[invocation].i4.xyz = subgroupQuadBroadcast(data[2].i4.xyz, 1); 27 data[invocation].i4 = subgroupQuadBroadcast(data[3].i4, 1); 39 data[invocation].i4.x = int(subgroupQuadBroadcast(data[0].i4.x < 0, 1)); 40 data[invocation].i4.xy = ivec2(subgroupQuadBroadcast(lessThan(data[1].i4.xy, ivec2(0)), 1)); 41 data[invocation].i4.xyz = ivec3(subgroupQuadBroadcast(lessThan(data[1].i4.xyz, ivec3(0)), 1)); 42 data[invocation].i4 = ivec4(subgroupQuadBroadcast(lessThan(data[1].i4, ivec4(0)), 1)); 49 data[invocation].i4.x = subgroupQuadSwapHorizontal(data[0].i4.x); [all …]
|
D | spv.subgroupShuffle.comp | 10 ivec4 i4; 24 data[invocation].i4.x = subgroupShuffle(data[0].i4.x, invocation); 25 data[invocation].i4.xy = subgroupShuffle(data[1].i4.xy, invocation); 26 data[invocation].i4.xyz = subgroupShuffle(data[2].i4.xyz, invocation); 27 data[invocation].i4 = subgroupShuffle(data[3].i4, invocation); 39 … data[invocation].i4.x = int(subgroupShuffle(data[0].i4.x < 0, invocation)); 40 … data[invocation].i4.xy = ivec2(subgroupShuffle(lessThan(data[1].i4.xy, ivec2(0)), invocation)); 41 … data[invocation].i4.xyz = ivec3(subgroupShuffle(lessThan(data[1].i4.xyz, ivec3(0)), invocation)); 42 … data[invocation].i4 = ivec4(subgroupShuffle(lessThan(data[1].i4, ivec4(0)), invocation)); 49 data[invocation].i4.x = subgroupShuffleXor(data[0].i4.x, invocation); [all …]
|
D | spv.subgroupShuffleRelative.comp | 10 ivec4 i4; 24 data[invocation].i4.x = subgroupShuffleUp(data[0].i4.x, invocation); 25 data[invocation].i4.xy = subgroupShuffleUp(data[1].i4.xy, invocation); 26 data[invocation].i4.xyz = subgroupShuffleUp(data[2].i4.xyz, invocation); 27 data[invocation].i4 = subgroupShuffleUp(data[3].i4, invocation); 39 …data[invocation].i4.x = int(subgroupShuffleUp(data[0].i4.x < 0, invocation)); 40 …data[invocation].i4.xy = ivec2(subgroupShuffleUp(lessThan(data[1].i4.xy, ivec2(0)), invocation)); 41 …data[invocation].i4.xyz = ivec3(subgroupShuffleUp(lessThan(data[1].i4.xyz, ivec3(0)), invocation)); 42 …data[invocation].i4 = ivec4(subgroupShuffleUp(lessThan(data[1].i4, ivec4(0)), invocation)); 49 data[invocation].i4.x = subgroupShuffleDown(data[0].i4.x, invocation); [all …]
|
D | spv.subgroupBallot.comp | 10 ivec4 i4; 39 data[invocation].i4.x = subgroupBroadcast(data[0].i4.x, 2); 40 data[invocation].i4.xy = subgroupBroadcast(data[1].i4.xy, 2); 41 data[invocation].i4.xyz = subgroupBroadcast(data[2].i4.xyz, 2); 42 data[invocation].i4 = subgroupBroadcast(data[3].i4, 2); 54 data[invocation].i4.x = int(subgroupBroadcast(data[0].i4.x < 0, 1)); 55 data[invocation].i4.xy = ivec2(subgroupBroadcast(lessThan(data[1].i4.xy, ivec2(0)), 1)); 56 data[invocation].i4.xyz = ivec3(subgroupBroadcast(lessThan(data[1].i4.xyz, ivec3(0)), 1)); 57 data[invocation].i4 = ivec4(subgroupBroadcast(lessThan(data[1].i4, ivec4(0)), 1)); 66 data[invocation].i4.x = subgroupBroadcastFirst(data[0].i4.x); [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/Reassociate/ |
D | repeats.ll | 90 define i4 @foo4x8(i4 %x) { 96 %tmp1 = mul i4 %x, %x 97 %tmp2 = mul i4 %tmp1, %x 98 %tmp3 = mul i4 %tmp2, %x 99 %tmp4 = mul i4 %tmp3, %x 100 %tmp5 = mul i4 %tmp4, %x 101 %tmp6 = mul i4 %tmp5, %x 102 %tmp7 = mul i4 %tmp6, %x 103 ret i4 %tmp7 106 define i4 @foo4x9(i4 %x) { [all …]
|
/external/llvm/test/Transforms/Reassociate/ |
D | repeats.ll | 90 define i4 @foo4x8(i4 %x) { 96 %tmp1 = mul i4 %x, %x 97 %tmp2 = mul i4 %tmp1, %x 98 %tmp3 = mul i4 %tmp2, %x 99 %tmp4 = mul i4 %tmp3, %x 100 %tmp5 = mul i4 %tmp4, %x 101 %tmp6 = mul i4 %tmp5, %x 102 %tmp7 = mul i4 %tmp6, %x 103 ret i4 %tmp7 106 define i4 @foo4x9(i4 %x) { [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Analysis/ScalarEvolution/ |
D | trip-count9.ll | 14 define void @foo(i4 %n) { 16 %s = icmp sgt i4 %n, 0 19 %i = phi i4 [ 0, %entry ], [ %i.next, %loop ] 20 %i.next = add i4 %i, 1 21 %t = icmp slt i4 %i.next, %n 30 define void @step2(i4 %n) { 32 %s = icmp sgt i4 %n, 0 35 %i = phi i4 [ 0, %entry ], [ %i.next, %loop ] 36 %i.next = add i4 %i, 2 37 %t = icmp slt i4 %i.next, %n [all …]
|
/external/llvm/test/Analysis/ScalarEvolution/ |
D | trip-count9.ll | 14 define void @foo(i4 %n) { 16 %s = icmp sgt i4 %n, 0 19 %i = phi i4 [ 0, %entry ], [ %i.next, %loop ] 20 %i.next = add i4 %i, 1 21 %t = icmp slt i4 %i.next, %n 30 define void @step2(i4 %n) { 32 %s = icmp sgt i4 %n, 0 35 %i = phi i4 [ 0, %entry ], [ %i.next, %loop ] 36 %i.next = add i4 %i, 2 37 %t = icmp slt i4 %i.next, %n [all …]
|
/external/swiftshader/third_party/LLVM/test/Analysis/ScalarEvolution/ |
D | trip-count9.ll | 14 define void @foo(i4 %n) { 16 %s = icmp sgt i4 %n, 0 19 %i = phi i4 [ 0, %entry ], [ %i.next, %loop ] 20 %i.next = add i4 %i, 1 21 %t = icmp slt i4 %i.next, %n 30 define void @step2(i4 %n) { 32 %s = icmp sgt i4 %n, 0 35 %i = phi i4 [ 0, %entry ], [ %i.next, %loop ] 36 %i.next = add i4 %i, 2 37 %t = icmp slt i4 %i.next, %n [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/PowerPC/ |
D | vec_splat.ll | 10 %i4 = type <4 x i32> 23 define void @splat_i4(%i4* %P, %i4* %Q, i32 %X) nounwind { 24 %tmp = insertelement %i4 undef, i32 %X, i32 0 ; <%i4> [#uses=1] 25 %tmp2 = insertelement %i4 %tmp, i32 %X, i32 1 ; <%i4> [#uses=1] 26 %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2 ; <%i4> [#uses=1] 27 %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3 ; <%i4> [#uses=1] 28 %q = load %i4, %i4* %Q ; <%i4> [#uses=1] 29 %R = add %i4 %q, %tmp6 ; <%i4> [#uses=1] 30 store %i4 %R, %i4* %P 34 define void @splat_imm_i32(%i4* %P, %i4* %Q, i32 %X) nounwind { [all …]
|
/external/llvm/test/CodeGen/PowerPC/ |
D | vec_splat.ll | 10 %i4 = type <4 x i32> 23 define void @splat_i4(%i4* %P, %i4* %Q, i32 %X) nounwind { 24 %tmp = insertelement %i4 undef, i32 %X, i32 0 ; <%i4> [#uses=1] 25 %tmp2 = insertelement %i4 %tmp, i32 %X, i32 1 ; <%i4> [#uses=1] 26 %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2 ; <%i4> [#uses=1] 27 %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3 ; <%i4> [#uses=1] 28 %q = load %i4, %i4* %Q ; <%i4> [#uses=1] 29 %R = add %i4 %q, %tmp6 ; <%i4> [#uses=1] 30 store %i4 %R, %i4* %P 34 define void @splat_imm_i32(%i4* %P, %i4* %Q, i32 %X) nounwind { [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/Hexagon/vect/ |
D | vect-splat.ll | 5 %i4 = type <4 x i32> 7 define void @splat_i4(%i4* %P, %i4* %Q, i32 %X) { 8 %tmp = insertelement %i4 undef, i32 %X, i32 0 ; <%i4> [#uses=1] 9 %tmp2 = insertelement %i4 %tmp, i32 %X, i32 1 ; <%i4> [#uses=1] 10 %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2 ; <%i4> [#uses=1] 11 %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3 ; <%i4> [#uses=1] 12 %q = load %i4, %i4* %Q ; <%i4> [#uses=1] 13 %R = add %i4 %q, %tmp6 ; <%i4> [#uses=1] 14 store %i4 %R, %i4* %P
|
/external/llvm/test/CodeGen/Hexagon/vect/ |
D | vect-splat.ll | 5 %i4 = type <4 x i32> 7 define void @splat_i4(%i4* %P, %i4* %Q, i32 %X) { 8 %tmp = insertelement %i4 undef, i32 %X, i32 0 ; <%i4> [#uses=1] 9 %tmp2 = insertelement %i4 %tmp, i32 %X, i32 1 ; <%i4> [#uses=1] 10 %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2 ; <%i4> [#uses=1] 11 %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3 ; <%i4> [#uses=1] 12 %q = load %i4, %i4* %Q ; <%i4> [#uses=1] 13 %R = add %i4 %q, %tmp6 ; <%i4> [#uses=1] 14 store %i4 %R, %i4* %P
|
/external/swiftshader/third_party/LLVM/test/CodeGen/PowerPC/ |
D | vec_splat.ll | 10 %i4 = type <4 x i32> 23 define void @splat_i4(%i4* %P, %i4* %Q, i32 %X) nounwind { 24 %tmp = insertelement %i4 undef, i32 %X, i32 0 ; <%i4> [#uses=1] 25 %tmp2 = insertelement %i4 %tmp, i32 %X, i32 1 ; <%i4> [#uses=1] 26 %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2 ; <%i4> [#uses=1] 27 %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3 ; <%i4> [#uses=1] 28 %q = load %i4* %Q ; <%i4> [#uses=1] 29 %R = add %i4 %q, %tmp6 ; <%i4> [#uses=1] 30 store %i4 %R, %i4* %P 34 define void @splat_imm_i32(%i4* %P, %i4* %Q, i32 %X) nounwind { [all …]
|