/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | vaba.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 44 ret <8 x i8> %tmp5 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 55 ret <4 x i16> %tmp5 [all …]
|
D | vmla.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fadd <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = add <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | vmls.ll | 10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | vbsl.ll | 10 %tmp5 = xor <8 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 > 11 %tmp6 = and <8 x i8> %tmp5, %tmp3 23 %tmp5 = xor <4 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1 > 24 %tmp6 = and <4 x i16> %tmp5, %tmp3 36 %tmp5 = xor <2 x i32> %tmp1, < i32 -1, i32 -1 > 37 %tmp6 = and <2 x i32> %tmp5, %tmp3 49 %tmp5 = xor <1 x i64> %tmp1, < i64 -1 > 50 %tmp6 = and <1 x i64> %tmp5, %tmp3 62 …%tmp5 = xor <16 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -… 63 %tmp6 = and <16 x i8> %tmp5, %tmp3 [all …]
|
D | vtrn.ll | 11 %tmp5 = add <8 x i8> %tmp3, %tmp4 12 ret <8 x i8> %tmp5 23 %tmp5 = add <4 x i16> %tmp3, %tmp4 24 ret <4 x i16> %tmp5 35 %tmp5 = add <2 x i32> %tmp3, %tmp4 36 ret <2 x i32> %tmp5 47 %tmp5 = fadd <2 x float> %tmp3, %tmp4 48 ret <2 x float> %tmp5 59 %tmp5 = add <16 x i8> %tmp3, %tmp4 60 ret <16 x i8> %tmp5 [all …]
|
D | vzip.ll | 11 %tmp5 = add <8 x i8> %tmp3, %tmp4 12 ret <8 x i8> %tmp5 23 %tmp5 = add <4 x i16> %tmp3, %tmp4 24 ret <4 x i16> %tmp5 37 %tmp5 = add <16 x i8> %tmp3, %tmp4 38 ret <16 x i8> %tmp5 49 %tmp5 = add <8 x i16> %tmp3, %tmp4 50 ret <8 x i16> %tmp5 61 %tmp5 = add <4 x i32> %tmp3, %tmp4 62 ret <4 x i32> %tmp5 [all …]
|
D | vuzp.ll | 11 %tmp5 = add <8 x i8> %tmp3, %tmp4 12 ret <8 x i8> %tmp5 23 %tmp5 = add <4 x i16> %tmp3, %tmp4 24 ret <4 x i16> %tmp5 37 %tmp5 = add <16 x i8> %tmp3, %tmp4 38 ret <16 x i8> %tmp5 49 %tmp5 = add <8 x i16> %tmp3, %tmp4 50 ret <8 x i16> %tmp5 61 %tmp5 = add <4 x i32> %tmp3, %tmp4 62 ret <4 x i32> %tmp5 [all …]
|
D | uxtb.ll | 37 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 38 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 46 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 47 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 54 %tmp5 = lshr i32 %x, 24 ; <i32> [#uses=1] 55 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 62 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 63 %tmp6 = or i32 %tmp5, %tmp1 ; <i32> [#uses=1] 71 %tmp5 = and i32 %tmp4, 458759 ; <i32> [#uses=1] 72 %tmp7 = or i32 %tmp5, %tmp2 ; <i32> [#uses=1]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/InstCombine/ |
D | icmp-logical.ll | 231 %tmp5 = and i1 %tmp2, %tmp4 232 ret i1 %tmp5 246 %tmp5 = and i1 %tmp2, %tmp4 247 ret i1 %tmp5 264 %tmp5 = and i1 %tmp2, %tmp4 265 ret i1 %tmp5 277 %tmp5 = and i1 %tmp2, %tmp4 278 ret i1 %tmp5 292 %tmp5 = and i1 %tmp2, %tmp4 293 ret i1 %tmp5 [all …]
|
D | broadcast.ll | 11 %tmp5 = insertelement <4 x float> %tmp4, float %arg, i32 2 12 %tmp6 = insertelement <4 x float> %tmp5, float %arg, i32 3 23 %tmp5 = insertelement <4 x float> %tmp4, float %arg, i32 0 24 %tmp6 = insertelement <4 x float> %tmp5, float %arg, i32 3 35 %tmp5 = insertelement <4 x float> %tmp4, float %arg, i32 2 36 %tmp6 = insertelement <4 x float> %tmp5, float %arg, i32 3 48 %tmp5 = insertelement <4 x float> %tmp4, float %arg, i32 2 49 %tmp6 = insertelement <4 x float> %tmp5, float %arg, i32 3 75 %tmp5 = insertelement <4 x float> %tmp4, float %arg, i32 2 76 %tmp6 = insertelement <4 x float> %tmp5, float %arg, i32 3 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | vaba.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 44 ret <8 x i8> %tmp5 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 55 ret <4 x i16> %tmp5 [all …]
|
D | vmls.ll | 10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | vmla.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fadd <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = add <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | uxtb.ll | 37 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 38 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 46 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 47 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 54 %tmp5 = lshr i32 %x, 24 ; <i32> [#uses=1] 55 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 62 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 63 %tmp6 = or i32 %tmp5, %tmp1 ; <i32> [#uses=1] 71 %tmp5 = and i32 %tmp4, 458759 ; <i32> [#uses=1] 72 %tmp7 = or i32 %tmp5, %tmp2 ; <i32> [#uses=1]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/ |
D | vaba.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 44 ret <8 x i8> %tmp5 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 55 ret <4 x i16> %tmp5 [all …]
|
D | vmls.ll | 10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | vmla.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fadd <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = add <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | uxtb.ll | 51 %tmp5 = and i32 %tmp4, 16711680 52 %tmp6 = or i32 %tmp2, %tmp5 63 %tmp5 = and i32 %tmp4, 16711680 64 %tmp6 = or i32 %tmp2, %tmp5 74 %tmp5 = lshr i32 %x, 24 75 %tmp6 = or i32 %tmp2, %tmp5 85 %tmp5 = and i32 %tmp4, 16711680 86 %tmp6 = or i32 %tmp5, %tmp1 97 %tmp5 = and i32 %tmp4, 458759 98 %tmp7 = or i32 %tmp5, %tmp2
|
/external/swiftshader/third_party/LLVM/test/Transforms/InstCombine/ |
D | bswap.ll | 10 %tmp5 = or i32 %tmp1, %tmp4 ; <i32> [#uses=1] 13 %tmp9 = or i32 %tmp5, %tmp8 ; <i32> [#uses=1] 22 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 23 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 35 %tmp5 = or i16 %tmp2, %tmp4 ; <i16> [#uses=1] 36 ret i16 %tmp5 42 %tmp5 = or i16 %tmp4, %tmp2 ; <i16> [#uses=1] 43 ret i16 %tmp5 52 %tmp5 = shl i32 %tmp4, 8 ; <i32> [#uses=1] 53 %tmp5.upgrd.2 = trunc i32 %tmp5 to i16 ; <i16> [#uses=1] [all …]
|
/external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
D | 2007-03-15-GEP-Idx-Sink.ll | 10 %tmp5.sum72 = add i32 %col, 7 ; <i32> [#uses=1] 11 %tmp5.sum71 = add i32 %col, 5 ; <i32> [#uses=1] 12 %tmp5.sum70 = add i32 %col, 3 ; <i32> [#uses=1] 13 %tmp5.sum69 = add i32 %col, 2 ; <i32> [#uses=1] 14 %tmp5.sum68 = add i32 %col, 1 ; <i32> [#uses=1] 15 %tmp5.sum66 = add i32 %col, 4 ; <i32> [#uses=1] 16 %tmp5.sum = add i32 %col, 6 ; <i32> [#uses=1] 25 %tmp5 = getelementptr i8* %tmp3, i32 %col ; <i8*> [#uses=1] 27 store i8 %tmp7, i8* %tmp5 31 %tmp15 = getelementptr i8* %tmp3, i32 %tmp5.sum72 ; <i8*> [#uses=1] [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | 2007-03-15-GEP-Idx-Sink.ll | 16 %tmp5.sum72 = add i32 %col, 7 ; <i32> [#uses=1] 17 %tmp5.sum71 = add i32 %col, 5 ; <i32> [#uses=1] 18 %tmp5.sum70 = add i32 %col, 3 ; <i32> [#uses=1] 19 %tmp5.sum69 = add i32 %col, 2 ; <i32> [#uses=1] 20 %tmp5.sum68 = add i32 %col, 1 ; <i32> [#uses=1] 21 %tmp5.sum66 = add i32 %col, 4 ; <i32> [#uses=1] 22 %tmp5.sum = add i32 %col, 6 ; <i32> [#uses=1] 31 %tmp5 = getelementptr i8, i8* %tmp3, i32 %col ; <i8*> [#uses=1] 33 store i8 %tmp7, i8* %tmp5 37 %tmp15 = getelementptr i8, i8* %tmp3, i32 %tmp5.sum72 ; <i8*> [#uses=1] [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/ |
D | 2007-03-15-GEP-Idx-Sink.ll | 15 %tmp5.sum72 = add i32 %col, 7 ; <i32> [#uses=1] 16 %tmp5.sum71 = add i32 %col, 5 ; <i32> [#uses=1] 17 %tmp5.sum70 = add i32 %col, 3 ; <i32> [#uses=1] 18 %tmp5.sum69 = add i32 %col, 2 ; <i32> [#uses=1] 19 %tmp5.sum68 = add i32 %col, 1 ; <i32> [#uses=1] 20 %tmp5.sum66 = add i32 %col, 4 ; <i32> [#uses=1] 21 %tmp5.sum = add i32 %col, 6 ; <i32> [#uses=1] 30 %tmp5 = getelementptr i8, i8* %tmp3, i32 %col ; <i8*> [#uses=1] 32 store i8 %tmp7, i8* %tmp5 36 %tmp15 = getelementptr i8, i8* %tmp3, i32 %tmp5.sum72 ; <i8*> [#uses=1] [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-trn.ll | 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 13 ret <8 x i8> %tmp5 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 26 ret <4 x i16> %tmp5 39 %tmp5 = add <2 x i32> %tmp3, %tmp4 40 ret <2 x i32> %tmp5 52 %tmp5 = fadd <2 x float> %tmp3, %tmp4 53 ret <2 x float> %tmp5 65 %tmp5 = add <16 x i8> %tmp3, %tmp4 66 ret <16 x i8> %tmp5 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/AArch64/ |
D | arm64-trn.ll | 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 13 ret <8 x i8> %tmp5 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 26 ret <4 x i16> %tmp5 39 %tmp5 = add <2 x i32> %tmp3, %tmp4 40 ret <2 x i32> %tmp5 52 %tmp5 = fadd <2 x float> %tmp3, %tmp4 53 ret <2 x float> %tmp5 65 %tmp5 = add <16 x i8> %tmp3, %tmp4 66 ret <16 x i8> %tmp5 [all …]
|
/external/libjpeg-turbo/ |
D | jfdctint.c | 145 JLONG tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 163 tmp5 = dataptr[2] - dataptr[5]; 191 z2 = tmp5 + tmp6; 193 z4 = tmp5 + tmp7; 197 tmp5 = MULTIPLY(tmp5, FIX_2_053119869); /* sqrt(2) * ( c1+c3-c5+c7) */ 209 dataptr[5] = (DCTELEM)DESCALE(tmp5 + z2 + z4, CONST_BITS - PASS1_BITS); 228 tmp5 = dataptr[DCTSIZE * 2] - dataptr[DCTSIZE * 5]; 258 z2 = tmp5 + tmp6; 260 z4 = tmp5 + tmp7; 264 tmp5 = MULTIPLY(tmp5, FIX_2_053119869); /* sqrt(2) * ( c1+c3-c5+c7) */ [all …]
|