/external/llvm/test/CodeGen/ARM/ |
D | vaba.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 44 ret <8 x i8> %tmp5 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 55 ret <4 x i16> %tmp5 [all …]
|
D | vmls.ll | 10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | vmla.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fadd <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = add <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | vbsl.ll | 10 %tmp5 = xor <8 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 > 11 %tmp6 = and <8 x i8> %tmp5, %tmp3 23 %tmp5 = xor <4 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1 > 24 %tmp6 = and <4 x i16> %tmp5, %tmp3 36 %tmp5 = xor <2 x i32> %tmp1, < i32 -1, i32 -1 > 37 %tmp6 = and <2 x i32> %tmp5, %tmp3 49 %tmp5 = xor <1 x i64> %tmp1, < i64 -1 > 50 %tmp6 = and <1 x i64> %tmp5, %tmp3 62 …%tmp5 = xor <16 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -… 63 %tmp6 = and <16 x i8> %tmp5, %tmp3 [all …]
|
D | vtrn.ll | 11 %tmp5 = add <8 x i8> %tmp3, %tmp4 12 ret <8 x i8> %tmp5 23 %tmp5 = add <4 x i16> %tmp3, %tmp4 24 ret <4 x i16> %tmp5 35 %tmp5 = add <2 x i32> %tmp3, %tmp4 36 ret <2 x i32> %tmp5 47 %tmp5 = fadd <2 x float> %tmp3, %tmp4 48 ret <2 x float> %tmp5 59 %tmp5 = add <16 x i8> %tmp3, %tmp4 60 ret <16 x i8> %tmp5 [all …]
|
D | uxtb.ll | 37 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 38 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 46 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 47 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 54 %tmp5 = lshr i32 %x, 24 ; <i32> [#uses=1] 55 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 62 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 63 %tmp6 = or i32 %tmp5, %tmp1 ; <i32> [#uses=1] 71 %tmp5 = and i32 %tmp4, 458759 ; <i32> [#uses=1] 72 %tmp7 = or i32 %tmp5, %tmp2 ; <i32> [#uses=1]
|
D | vuzp.ll | 11 %tmp5 = add <8 x i8> %tmp3, %tmp4 12 ret <8 x i8> %tmp5 23 %tmp5 = add <4 x i16> %tmp3, %tmp4 24 ret <4 x i16> %tmp5 37 %tmp5 = add <16 x i8> %tmp3, %tmp4 38 ret <16 x i8> %tmp5 49 %tmp5 = add <8 x i16> %tmp3, %tmp4 50 ret <8 x i16> %tmp5 61 %tmp5 = add <4 x i32> %tmp3, %tmp4 62 ret <4 x i32> %tmp5 [all …]
|
D | vzip.ll | 11 %tmp5 = add <8 x i8> %tmp3, %tmp4 12 ret <8 x i8> %tmp5 23 %tmp5 = add <4 x i16> %tmp3, %tmp4 24 ret <4 x i16> %tmp5 37 %tmp5 = add <16 x i8> %tmp3, %tmp4 38 ret <16 x i8> %tmp5 49 %tmp5 = add <8 x i16> %tmp3, %tmp4 50 ret <8 x i16> %tmp5 61 %tmp5 = add <4 x i32> %tmp3, %tmp4 62 ret <4 x i32> %tmp5 [all …]
|
D | vldlane.ll | 96 %tmp5 = add <8 x i8> %tmp3, %tmp4 97 ret <8 x i8> %tmp5 109 %tmp5 = add <4 x i16> %tmp3, %tmp4 110 ret <4 x i16> %tmp5 121 %tmp5 = add <2 x i32> %tmp3, %tmp4 122 ret <2 x i32> %tmp5 135 %tmp5 = add <2 x i32> %tmp3, %tmp4 138 ret <2 x i32> %tmp5 149 %tmp5 = fadd <2 x float> %tmp3, %tmp4 150 ret <2 x float> %tmp5 [all …]
|
D | pack.ll | 8 %tmp5 = or i32 %tmp4, %tmp1 9 ret i32 %tmp5 27 %tmp5 = or i32 %tmp37, %tmp19 28 ret i32 %tmp5 46 %tmp5 = or i32 %tmp4, %tmp17 47 ret i32 %tmp5 56 %tmp5 = or i32 %tmp39, %tmp110 57 ret i32 %tmp5
|
D | vtbl.ll | 23 %tmp5 = call <8 x i8> @llvm.arm.neon.vtbl2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4) 24 ret <8 x i8> %tmp5 34 %tmp5 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 2 35 … call <8 x i8> @llvm.arm.neon.vtbl3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5) 46 %tmp5 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 2 48 …llvm.arm.neon.vtbl4(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6) 69 %tmp5 = load <8 x i8>* %C 70 … call <8 x i8> @llvm.arm.neon.vtbx2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5) 81 %tmp5 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 2 83 …llvm.arm.neon.vtbx3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6) [all …]
|
/external/llvm/test/Transforms/InstCombine/ |
D | bswap.ll | 10 %tmp5 = or i32 %tmp1, %tmp4 ; <i32> [#uses=1] 13 %tmp9 = or i32 %tmp5, %tmp8 ; <i32> [#uses=1] 22 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 23 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 35 %tmp5 = or i16 %tmp2, %tmp4 ; <i16> [#uses=1] 36 ret i16 %tmp5 42 %tmp5 = or i16 %tmp4, %tmp2 ; <i16> [#uses=1] 43 ret i16 %tmp5 52 %tmp5 = shl i32 %tmp4, 8 ; <i32> [#uses=1] 53 %tmp5.upgrd.2 = trunc i32 %tmp5 to i16 ; <i16> [#uses=1] [all …]
|
D | apint-cast.ll | 10 %tmp5 = shl i37 %tmp, 8 ; <i37> [#uses=1] 11 ; CHECK: %tmp5 = shl i17 %a, 8 12 %tmp.upgrd.32 = or i37 %tmp21, %tmp5 ; <i37> [#uses=1] 13 ; CHECK: %tmp.upgrd.32 = or i17 %tmp21, %tmp5 23 %tmp5 = shl i577 %tmp, 8 ; <i577> [#uses=1] 24 ; CHECK: %tmp5 = shl i167 %a, 8 25 %tmp.upgrd.32 = or i577 %tmp21, %tmp5 ; <i577> [#uses=1] 26 ; CHECK: %tmp.upgrd.32 = or i167 %tmp21, %tmp5
|
/external/llvm/test/CodeGen/X86/ |
D | 2007-03-15-GEP-Idx-Sink.ll | 10 %tmp5.sum72 = add i32 %col, 7 ; <i32> [#uses=1] 11 %tmp5.sum71 = add i32 %col, 5 ; <i32> [#uses=1] 12 %tmp5.sum70 = add i32 %col, 3 ; <i32> [#uses=1] 13 %tmp5.sum69 = add i32 %col, 2 ; <i32> [#uses=1] 14 %tmp5.sum68 = add i32 %col, 1 ; <i32> [#uses=1] 15 %tmp5.sum66 = add i32 %col, 4 ; <i32> [#uses=1] 16 %tmp5.sum = add i32 %col, 6 ; <i32> [#uses=1] 25 %tmp5 = getelementptr i8* %tmp3, i32 %col ; <i8*> [#uses=1] 27 store i8 %tmp7, i8* %tmp5 31 %tmp15 = getelementptr i8* %tmp3, i32 %tmp5.sum72 ; <i8*> [#uses=1] [all …]
|
D | rotate2.ll | 7 %tmp5 = or i64 %tmp2, %tmp4 ; <i64> [#uses=1] 8 ret i64 %tmp5 15 %tmp5 = or i32 %tmp2, %tmp4 ; <i32> [#uses=1] 16 %tmp56 = zext i32 %tmp5 to i64 ; <i64> [#uses=1]
|
/external/jpeg/ |
D | jfdctint.c | 142 INT32 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 160 tmp5 = dataptr[2] - dataptr[5]; 188 z2 = tmp5 + tmp6; 190 z4 = tmp5 + tmp7; 194 tmp5 = MULTIPLY(tmp5, FIX_2_053119869); /* sqrt(2) * ( c1+c3-c5+c7) */ 206 dataptr[5] = (DCTELEM) DESCALE(tmp5 + z2 + z4, CONST_BITS-PASS1_BITS); 225 tmp5 = dataptr[DCTSIZE*2] - dataptr[DCTSIZE*5]; 253 z2 = tmp5 + tmp6; 255 z4 = tmp5 + tmp7; 259 tmp5 = MULTIPLY(tmp5, FIX_2_053119869); /* sqrt(2) * ( c1+c3-c5+c7) */ [all …]
|
D | jidctflt.c | 72 FAST_FLOAT tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 142 tmp5 = DEQUANTIZE(inptr[DCTSIZE*3], quantptr[DCTSIZE*3]); 146 z13 = tmp6 + tmp5; /* phase 6 */ 147 z10 = tmp6 - tmp5; 159 tmp5 = tmp11 - tmp6; 160 tmp4 = tmp10 + tmp5; 166 wsptr[DCTSIZE*2] = tmp2 + tmp5; 167 wsptr[DCTSIZE*5] = tmp2 - tmp5; 216 tmp5 = tmp11 - tmp6; 217 tmp4 = tmp10 + tmp5; [all …]
|
D | jidctfst.c | 172 DCTELEM tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 243 tmp5 = DEQUANTIZE(inptr[DCTSIZE*3], quantptr[DCTSIZE*3]); 247 z13 = tmp6 + tmp5; /* phase 6 */ 248 z10 = tmp6 - tmp5; 260 tmp5 = tmp11 - tmp6; 261 tmp4 = tmp10 + tmp5; 267 wsptr[DCTSIZE*2] = (int) (tmp2 + tmp5); 268 wsptr[DCTSIZE*5] = (int) (tmp2 - tmp5); 342 tmp5 = tmp11 - tmp6; 343 tmp4 = tmp10 + tmp5; [all …]
|
D | jfdctflt.c | 61 FAST_FLOAT tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 76 tmp5 = dataptr[2] - dataptr[5]; 96 tmp10 = tmp4 + tmp5; /* phase 2 */ 97 tmp11 = tmp5 + tmp6; 126 tmp5 = dataptr[DCTSIZE*2] - dataptr[DCTSIZE*5]; 146 tmp10 = tmp4 + tmp5; /* phase 2 */ 147 tmp11 = tmp5 + tmp6;
|
D | jfdctfst.c | 116 DCTELEM tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 132 tmp5 = dataptr[2] - dataptr[5]; 152 tmp10 = tmp4 + tmp5; /* phase 2 */ 153 tmp11 = tmp5 + tmp6; 182 tmp5 = dataptr[DCTSIZE*2] - dataptr[DCTSIZE*5]; 202 tmp10 = tmp4 + tmp5; /* phase 2 */ 203 tmp11 = tmp5 + tmp6;
|
/external/llvm/test/CodeGen/Thumb2/ |
D | thumb2-pack.ll | 8 %tmp5 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1] 9 ret i32 %tmp5 17 %tmp5 = or i32 %tmp37, %tmp19 ; <i32> [#uses=1] 18 ret i32 %tmp5 36 %tmp5 = or i32 %tmp37, %tmp19 ; <i32> [#uses=1] 37 ret i32 %tmp5 55 %tmp5 = or i32 %tmp4, %tmp17 ; <i32> [#uses=1] 56 ret i32 %tmp5 65 %tmp5 = or i32 %tmp39, %tmp110 ; <i32> [#uses=1] 66 ret i32 %tmp5
|
D | thumb2-uxtb.ll | 73 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 74 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 88 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 89 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 102 %tmp5 = lshr i32 %x, 24 ; <i32> [#uses=1] 103 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 116 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 117 %tmp6 = or i32 %tmp5, %tmp1 ; <i32> [#uses=1] 138 %tmp5 = and i32 %tmp4, 458759 ; <i32> [#uses=1] 139 %tmp7 = or i32 %tmp5, %tmp2 ; <i32> [#uses=1]
|
/external/llvm/test/Analysis/BasicAA/ |
D | full-store-partial-alias.ll | 6 ; so the %tmp5 load is PartialAlias with the store and suppress TBAA. 7 ; Without BasicAA, TBAA should say that %tmp5 is NoAlias with the store. 25 %tmp5 = load i32* %arrayidx, align 4, !tbaa !3 26 %tmp5.lobit = lshr i32 %tmp5, 31 27 ret i32 %tmp5.lobit
|
/external/llvm/test/CodeGen/Thumb/ |
D | rev.ll | 10 %tmp5 = and i32 %tmp4, -16777216 13 %tmp6 = or i32 %tmp5, %tmp2 27 %tmp5 = or i16 %tmp2, %tmp4 28 %tmp5.upgrd.2 = sext i16 %tmp5 to i32 29 ret i32 %tmp5.upgrd.2
|
/external/llvm/test/Transforms/SimplifyCFG/ |
D | speculate-with-offset.ll | 20 %tmp5 = load i64** %__a.addr, align 8 24 %storemerge = phi i64* [ undef, %if.then ], [ %tmp5, %if.end ] 42 %tmp5 = load i64** %__a.addr, align 8 46 %storemerge = phi i64* [ undef, %if.then ], [ %tmp5, %if.end ] 64 %tmp5 = load i64** %__a.addr, align 8 68 %storemerge = phi i64* [ undef, %if.then ], [ %tmp5, %if.end ] 86 %tmp5 = load i64** %__a.addr, align 8 90 %storemerge = phi i64* [ undef, %if.then ], [ %tmp5, %if.end ]
|