/external/llvm/test/CodeGen/AArch64/ |
D | arm64-neon-compare-instructions.ll | 6 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 7 ret <8 x i8> %tmp4 13 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 14 ret <16 x i8> %tmp4 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 21 ret <4 x i16> %tmp4 27 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 28 ret <8 x i16> %tmp4 34 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 35 ret <2 x i32> %tmp4 [all …]
|
D | neon-compare-instructions.ll | 7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 8 ret <8 x i8> %tmp4 15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 16 ret <16 x i8> %tmp4 23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 24 ret <4 x i16> %tmp4 31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 32 ret <8 x i16> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 [all …]
|
D | arm64-vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <16 x i8> %tmp1, %tmp3 40 ret <16 x i8> %tmp4 49 %tmp4 = add <8 x i16> %tmp1, %tmp3 50 ret <8 x i16> %tmp4 [all …]
|
D | aarch64-smull.ll | 9 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16> 10 %tmp5 = mul <8 x i16> %tmp3, %tmp4 20 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32> 21 %tmp5 = mul <4 x i32> %tmp3, %tmp4 31 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64> 32 %tmp5 = mul <2 x i64> %tmp3, %tmp4 42 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16> 43 %tmp5 = mul <8 x i16> %tmp3, %tmp4 53 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32> 54 %tmp5 = mul <4 x i32> %tmp3, %tmp4 [all …]
|
D | arm64-trn.ll | 11 …%tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 9, i32 3, i32 11, i32 … 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 24 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 5, i32 3, i32 7> 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 38 %tmp4 = shufflevector <2 x i32> %tmp1, <2 x i32> %tmp2, <2 x i32> <i32 1, i32 3> 39 %tmp5 = add <2 x i32> %tmp3, %tmp4 51 %tmp4 = shufflevector <2 x float> %tmp1, <2 x float> %tmp2, <2 x i32> <i32 1, i32 3> 52 %tmp5 = fadd <2 x float> %tmp3, %tmp4 64 …%tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 17, i32 3, i32 19, … 65 %tmp5 = add <16 x i8> %tmp3, %tmp4 [all …]
|
D | arm64-fmuladd.ll | 10 %tmp4 = call float @llvm.fmuladd.f32(float %tmp1, float %tmp2, float %tmp3) 11 ret float %tmp4 21 …%tmp4 = call <2 x float> @llvm.fmuladd.v2f32(<2 x float> %tmp1, <2 x float> %tmp2, <2 x float> %tm… 22 ret <2 x float> %tmp4 32 …%tmp4 = call <4 x float> @llvm.fmuladd.v4f32(<4 x float> %tmp1, <4 x float> %tmp2, <4 x float> %tm… 33 ret <4 x float> %tmp4 44 …%tmp4 = call <8 x float> @llvm.fmuladd.v8f32(<8 x float> %tmp1, <8 x float> %tmp2, <8 x float> %tm… 45 ret <8 x float> %tmp4 55 %tmp4 = call double @llvm.fmuladd.f64(double %tmp1, double %tmp2, double %tmp3) 56 ret double %tmp4 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <1 x i64> %tmp1, %tmp3 40 ret <1 x i64> %tmp4 49 %tmp4 = add <16 x i8> %tmp1, %tmp3 50 ret <16 x i8> %tmp4 [all …]
|
D | vcgt.ll | 10 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 11 ret <8 x i8> %tmp4 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 21 ret <4 x i16> %tmp4 30 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 31 ret <2 x i32> %tmp4 40 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 41 ret <8 x i8> %tmp4 50 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 51 ret <4 x i16> %tmp4 [all …]
|
D | vceq.ll | 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 10 ret <8 x i8> %tmp4 19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 20 ret <4 x i16> %tmp4 29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 30 ret <2 x i32> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 50 ret <16 x i8> %tmp4 [all …]
|
D | vicmp.ll | 16 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 17 ret <8 x i8> %tmp4 27 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 28 ret <4 x i16> %tmp4 38 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 39 ret <2 x i32> %tmp4 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 50 ret <16 x i8> %tmp4 60 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 61 ret <8 x i16> %tmp4 [all …]
|
D | vcge.ll | 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 10 ret <8 x i8> %tmp4 19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 20 ret <4 x i16> %tmp4 29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 30 ret <2 x i32> %tmp4 39 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 40 ret <8 x i8> %tmp4 49 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 50 ret <4 x i16> %tmp4 [all …]
|
D | vfcmp.ll | 13 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 14 ret <2 x i32> %tmp4 24 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 25 ret <2 x i32> %tmp4 35 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 36 ret <2 x i32> %tmp4 47 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 48 ret <2 x i32> %tmp4 59 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 60 ret <2 x i32> %tmp4 [all …]
|
D | vaba.ll | 9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3) 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 [all …]
|
D | vmla.ll | 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 20 %tmp4 = mul <4 x i16> %tmp2, %tmp3 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 31 %tmp4 = mul <2 x i32> %tmp2, %tmp3 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 42 %tmp4 = fmul <2 x float> %tmp2, %tmp3 43 %tmp5 = fadd <2 x float> %tmp1, %tmp4 53 %tmp4 = mul <16 x i8> %tmp2, %tmp3 54 %tmp5 = add <16 x i8> %tmp1, %tmp4 [all …]
|
D | vmls.ll | 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3 10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 20 %tmp4 = mul <4 x i16> %tmp2, %tmp3 21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 31 %tmp4 = mul <2 x i32> %tmp2, %tmp3 32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 42 %tmp4 = fmul <2 x float> %tmp2, %tmp3 43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 53 %tmp4 = mul <16 x i8> %tmp2, %tmp3 54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 [all …]
|
D | vld3.ll | 22 %tmp4 = add <8 x i8> %tmp2, %tmp3 23 ret <8 x i8> %tmp4 33 %tmp4 = add <4 x i16> %tmp2, %tmp3 34 ret <4 x i16> %tmp4 46 %tmp4 = add <4 x i16> %tmp2, %tmp3 49 ret <4 x i16> %tmp4 59 %tmp4 = add <2 x i32> %tmp2, %tmp3 60 ret <2 x i32> %tmp4 70 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all …]
|
D | vld2.ll | 21 %tmp4 = add <8 x i8> %tmp2, %tmp3 22 ret <8 x i8> %tmp4 33 %tmp4 = add <4 x i16> %tmp2, %tmp3 34 ret <4 x i16> %tmp4 44 %tmp4 = add <2 x i32> %tmp2, %tmp3 45 ret <2 x i32> %tmp4 55 %tmp4 = fadd <2 x float> %tmp2, %tmp3 56 ret <2 x float> %tmp4 68 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all …]
|
D | vld4.ll | 21 %tmp4 = add <8 x i8> %tmp2, %tmp3 22 ret <8 x i8> %tmp4 33 %tmp4 = add <8 x i8> %tmp2, %tmp3 36 ret <8 x i8> %tmp4 47 %tmp4 = add <4 x i16> %tmp2, %tmp3 48 ret <4 x i16> %tmp4 59 %tmp4 = add <2 x i32> %tmp2, %tmp3 60 ret <2 x i32> %tmp4 70 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all …]
|
D | vbsl-constant.ll | 11 %tmp4 = and <8 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3> 13 %tmp7 = or <8 x i8> %tmp4, %tmp6 25 %tmp4 = and <4 x i16> %tmp1, <i16 3, i16 3, i16 3, i16 3> 27 %tmp7 = or <4 x i16> %tmp4, %tmp6 39 %tmp4 = and <2 x i32> %tmp1, <i32 3, i32 3> 41 %tmp7 = or <2 x i32> %tmp4, %tmp6 54 %tmp4 = and <1 x i64> %tmp1, <i64 3> 56 %tmp7 = or <1 x i64> %tmp4, %tmp6 68 …%tmp4 = and <16 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8… 70 %tmp7 = or <16 x i8> %tmp4, %tmp6 [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | bt.ll | 27 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 28 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 45 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 46 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 63 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 64 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 80 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 81 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 98 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 99 br i1 %tmp4, label %bb, label %UnifiedReturnBlock [all …]
|
/external/llvm/test/Transforms/Reassociate/ |
D | repeats.ll | 43 %tmp4 = mul i8 %tmp3, 3 44 ret i8 %tmp4 57 %tmp4 = mul i3 %tmp3, %x 58 ret i3 %tmp4 70 %tmp4 = mul i3 %tmp3, %x 71 %tmp5 = mul i3 %tmp4, %x 84 %tmp4 = mul i3 %tmp3, %x 85 %tmp5 = mul i3 %tmp4, %x 99 %tmp4 = mul i4 %tmp3, %x 100 %tmp5 = mul i4 %tmp4, %x [all …]
|
/external/opencv3/3rdparty/libjpeg/ |
D | jfdctint.c | 928 INT32 tmp0, tmp1, tmp2, tmp3, tmp4; in jpeg_fdct_9x9() local 955 tmp4 = GETJSAMPLE(elemptr[4]); in jpeg_fdct_9x9() 963 z2 = tmp1 + tmp4; in jpeg_fdct_9x9() 970 z2 = MULTIPLY(tmp1 - tmp4 - tmp4, FIX(0.707106781)); /* c6 */ in jpeg_fdct_9x9() 1021 tmp4 = dataptr[DCTSIZE*4]; in jpeg_fdct_9x9() 1029 z2 = tmp1 + tmp4; in jpeg_fdct_9x9() 1037 z2 = MULTIPLY(tmp1 - tmp4 - tmp4, FIX(1.117403309)); /* c6 */ in jpeg_fdct_9x9() 1078 INT32 tmp0, tmp1, tmp2, tmp3, tmp4; in jpeg_fdct_10x10() local 1104 tmp4 = GETJSAMPLE(elemptr[4]) + GETJSAMPLE(elemptr[5]); in jpeg_fdct_10x10() 1106 tmp10 = tmp0 + tmp4; in jpeg_fdct_10x10() [all …]
|
/external/pdfium/third_party/libjpeg/ |
D | fpdfapi_jfdctint.c | 142 INT32 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 162 tmp4 = dataptr[3] - dataptr[4]; 187 z1 = tmp4 + tmp7; 189 z3 = tmp4 + tmp6; 193 tmp4 = MULTIPLY(tmp4, FIX_0_298631336); /* sqrt(2) * (-c1+c3+c5-c7) */ 205 dataptr[7] = (DCTELEM) DESCALE(tmp4 + z1 + z3, CONST_BITS-PASS1_BITS); 227 tmp4 = dataptr[DCTSIZE*3] - dataptr[DCTSIZE*4]; 252 z1 = tmp4 + tmp7; 254 z3 = tmp4 + tmp6; 258 tmp4 = MULTIPLY(tmp4, FIX_0_298631336); /* sqrt(2) * (-c1+c3+c5-c7) */ [all …]
|
/external/libjpeg-turbo/ |
D | jfdctint.c | 144 INT32 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 164 tmp4 = dataptr[3] - dataptr[4]; 189 z1 = tmp4 + tmp7; 191 z3 = tmp4 + tmp6; 195 tmp4 = MULTIPLY(tmp4, FIX_0_298631336); /* sqrt(2) * (-c1+c3+c5-c7) */ 207 dataptr[7] = (DCTELEM) DESCALE(tmp4 + z1 + z3, CONST_BITS-PASS1_BITS); 229 tmp4 = dataptr[DCTSIZE*3] - dataptr[DCTSIZE*4]; 254 z1 = tmp4 + tmp7; 256 z3 = tmp4 + tmp6; 260 tmp4 = MULTIPLY(tmp4, FIX_0_298631336); /* sqrt(2) * (-c1+c3+c5-c7) */ [all …]
|
/external/llvm/test/Transforms/InstCombine/ |
D | bswap.ll | 9 %tmp4 = and i32 %tmp3, 65280 ; <i32> [#uses=1] 10 %tmp5 = or i32 %tmp1, %tmp4 ; <i32> [#uses=1] 21 %tmp4 = shl i32 %arg, 8 ; <i32> [#uses=1] 22 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 34 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1] 35 %tmp5 = or i16 %tmp2, %tmp4 ; <i16> [#uses=1] 41 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1] 42 %tmp5 = or i16 %tmp4, %tmp2 ; <i16> [#uses=1] 51 %tmp4 = and i32 %tmp, 255 ; <i32> [#uses=1] 52 %tmp5 = shl i32 %tmp4, 8 ; <i32> [#uses=1] [all …]
|