/external/llvm/test/CodeGen/ARM/ |
D | vbits.ll | 8 %tmp3 = and <8 x i8> %tmp1, %tmp2 9 ret <8 x i8> %tmp3 17 %tmp3 = and <4 x i16> %tmp1, %tmp2 18 ret <4 x i16> %tmp3 26 %tmp3 = and <2 x i32> %tmp1, %tmp2 27 ret <2 x i32> %tmp3 35 %tmp3 = and <1 x i64> %tmp1, %tmp2 36 ret <1 x i64> %tmp3 44 %tmp3 = and <16 x i8> %tmp1, %tmp2 45 ret <16 x i8> %tmp3 [all …]
|
D | vsub.ll | 8 %tmp3 = sub <8 x i8> %tmp1, %tmp2 9 ret <8 x i8> %tmp3 17 %tmp3 = sub <4 x i16> %tmp1, %tmp2 18 ret <4 x i16> %tmp3 26 %tmp3 = sub <2 x i32> %tmp1, %tmp2 27 ret <2 x i32> %tmp3 35 %tmp3 = sub <1 x i64> %tmp1, %tmp2 36 ret <1 x i64> %tmp3 44 %tmp3 = fsub <2 x float> %tmp1, %tmp2 45 ret <2 x float> %tmp3 [all …]
|
D | vadd.ll | 8 %tmp3 = add <8 x i8> %tmp1, %tmp2 9 ret <8 x i8> %tmp3 17 %tmp3 = add <4 x i16> %tmp1, %tmp2 18 ret <4 x i16> %tmp3 26 %tmp3 = add <2 x i32> %tmp1, %tmp2 27 ret <2 x i32> %tmp3 35 %tmp3 = add <1 x i64> %tmp1, %tmp2 36 ret <1 x i64> %tmp3 44 %tmp3 = fadd <2 x float> %tmp1, %tmp2 45 ret <2 x float> %tmp3 [all …]
|
D | vcgt.ll | 9 %tmp3 = icmp sgt <8 x i8> %tmp1, %tmp2 10 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 19 %tmp3 = icmp sgt <4 x i16> %tmp1, %tmp2 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 29 %tmp3 = icmp sgt <2 x i32> %tmp1, %tmp2 30 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 39 %tmp3 = icmp ugt <8 x i8> %tmp1, %tmp2 40 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 49 %tmp3 = icmp ugt <4 x i16> %tmp1, %tmp2 50 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> [all …]
|
D | vcge.ll | 8 %tmp3 = icmp sge <8 x i8> %tmp1, %tmp2 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 18 %tmp3 = icmp sge <4 x i16> %tmp1, %tmp2 19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 28 %tmp3 = icmp sge <2 x i32> %tmp1, %tmp2 29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 38 %tmp3 = icmp uge <8 x i8> %tmp1, %tmp2 39 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 48 %tmp3 = icmp uge <4 x i16> %tmp1, %tmp2 49 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> [all …]
|
D | vabd.ll | 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 36 ret <8 x i8> %tmp3 44 %tmp3 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 45 ret <4 x i16> %tmp3 [all …]
|
D | vhadd.ll | 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vhadds.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vhadds.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vhadds.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <8 x i8> @llvm.arm.neon.vhaddu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 36 ret <8 x i8> %tmp3 44 %tmp3 = call <4 x i16> @llvm.arm.neon.vhaddu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 45 ret <4 x i16> %tmp3 [all …]
|
D | vminmax.ll | 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vmins.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vmins.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vmins.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <8 x i8> @llvm.arm.neon.vminu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 36 ret <8 x i8> %tmp3 44 %tmp3 = call <4 x i16> @llvm.arm.neon.vminu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 45 ret <4 x i16> %tmp3 [all …]
|
D | vsra.ll | 8 %tmp3 = ashr <8 x i8> %tmp2, < i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8 > 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 18 %tmp3 = ashr <4 x i16> %tmp2, < i16 16, i16 16, i16 16, i16 16 > 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 28 %tmp3 = ashr <2 x i32> %tmp2, < i32 32, i32 32 > 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 38 %tmp3 = ashr <1 x i64> %tmp2, < i64 64 > 39 %tmp4 = add <1 x i64> %tmp1, %tmp3 48 …%tmp3 = ashr <16 x i8> %tmp2, < i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, … 49 %tmp4 = add <16 x i8> %tmp1, %tmp3 [all …]
|
D | vceq.ll | 8 %tmp3 = icmp eq <8 x i8> %tmp1, %tmp2 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 18 %tmp3 = icmp eq <4 x i16> %tmp1, %tmp2 19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 28 %tmp3 = icmp eq <2 x i32> %tmp1, %tmp2 29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 38 %tmp3 = fcmp oeq <2 x float> %tmp1, %tmp2 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 48 %tmp3 = icmp eq <16 x i8> %tmp1, %tmp2 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> [all …]
|
D | vshiftins.ll | 8 …%tmp3 = call <8 x i8> @llvm.arm.neon.vshiftins.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i8> < i8 … 9 ret <8 x i8> %tmp3 17 …%tmp3 = call <4 x i16> @llvm.arm.neon.vshiftins.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i16> … 18 ret <4 x i16> %tmp3 26 …%tmp3 = call <2 x i32> @llvm.arm.neon.vshiftins.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2, <2 x i32> … 27 ret <2 x i32> %tmp3 35 …%tmp3 = call <1 x i64> @llvm.arm.neon.vshiftins.v1i64(<1 x i64> %tmp1, <1 x i64> %tmp2, <1 x i64> … 36 ret <1 x i64> %tmp3 44 …%tmp3 = call <16 x i8> @llvm.arm.neon.vshiftins.v16i8(<16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i8> … 45 ret <16 x i8> %tmp3 [all …]
|
D | vqsub.ll | 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vqsubs.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vqsubs.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vqsubs.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <1 x i64> @llvm.arm.neon.vqsubs.v1i64(<1 x i64> %tmp1, <1 x i64> %tmp2) 36 ret <1 x i64> %tmp3 44 %tmp3 = call <8 x i8> @llvm.arm.neon.vqsubu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 45 ret <8 x i8> %tmp3 [all …]
|
D | vqadd.ll | 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vqadds.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vqadds.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vqadds.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <1 x i64> @llvm.arm.neon.vqadds.v1i64(<1 x i64> %tmp1, <1 x i64> %tmp2) 36 ret <1 x i64> %tmp3 44 %tmp3 = call <8 x i8> @llvm.arm.neon.vqaddu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 45 ret <8 x i8> %tmp3 [all …]
|
D | vpminmax.ll | 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vpmins.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vpmins.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vpmins.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <8 x i8> @llvm.arm.neon.vpminu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 36 ret <8 x i8> %tmp3 44 %tmp3 = call <4 x i16> @llvm.arm.neon.vpminu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 45 ret <4 x i16> %tmp3 [all …]
|
D | vicmp.ll | 15 %tmp3 = icmp ne <8 x i8> %tmp1, %tmp2 16 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 26 %tmp3 = icmp ne <4 x i16> %tmp1, %tmp2 27 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 37 %tmp3 = icmp ne <2 x i32> %tmp1, %tmp2 38 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 48 %tmp3 = icmp ne <16 x i8> %tmp1, %tmp2 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 59 %tmp3 = icmp ne <8 x i16> %tmp1, %tmp2 60 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> [all …]
|
D | vhsub.ll | 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vhsubs.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vhsubs.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vhsubs.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <8 x i8> @llvm.arm.neon.vhsubu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 36 ret <8 x i8> %tmp3 44 %tmp3 = call <4 x i16> @llvm.arm.neon.vhsubu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 45 ret <4 x i16> %tmp3 [all …]
|
D | vfcmp.ll | 12 %tmp3 = fcmp une <2 x float> %tmp1, %tmp2 13 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 23 %tmp3 = fcmp olt <2 x float> %tmp1, %tmp2 24 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 34 %tmp3 = fcmp ole <2 x float> %tmp1, %tmp2 35 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 46 %tmp3 = fcmp uge <2 x float> %tmp1, %tmp2 47 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 58 %tmp3 = fcmp ule <2 x float> %tmp1, %tmp2 59 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> [all …]
|
D | vaba.ll | 8 %tmp3 = load <8 x i8>* %C 9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 19 %tmp3 = load <4 x i16>* %C 20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 30 %tmp3 = load <2 x i32>* %C 31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3) 41 %tmp3 = load <8 x i8>* %C 42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 52 %tmp3 = load <4 x i16>* %C 53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) [all …]
|
D | vpadal.ll | 8 %tmp3 = call <4 x i16> @llvm.arm.neon.vpadals.v4i16.v8i8(<4 x i16> %tmp1, <8 x i8> %tmp2) 9 ret <4 x i16> %tmp3 17 %tmp3 = call <2 x i32> @llvm.arm.neon.vpadals.v2i32.v4i16(<2 x i32> %tmp1, <4 x i16> %tmp2) 18 ret <2 x i32> %tmp3 26 %tmp3 = call <1 x i64> @llvm.arm.neon.vpadals.v1i64.v2i32(<1 x i64> %tmp1, <2 x i32> %tmp2) 27 ret <1 x i64> %tmp3 35 %tmp3 = call <4 x i16> @llvm.arm.neon.vpadalu.v4i16.v8i8(<4 x i16> %tmp1, <8 x i8> %tmp2) 36 ret <4 x i16> %tmp3 44 %tmp3 = call <2 x i32> @llvm.arm.neon.vpadalu.v2i32.v4i16(<2 x i32> %tmp1, <4 x i16> %tmp2) 45 ret <2 x i32> %tmp3 [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | bt.ll | 25 %tmp3 = and i32 %tmp29, 1 ; <i32> [#uses=1] 26 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 40 %tmp3 = and i32 1, %tmp29 41 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 55 %tmp3 = and i32 %tmp29, 1 ; <i32> [#uses=1] 56 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 70 %tmp3 = and i32 1, %tmp29 71 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 85 %tmp3 = and i32 %tmp29, %x ; <i32> [#uses=1] 86 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] [all …]
|
D | 2010-04-23-mmx-movdq2q.ll | 8 %tmp3 = add <8 x i8> %tmp1, %tmp2 10 store <8 x i8> %tmp3, <8 x i8>* null 18 %tmp3 = add <4 x i16> %tmp1, %tmp2 20 store <4 x i16> %tmp3, <4 x i16>* null 28 %tmp3 = add <2 x i32> %tmp1, %tmp2 30 store <2 x i32> %tmp3, <2 x i32>* null 39 %tmp3 = add <1 x i64> %tmp1, %tmp2 41 store <1 x i64> %tmp3, <1 x i64>* null 53 %tmp3 = tail call x86_mmx @llvm.x86.mmx.padd.b(x86_mmx %tmp1, x86_mmx %tmp2) 54 store x86_mmx %tmp3, x86_mmx* null [all …]
|
/external/llvm/test/Transforms/InstCombine/ |
D | bitcast-vector-fold.ll | 6 %tmp3 = bitcast <4 x i32> < i32 0, i32 1, i32 2, i32 3 > to <2 x i64> 7 ret <2 x i64> %tmp3 11 %tmp3 = bitcast <2 x i64> < i64 0, i64 1 > to <4 x i32> 12 ret <4 x i32> %tmp3 16 %tmp3 = bitcast <4 x i32> < i32 0, i32 1, i32 2, i32 3 > to <2 x double> 17 ret <2 x double> %tmp3 21 %tmp3 = bitcast <2 x i64> < i64 0, i64 1 > to <4 x float> 22 ret <4 x float> %tmp3 26 %tmp3 = bitcast <4 x float> <float 0.0, float 1.0, float 2.0, float 3.0> to <2 x i64> 27 ret <2 x i64> %tmp3 [all …]
|
/external/jpeg/ |
D | jidctint.c | 152 INT32 tmp0, tmp1, tmp2, tmp3; variable 211 tmp3 = z1 + MULTIPLY(z2, FIX_0_765366865); 219 tmp10 = tmp0 + tmp3; 220 tmp13 = tmp0 - tmp3; 231 tmp3 = DEQUANTIZE(inptr[DCTSIZE*1], quantptr[DCTSIZE*1]); 233 z1 = tmp0 + tmp3; 236 z4 = tmp1 + tmp3; 242 tmp3 = MULTIPLY(tmp3, FIX_1_501321110); /* sqrt(2) * ( c1+c3-c5-c7) */ 254 tmp3 += z1 + z4; 258 wsptr[DCTSIZE*0] = (int) DESCALE(tmp10 + tmp3, CONST_BITS-PASS1_BITS); [all …]
|
/external/llvm/test/CodeGen/SystemZ/ |
D | 05-MemRegLoads.ll | 17 %tmp3 = load i64* %add.ptr2 ; <i64> [#uses=1] 18 ret i64 %tmp3 25 %tmp3 = load i32* %add.ptr2 ; <i32> [#uses=1] 26 ret i32 %tmp3 33 %tmp3 = load i16* %add.ptr2 ; <i16> [#uses=1] 34 ret i16 %tmp3 41 %tmp3 = load i8* %add.ptr2 ; <i8> [#uses=1] 42 ret i8 %tmp3 49 %tmp3 = load i64* %add.ptr2 ; <i64> [#uses=1] 50 ret i64 %tmp3 [all …]
|
/external/openssl/crypto/bf/asm/ |
D | bf-586.pl | 17 $tmp3="ecx"; 51 &xor( $tmp3, $tmp3); 58 &BF_ENCRYPT($i+1,$R,$L,$P,$tmp1,$tmp2,$tmp3,$tmp4,1); 62 &BF_ENCRYPT($i+2,$L,$R,$P,$tmp1,$tmp2,$tmp3,$tmp4,1); 70 &xor( $tmp3, $tmp3); 77 &BF_ENCRYPT($i,$R,$L,$P,$tmp1,$tmp2,$tmp3,$tmp4,0); 80 &BF_ENCRYPT($i-1,$L,$R,$P,$tmp1,$tmp2,$tmp3,$tmp4,0); 95 local($i,$L,$R,$P,$tmp1,$tmp2,$tmp3,$tmp4,$enc)=@_; 108 &movb( &LB($tmp3), &HB($tmp4)); # C 115 &mov( $tmp1, &DWP(&n2a($BF_OFF+0x0800),$P,$tmp3,4));
|