/external/llvm/test/CodeGen/AArch64/ |
D | arm64-neon-compare-instructions.ll | 5 %tmp3 = icmp eq <8 x i8> %A, %B; 6 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 12 %tmp3 = icmp eq <16 x i8> %A, %B; 13 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 19 %tmp3 = icmp eq <4 x i16> %A, %B; 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 26 %tmp3 = icmp eq <8 x i16> %A, %B; 27 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 33 %tmp3 = icmp eq <2 x i32> %A, %B; 34 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> [all …]
|
D | arm64-cvt.ll | 10 %tmp3 = call i32 @llvm.aarch64.neon.fcvtas.i32.f32(float %A) 11 ret i32 %tmp3 18 %tmp3 = call i64 @llvm.aarch64.neon.fcvtas.i64.f32(float %A) 19 ret i64 %tmp3 26 %tmp3 = call i32 @llvm.aarch64.neon.fcvtas.i32.f64(double %A) 27 ret i32 %tmp3 34 %tmp3 = call i64 @llvm.aarch64.neon.fcvtas.i64.f64(double %A) 35 ret i64 %tmp3 50 %tmp3 = call i32 @llvm.aarch64.neon.fcvtau.i32.f32(float %A) 51 ret i32 %tmp3 [all …]
|
D | neon-compare-instructions.ll | 6 %tmp3 = icmp eq <8 x i8> %A, %B; 7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 14 %tmp3 = icmp eq <16 x i8> %A, %B; 15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 22 %tmp3 = icmp eq <4 x i16> %A, %B; 23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 30 %tmp3 = icmp eq <8 x i16> %A, %B; 31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 38 %tmp3 = icmp eq <2 x i32> %A, %B; 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> [all …]
|
D | arm64-vcvt.ll | 8 %tmp3 = call <2 x i32> @llvm.aarch64.neon.fcvtas.v2i32.v2f32(<2 x float> %A) 9 ret <2 x i32> %tmp3 17 %tmp3 = call <4 x i32> @llvm.aarch64.neon.fcvtas.v4i32.v4f32(<4 x float> %A) 18 ret <4 x i32> %tmp3 26 %tmp3 = call <2 x i64> @llvm.aarch64.neon.fcvtas.v2i64.v2f64(<2 x double> %A) 27 ret <2 x i64> %tmp3 39 %tmp3 = call <2 x i32> @llvm.aarch64.neon.fcvtau.v2i32.v2f32(<2 x float> %A) 40 ret <2 x i32> %tmp3 48 %tmp3 = call <4 x i32> @llvm.aarch64.neon.fcvtau.v4i32.v4f32(<4 x float> %A) 49 ret <4 x i32> %tmp3 [all …]
|
D | arm64-vmovn.ll | 8 %tmp3 = trunc <8 x i16> %A to <8 x i8> 9 ret <8 x i8> %tmp3 17 %tmp3 = trunc <4 x i32> %A to <4 x i16> 18 ret <4 x i16> %tmp3 26 %tmp3 = trunc <2 x i64> %A to <2 x i32> 27 ret <2 x i32> %tmp3 35 %tmp3 = trunc <8 x i16> %A to <8 x i8> 36 …%res = shufflevector <8 x i8> %ret, <8 x i8> %tmp3, <16 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4,… 45 %tmp3 = trunc <4 x i32> %A to <4 x i16> 46 …%res = shufflevector <4 x i16> %ret, <4 x i16> %tmp3, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4… [all …]
|
D | arm64-vshift.ll | 8 %tmp3 = call <8 x i8> @llvm.aarch64.neon.sqshl.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.aarch64.neon.sqshl.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.aarch64.neon.sqshl.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <8 x i8> @llvm.aarch64.neon.uqshl.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 36 ret <8 x i8> %tmp3 44 %tmp3 = call <4 x i16> @llvm.aarch64.neon.uqshl.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 45 ret <4 x i16> %tmp3 [all …]
|
D | arm64-neon-mul-div.ll | 7 %tmp3 = mul <8 x i8> %A, %B; 8 ret <8 x i8> %tmp3 14 %tmp3 = mul <16 x i8> %A, %B; 15 ret <16 x i8> %tmp3 21 %tmp3 = mul <4 x i16> %A, %B; 22 ret <4 x i16> %tmp3 28 %tmp3 = mul <8 x i16> %A, %B; 29 ret <8 x i16> %tmp3 35 %tmp3 = mul <2 x i32> %A, %B; 36 ret <2 x i32> %tmp3 [all …]
|
D | arm64-vsqrt.ll | 8 %tmp3 = call <2 x float> @llvm.aarch64.neon.frecps.v2f32(<2 x float> %tmp1, <2 x float> %tmp2) 9 ret <2 x float> %tmp3 17 %tmp3 = call <4 x float> @llvm.aarch64.neon.frecps.v4f32(<4 x float> %tmp1, <4 x float> %tmp2) 18 ret <4 x float> %tmp3 26 %tmp3 = call <2 x double> @llvm.aarch64.neon.frecps.v2f64(<2 x double> %tmp1, <2 x double> %tmp2) 27 ret <2 x double> %tmp3 40 %tmp3 = call <2 x float> @llvm.aarch64.neon.frsqrts.v2f32(<2 x float> %tmp1, <2 x float> %tmp2) 41 ret <2 x float> %tmp3 49 %tmp3 = call <4 x float> @llvm.aarch64.neon.frsqrts.v4f32(<4 x float> %tmp1, <4 x float> %tmp2) 50 ret <4 x float> %tmp3 [all …]
|
D | arm64-neon-add-sub.ll | 5 %tmp3 = add <8 x i8> %A, %B; 6 ret <8 x i8> %tmp3 11 %tmp3 = add <16 x i8> %A, %B; 12 ret <16 x i8> %tmp3 17 %tmp3 = add <4 x i16> %A, %B; 18 ret <4 x i16> %tmp3 23 %tmp3 = add <8 x i16> %A, %B; 24 ret <8 x i16> %tmp3 29 %tmp3 = add <2 x i32> %A, %B; 30 ret <2 x i32> %tmp3 [all …]
|
D | arm64-vmax.ll | 8 %tmp3 = call <8 x i8> @llvm.aarch64.neon.smax.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <16 x i8> @llvm.aarch64.neon.smax.v16i8(<16 x i8> %tmp1, <16 x i8> %tmp2) 18 ret <16 x i8> %tmp3 26 %tmp3 = call <4 x i16> @llvm.aarch64.neon.smax.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 27 ret <4 x i16> %tmp3 35 %tmp3 = call <8 x i16> @llvm.aarch64.neon.smax.v8i16(<8 x i16> %tmp1, <8 x i16> %tmp2) 36 ret <8 x i16> %tmp3 44 %tmp3 = call <2 x i32> @llvm.aarch64.neon.smax.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 45 ret <2 x i32> %tmp3 [all …]
|
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | vbits.ll | 8 %tmp3 = and <8 x i8> %tmp1, %tmp2 9 ret <8 x i8> %tmp3 17 %tmp3 = and <4 x i16> %tmp1, %tmp2 18 ret <4 x i16> %tmp3 26 %tmp3 = and <2 x i32> %tmp1, %tmp2 27 ret <2 x i32> %tmp3 35 %tmp3 = and <1 x i64> %tmp1, %tmp2 36 ret <1 x i64> %tmp3 44 %tmp3 = and <16 x i8> %tmp1, %tmp2 45 ret <16 x i8> %tmp3 [all …]
|
D | vsub.ll | 8 %tmp3 = sub <8 x i8> %tmp1, %tmp2 9 ret <8 x i8> %tmp3 17 %tmp3 = sub <4 x i16> %tmp1, %tmp2 18 ret <4 x i16> %tmp3 26 %tmp3 = sub <2 x i32> %tmp1, %tmp2 27 ret <2 x i32> %tmp3 35 %tmp3 = sub <1 x i64> %tmp1, %tmp2 36 ret <1 x i64> %tmp3 44 %tmp3 = fsub <2 x float> %tmp1, %tmp2 45 ret <2 x float> %tmp3 [all …]
|
D | vadd.ll | 8 %tmp3 = add <8 x i8> %tmp1, %tmp2 9 ret <8 x i8> %tmp3 17 %tmp3 = add <4 x i16> %tmp1, %tmp2 18 ret <4 x i16> %tmp3 26 %tmp3 = add <2 x i32> %tmp1, %tmp2 27 ret <2 x i32> %tmp3 35 %tmp3 = add <1 x i64> %tmp1, %tmp2 36 ret <1 x i64> %tmp3 44 %tmp3 = fadd <2 x float> %tmp1, %tmp2 45 ret <2 x float> %tmp3 [all …]
|
D | vcgt.ll | 9 %tmp3 = icmp sgt <8 x i8> %tmp1, %tmp2 10 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 19 %tmp3 = icmp sgt <4 x i16> %tmp1, %tmp2 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 29 %tmp3 = icmp sgt <2 x i32> %tmp1, %tmp2 30 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 39 %tmp3 = icmp ugt <8 x i8> %tmp1, %tmp2 40 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 49 %tmp3 = icmp ugt <4 x i16> %tmp1, %tmp2 50 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> [all …]
|
D | vsra.ll | 8 %tmp3 = ashr <8 x i8> %tmp2, < i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8 > 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 18 %tmp3 = ashr <4 x i16> %tmp2, < i16 16, i16 16, i16 16, i16 16 > 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 28 %tmp3 = ashr <2 x i32> %tmp2, < i32 32, i32 32 > 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 38 %tmp3 = ashr <1 x i64> %tmp2, < i64 64 > 39 %tmp4 = add <1 x i64> %tmp1, %tmp3 48 …%tmp3 = ashr <16 x i8> %tmp2, < i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, i8 8, … 49 %tmp4 = add <16 x i8> %tmp1, %tmp3 [all …]
|
D | vminmax.ll | 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vmins.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vmins.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vmins.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <8 x i8> @llvm.arm.neon.vminu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 36 ret <8 x i8> %tmp3 44 %tmp3 = call <4 x i16> @llvm.arm.neon.vminu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 45 ret <4 x i16> %tmp3 [all …]
|
D | vhadd.ll | 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vhadds.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vhadds.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vhadds.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <8 x i8> @llvm.arm.neon.vhaddu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 36 ret <8 x i8> %tmp3 44 %tmp3 = call <4 x i16> @llvm.arm.neon.vhaddu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 45 ret <4 x i16> %tmp3 [all …]
|
D | vabd.ll | 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 9 ret <8 x i8> %tmp3 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 18 ret <4 x i16> %tmp3 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 27 ret <2 x i32> %tmp3 35 %tmp3 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 36 ret <8 x i8> %tmp3 44 %tmp3 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 45 ret <4 x i16> %tmp3 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | vbits.ll | 8 %tmp3 = and <8 x i8> %tmp1, %tmp2 9 ret <8 x i8> %tmp3 17 %tmp3 = and <4 x i16> %tmp1, %tmp2 18 ret <4 x i16> %tmp3 26 %tmp3 = and <2 x i32> %tmp1, %tmp2 27 ret <2 x i32> %tmp3 35 %tmp3 = and <1 x i64> %tmp1, %tmp2 36 ret <1 x i64> %tmp3 44 %tmp3 = and <16 x i8> %tmp1, %tmp2 45 ret <16 x i8> %tmp3 [all …]
|
D | vsub.ll | 8 %tmp3 = sub <8 x i8> %tmp1, %tmp2 9 ret <8 x i8> %tmp3 17 %tmp3 = sub <4 x i16> %tmp1, %tmp2 18 ret <4 x i16> %tmp3 26 %tmp3 = sub <2 x i32> %tmp1, %tmp2 27 ret <2 x i32> %tmp3 35 %tmp3 = sub <1 x i64> %tmp1, %tmp2 36 ret <1 x i64> %tmp3 44 %tmp3 = fsub <2 x float> %tmp1, %tmp2 45 ret <2 x float> %tmp3 [all …]
|
D | vadd.ll | 8 %tmp3 = add <8 x i8> %tmp1, %tmp2 9 ret <8 x i8> %tmp3 17 %tmp3 = add <4 x i16> %tmp1, %tmp2 18 ret <4 x i16> %tmp3 26 %tmp3 = add <2 x i32> %tmp1, %tmp2 27 ret <2 x i32> %tmp3 35 %tmp3 = add <1 x i64> %tmp1, %tmp2 36 ret <1 x i64> %tmp3 44 %tmp3 = fadd <2 x float> %tmp1, %tmp2 45 ret <2 x float> %tmp3 [all …]
|
D | vcgt.ll | 9 %tmp3 = icmp sgt <8 x i8> %tmp1, %tmp2 10 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 19 %tmp3 = icmp sgt <4 x i16> %tmp1, %tmp2 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 29 %tmp3 = icmp sgt <2 x i32> %tmp1, %tmp2 30 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 39 %tmp3 = icmp ugt <8 x i8> %tmp1, %tmp2 40 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 49 %tmp3 = icmp ugt <4 x i16> %tmp1, %tmp2 50 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> [all …]
|
/external/webrtc/webrtc/modules/audio_coding/codecs/isac/fix/source/ |
D | lpc_masking_model_mips.c | 36 int32_t tmp2, tmp3; in WebRtcIsacfix_CalculateResidualEnergyMIPS() local 55 : [tmp2] "=&r" (tmp2), [tmp3] "=&r" (tmp3), [tmp32] "=&r" (tmp32), in WebRtcIsacfix_CalculateResidualEnergyMIPS() 71 : [tmp2] "r" (tmp2), [tmp3] "r" (tmp3) in WebRtcIsacfix_CalculateResidualEnergyMIPS() 89 : [tmp2] "+r" (tmp2), [tmp3] "+r" (tmp3), in WebRtcIsacfix_CalculateResidualEnergyMIPS() 103 : [tmp2] "r" (tmp2), [tmp3] "r" (tmp3) in WebRtcIsacfix_CalculateResidualEnergyMIPS() 119 int32_t tmp2, tmp3; in WebRtcIsacfix_CalculateResidualEnergyMIPS() local 141 : [tmp2] "=&r" (tmp2), [tmp3] "=&r" (tmp3), [tmp32] "=&r" (tmp32), in WebRtcIsacfix_CalculateResidualEnergyMIPS() 156 : [tmp2] "+r" (tmp2), [tmp3] "+r" (tmp3), [sum64_hi] "+r" (sum64_hi), in WebRtcIsacfix_CalculateResidualEnergyMIPS() 177 : [tmp2] "+r" (tmp2), [tmp3] "+r" (tmp3), in WebRtcIsacfix_CalculateResidualEnergyMIPS() 190 : [tmp2] "+r" (tmp2), [tmp3] "+r" (tmp3), in WebRtcIsacfix_CalculateResidualEnergyMIPS()
|
/external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
D | bt.ll | 25 %tmp3 = and i32 %tmp29, 1 ; <i32> [#uses=1] 26 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 40 %tmp3 = and i32 1, %tmp29 41 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 55 %tmp3 = and i32 %tmp29, 1 ; <i32> [#uses=1] 56 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 70 %tmp3 = and i32 1, %tmp29 71 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 85 %tmp3 = and i32 %tmp29, %x ; <i32> [#uses=1] 86 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] [all …]
|
/external/llvm/test/Transforms/InstCombine/ |
D | bitcast-vector-fold.ll | 6 %tmp3 = bitcast <4 x i32> < i32 0, i32 1, i32 2, i32 3 > to <2 x i64> 7 ret <2 x i64> %tmp3 11 %tmp3 = bitcast <2 x i64> < i64 0, i64 1 > to <4 x i32> 12 ret <4 x i32> %tmp3 16 %tmp3 = bitcast <4 x i32> < i32 0, i32 1, i32 2, i32 3 > to <2 x double> 17 ret <2 x double> %tmp3 21 %tmp3 = bitcast <2 x i64> < i64 0, i64 1 > to <4 x float> 22 ret <4 x float> %tmp3 26 %tmp3 = bitcast <4 x float> <float 0.0, float 1.0, float 2.0, float 3.0> to <2 x i64> 27 ret <2 x i64> %tmp3 [all …]
|