Lines Matching refs:is128BitVector
113 assert(VT.is128BitVector() && "Unexpected vector size!"); in Insert128BitVector()
929 if (!VT.is128BitVector()) in X86TargetLowering()
953 if (!VT.is128BitVector()) in X86TargetLowering()
1230 if (VT.is128BitVector()) in X86TargetLowering()
2008 else if (RegVT.is128BitVector()) in LowerFormalArguments()
2387 if (RegVT.is128BitVector()) { in LowerCall()
3403 if ((VT.is128BitVector() && !Subtarget->hasSSSE3()) || in isPALIGNRMask()
3545 if (!VT.is128BitVector()) in isMOVHLPSMask()
3564 if (!VT.is128BitVector()) in isMOVHLPS_v_undef_Mask()
3581 if (!VT.is128BitVector()) in isMOVLPMask()
3603 if (!VT.is128BitVector()) in isMOVLHPSMask()
3675 assert((VT.is128BitVector() || VT.is256BitVector()) && in isUNPCKLMask()
3714 assert((VT.is128BitVector() || VT.is256BitVector()) && in isUNPCKHMask()
3752 assert((VT.is128BitVector() || VT.is256BitVector()) && in isUNPCKL_v_undef_Mask()
3794 assert((VT.is128BitVector() || VT.is256BitVector()) && in isUNPCKH_v_undef_Mask()
3826 if (!VT.is128BitVector()) in isMOVLMask()
3940 if (!VT.is128BitVector()) in isCommutedMOVLMask()
3969 if ((VT.is128BitVector() && NumElems != 4) || in isMOVSHDUPMask()
3992 if ((VT.is128BitVector() && NumElems != 4) || in isMOVSLDUPMask()
4029 if (!VT.is128BitVector()) in isMOVDDUPMask()
4084 assert((VT.is128BitVector() || VT.is256BitVector()) && in getShuffleSHUFImmediate()
4273 if (!VT.is128BitVector()) in ShouldXformToMOVHLPS()
4330 if (!VT.is128BitVector()) in ShouldXformToMOVLP()
4403 if (VT.is128BitVector()) { // SSE in getZeroVector()
4447 } else if (VT.is128BitVector()) { in getOnesVector()
4527 if (VT.is128BitVector()) { in getLegalSplat()
4558 assert(((SrcVT.is128BitVector() && NumElems > 4) || Is256BitVec) && in PromoteSplat()
4871 if (!SVOp->getValueType(0).is128BitVector()) in isVectorShift()
4966 assert(VT.is128BitVector() && "Unknown type for VShift"); in getVShift()
5149 assert((VT.is128BitVector() || VT.is256BitVector()) && in LowerVectorBroadcast()
5452 assert(VT.is128BitVector() && "Expected an SSE value type!"); in LowerBUILD_VECTOR()
5465 assert(VT.is128BitVector() && "Expected an SSE value type!"); in LowerBUILD_VECTOR()
5606 if (Values.size() > 1 && VT.is128BitVector()) { in LowerBUILD_VECTOR()
6384 assert(VT.is128BitVector() && "Unsupported vector size"); in LowerVECTOR_SHUFFLE_128v4()
7085 if (NumElems == 4 && VT.is128BitVector()) in LowerVECTOR_SHUFFLE()
7099 if (!Op.getOperand(0).getValueType().getSimpleVT().is128BitVector()) in LowerEXTRACT_VECTOR_ELT_SSE4()
7183 assert(VecVT.is128BitVector() && "Unexpected vector length"); in LowerEXTRACT_VECTOR_ELT()
7257 if (!VT.is128BitVector()) in LowerINSERT_VECTOR_ELT_SSE4()
7356 if (!OpVT.is128BitVector()) { in LowerSCALAR_TO_VECTOR()
7373 assert(OpVT.is128BitVector() && "Expected an SSE type!"); in LowerSCALAR_TO_VECTOR()
7388 if (Op.getNode()->getValueType(0).is128BitVector() && in LowerEXTRACT_SUBVECTOR()
7410 SubVec.getNode()->getValueType(0).is128BitVector() && in LowerINSERT_SUBVECTOR()
8422 if (!VT.is256BitVector() || !SVT.is128BitVector() || in LowerZERO_EXTEND()
8537 if (!VT.is128BitVector() || !SVT.is256BitVector()) in LowerTRUNCATE()
8640 MVT ANDVT = VT.is128BitVector() ? MVT::v2i64 : MVT::v4i64; in LowerFABS()
8674 MVT XORVT = VT.is128BitVector() ? MVT::v2i64 : MVT::v4i64; in LowerFNEG()
8824 if (!VT.is128BitVector() && !VT.is256BitVector()) in LowerVectorAllZeroTest()
8835 assert((VT.is128BitVector() || VT.is256BitVector()) && in LowerVectorAllZeroTest()
8849 EVT TestVT = VT.is128BitVector() ? MVT::v2i64 : MVT::v4i64; in LowerVectorAllZeroTest()
12712 if (NumElts == 4 && VT.is128BitVector()) { in isVectorClearMaskLegal()
14891 if (!VT.is128BitVector()) in PerformShuffleCombine()
16167 if (!NarrowVT.is128BitVector()) in WidenMaskArithmetic()
16982 assert((VT.is128BitVector() || VT.is256BitVector()) && in isHorizontalBinOp()