Lines Matching refs:isPPC64
66 bool isPPC64 = Subtarget.isPPC64();
67 setMinStackArgumentAlignment(isPPC64 ? 8:4);
103 if (isPPC64 || Subtarget.hasFPCVT()) {
106 isPPC64 ? MVT::i64 : MVT::i32);
109 isPPC64 ? MVT::i64 : MVT::i32);
306 if (isPPC64) {
325 if (Subtarget.isSVR4ABI() && !isPPC64)
370 if (Subtarget.hasLFIWAX() || Subtarget.isPPC64())
818 setOperationAction(ISD::READCYCLECOUNTER, MVT::i64, isPPC64 ? Legal : Custom);
820 if (!isPPC64) {
832 if (!isPPC64) {
839 setStackPointerRegisterToSaveRestore(isPPC64 ? PPC::X1 : PPC::R1);
981 unsigned Align = Subtarget.isPPC64() ? 8 : 4;
1806 Base = DAG.getRegister(Subtarget.isPPC64() ? PPC::ZERO8 : PPC::ZERO,
1858 Base = DAG.getRegister(Subtarget.isPPC64() ? PPC::ZERO8 : PPC::ZERO,
2034 if (Subtarget.isSVR4ABI() && Subtarget.isPPC64()) {
2063 if (Subtarget.isSVR4ABI() && Subtarget.isPPC64()) {
2092 if (Subtarget.isSVR4ABI() && Subtarget.isPPC64()) {
2120 bool is64bit = Subtarget.isPPC64();
2205 if (Subtarget.isSVR4ABI() && Subtarget.isPPC64()) {
2311 assert(!Subtarget.isPPC64() && "LowerVAARG is PPC32 only");
2411 assert(!Subtarget.isPPC64() && "LowerVACOPY is PPC32 only");
2435 bool isPPC64 = (PtrVT == MVT::i64);
2444 // TrampSize == (isPPC64 ? 48 : 40);
2445 Entry.Node = DAG.getConstant(isPPC64 ? 48 : 40, dl,
2446 isPPC64 ? MVT::i64 : MVT::i32);
2470 if (Subtarget.isDarwinABI() || Subtarget.isPPC64()) {
2774 if (Subtarget.isPPC64())
3473 bool isPPC64 = PtrVT == MVT::i64;
3477 unsigned PtrByteSize = isPPC64 ? 8 : 4;
3502 const MCPhysReg *GPR = isPPC64 ? GPR_64 : GPR_32;
3512 if (!isVarArg && !isPPC64) {
3536 // FIXME: We are guaranteed to be !isPPC64 at this point.
3578 if (isVarArg || isPPC64) {
3610 if (isPPC64)
3633 if (isPPC64)
3658 if (!isPPC64) {
3701 if (ObjSize == 8 && GPR_idx != Num_GPR_Regs && !isPPC64)
3719 ArgOffset += isPPC64 ? 8 : ObjSize;
3741 if (!isVarArg && !isPPC64) {
3803 if (isPPC64)
3934 bool isPPC64,
3939 int SlotSize = isPPC64 ? 8 : 4;
3945 EVT VT = isPPC64 ? MVT::i64 : MVT::i32;
3971 CalculateTailCallArgDest(SelectionDAG &DAG, MachineFunction &MF, bool isPPC64,
3977 EVT VT = isPPC64 ? MVT::i64 : MVT::i32;
3998 EVT VT = Subtarget.isPPC64() ? MVT::i64 : MVT::i32;
4037 unsigned ArgOffset, bool isPPC64, bool isTailCall,
4045 if (isPPC64)
4055 } else CalculateTailCallArgDest(DAG, MF, isPPC64, Arg, SPDiff, ArgOffset,
4061 SDLoc dl, bool isPPC64, int SPDiff, unsigned NumBytes,
4078 isPPC64, isDarwinABI, dl);
4108 bool isPPC64 = Subtarget.isPPC64();
4119 if (!isSVR4ABI || !isPPC64)
4135 (Subtarget.isTargetELF() && !isPPC64 &&
4158 (Subtarget.isTargetELF() && !isPPC64 &&
4186 if (isSVR4ABI && isPPC64 && !isELFv2ABI) {
4271 if (isSVR4ABI && isPPC64 && !isELFv2ABI && !hasNest)
4275 Ops.push_back(DAG.getRegister(isPPC64 ? PPC::CTR8 : PPC::CTR, PtrVT));
4295 if (isSVR4ABI && isPPC64 && !IsPatchPoint) {
4377 if (isVarArg && Subtarget.isSVR4ABI() && !Subtarget.isPPC64())
4419 if (!isTailCall && Subtarget.isSVR4ABI()&& Subtarget.isPPC64() &&
4487 if (Subtarget.isPPC64())
5388 bool isPPC64 = PtrVT == MVT::i64;
5389 unsigned PtrByteSize = isPPC64 ? 8 : 4;
5422 if (!isVarArg && !isPPC64) {
5477 if (isPPC64)
5505 const MCPhysReg *GPR = isPPC64 ? GPR_64 : GPR_32;
5524 if (isPPC64 && Arg.getValueType() == MVT::i32) {
5598 isPPC64, isTailCall, false, MemOpChains,
5621 if (GPR_idx != NumGPRs && Arg.getValueType() == MVT::f64 && !isPPC64){
5637 !isPPC64) // PPC64 has 64-bit GPR's obviously :)
5642 isPPC64, isTailCall, false, MemOpChains,
5644 if (isPPC64)
5700 isPPC64, isTailCall, true, MemOpChains,
5726 isPPC64, isTailCall, true, MemOpChains,
5744 RegsToPass.push_back(std::make_pair((unsigned)(isPPC64 ? PPC::X12 :
5757 PrepareTailCall(DAG, InFlag, Chain, dl, isPPC64, SPDiff, NumBytes, LROp,
5851 bool isPPC64 = Subtarget.isPPC64();
5852 unsigned SP = isPPC64 ? PPC::X1 : PPC::R1;
5874 bool isPPC64 = Subtarget.isPPC64();
5887 RASI = MF.getFrameInfo()->CreateFixedObject(isPPC64? 8 : 4, LROffset, false);
5897 bool isPPC64 = Subtarget.isPPC64();
5910 FPSI = MF.getFrameInfo()->CreateFixedObject(isPPC64? 8 : 4, FPOffset, true);
6212 if (Subtarget.hasDirectMove() && Subtarget.isPPC64())
6362 if (Subtarget.hasDirectMove() && Subtarget.isPPC64() && Subtarget.hasFPCVT())
6545 assert(Subtarget.isPPC64() &&
8045 if (!Subtarget.isSVR4ABI() || Subtarget.isPPC64())
8220 bool is64bit = Subtarget.isPPC64();
8412 if (Subtarget.isPPC64() && Subtarget.isSVR4ABI()) {
8425 BaseReg = Subtarget.isPPC64() ? PPC::X1 : PPC::R1;
8427 BaseReg = Subtarget.isPPC64() ? PPC::BP8 : PPC::BP;
8430 TII->get(Subtarget.isPPC64() ? PPC::STD : PPC::STW))
8454 TII->get(Subtarget.isPPC64() ? PPC::MFLR8 : PPC::MFLR), LabelReg);
8457 if (Subtarget.isPPC64()) {
8598 if (Subtarget.isPPC64() && Subtarget.isSVR4ABI() &&
8936 bool is64bit = Subtarget.isPPC64();
9745 (N->getOperand(0).getValueType() == MVT::i32 && Subtarget.isPPC64())))
10239 (Subtarget.hasLDBRX() && Subtarget.isPPC64() &&
10515 (Subtarget.hasLDBRX() && Subtarget.isPPC64() &&
10724 if (VT == MVT::i64 && !Subtarget.isPPC64())
10924 if (VT == MVT::i64 && Subtarget.isPPC64())
10928 if (VT == MVT::i64 && Subtarget.isPPC64())
10973 if (R.first && VT == MVT::i64 && Subtarget.isPPC64() &&
11119 bool isPPC64 = Subtarget.isPPC64();
11126 isPPC64 ? MVT::i64 : MVT::i32);
11148 bool isPPC64 = PtrVT == MVT::i64;
11154 FrameReg = isPPC64 ? PPC::X1 : PPC::R1;
11156 FrameReg = isPPC64 ? PPC::FP8 : PPC::FP;
11171 bool isPPC64 = Subtarget.isPPC64();
11174 if ((isPPC64 && VT != MVT::i64 && VT != MVT::i32) ||
11175 (!isPPC64 && VT != MVT::i32))
11178 bool is64Bit = isPPC64 && VT == MVT::i64;
11181 .Case("r2", (isDarwinABI || isPPC64) ? 0 : PPC::R2)
11182 .Case("r13", (!isPPC64 && isDarwinABI) ? 0 :
11423 if (Subtarget.isPPC64()) {
11464 (Subtarget.isPPC64() && MemVT == MVT::i32)) &&
11558 return Subtarget.isPPC64() ? PPC::X3 : PPC::R3;
11563 return Subtarget.isPPC64() ? PPC::X4 : PPC::R4;