1 // SPDX-License-Identifier: GPL-2.0
2 /*
3 * PCIe host controller driver for Intel Gateway SoCs
4 *
5 * Copyright (c) 2019 Intel Corporation.
6 */
7
8 #include <linux/bitfield.h>
9 #include <linux/clk.h>
10 #include <linux/gpio/consumer.h>
11 #include <linux/iopoll.h>
12 #include <linux/pci_regs.h>
13 #include <linux/phy/phy.h>
14 #include <linux/platform_device.h>
15 #include <linux/reset.h>
16
17 #include "../../pci.h"
18 #include "pcie-designware.h"
19
20 #define PORT_AFR_N_FTS_GEN12_DFT (SZ_128 - 1)
21 #define PORT_AFR_N_FTS_GEN3 180
22 #define PORT_AFR_N_FTS_GEN4 196
23
24 /* PCIe Application logic Registers */
25 #define PCIE_APP_CCR 0x10
26 #define PCIE_APP_CCR_LTSSM_ENABLE BIT(0)
27
28 #define PCIE_APP_MSG_CR 0x30
29 #define PCIE_APP_MSG_XMT_PM_TURNOFF BIT(0)
30
31 #define PCIE_APP_PMC 0x44
32 #define PCIE_APP_PMC_IN_L2 BIT(20)
33
34 #define PCIE_APP_IRNEN 0xF4
35 #define PCIE_APP_IRNCR 0xF8
36 #define PCIE_APP_IRN_AER_REPORT BIT(0)
37 #define PCIE_APP_IRN_PME BIT(2)
38 #define PCIE_APP_IRN_RX_VDM_MSG BIT(4)
39 #define PCIE_APP_IRN_PM_TO_ACK BIT(9)
40 #define PCIE_APP_IRN_LINK_AUTO_BW_STAT BIT(11)
41 #define PCIE_APP_IRN_BW_MGT BIT(12)
42 #define PCIE_APP_IRN_INTA BIT(13)
43 #define PCIE_APP_IRN_INTB BIT(14)
44 #define PCIE_APP_IRN_INTC BIT(15)
45 #define PCIE_APP_IRN_INTD BIT(16)
46 #define PCIE_APP_IRN_MSG_LTR BIT(18)
47 #define PCIE_APP_IRN_SYS_ERR_RC BIT(29)
48 #define PCIE_APP_INTX_OFST 12
49
50 #define PCIE_APP_IRN_INT \
51 (PCIE_APP_IRN_AER_REPORT | PCIE_APP_IRN_PME | \
52 PCIE_APP_IRN_RX_VDM_MSG | PCIE_APP_IRN_SYS_ERR_RC | \
53 PCIE_APP_IRN_PM_TO_ACK | PCIE_APP_IRN_MSG_LTR | \
54 PCIE_APP_IRN_BW_MGT | PCIE_APP_IRN_LINK_AUTO_BW_STAT | \
55 PCIE_APP_IRN_INTA | PCIE_APP_IRN_INTB | \
56 PCIE_APP_IRN_INTC | PCIE_APP_IRN_INTD)
57
58 #define BUS_IATU_OFFSET SZ_256M
59 #define RESET_INTERVAL_MS 100
60
61 struct intel_pcie_soc {
62 unsigned int pcie_ver;
63 };
64
65 struct intel_pcie_port {
66 struct dw_pcie pci;
67 void __iomem *app_base;
68 struct gpio_desc *reset_gpio;
69 u32 rst_intrvl;
70 struct clk *core_clk;
71 struct reset_control *core_rst;
72 struct phy *phy;
73 };
74
pcie_update_bits(void __iomem * base,u32 ofs,u32 mask,u32 val)75 static void pcie_update_bits(void __iomem *base, u32 ofs, u32 mask, u32 val)
76 {
77 u32 old;
78
79 old = readl(base + ofs);
80 val = (old & ~mask) | (val & mask);
81
82 if (val != old)
83 writel(val, base + ofs);
84 }
85
pcie_app_wr(struct intel_pcie_port * lpp,u32 ofs,u32 val)86 static inline void pcie_app_wr(struct intel_pcie_port *lpp, u32 ofs, u32 val)
87 {
88 writel(val, lpp->app_base + ofs);
89 }
90
pcie_app_wr_mask(struct intel_pcie_port * lpp,u32 ofs,u32 mask,u32 val)91 static void pcie_app_wr_mask(struct intel_pcie_port *lpp, u32 ofs,
92 u32 mask, u32 val)
93 {
94 pcie_update_bits(lpp->app_base, ofs, mask, val);
95 }
96
pcie_rc_cfg_rd(struct intel_pcie_port * lpp,u32 ofs)97 static inline u32 pcie_rc_cfg_rd(struct intel_pcie_port *lpp, u32 ofs)
98 {
99 return dw_pcie_readl_dbi(&lpp->pci, ofs);
100 }
101
pcie_rc_cfg_wr(struct intel_pcie_port * lpp,u32 ofs,u32 val)102 static inline void pcie_rc_cfg_wr(struct intel_pcie_port *lpp, u32 ofs, u32 val)
103 {
104 dw_pcie_writel_dbi(&lpp->pci, ofs, val);
105 }
106
pcie_rc_cfg_wr_mask(struct intel_pcie_port * lpp,u32 ofs,u32 mask,u32 val)107 static void pcie_rc_cfg_wr_mask(struct intel_pcie_port *lpp, u32 ofs,
108 u32 mask, u32 val)
109 {
110 pcie_update_bits(lpp->pci.dbi_base, ofs, mask, val);
111 }
112
intel_pcie_ltssm_enable(struct intel_pcie_port * lpp)113 static void intel_pcie_ltssm_enable(struct intel_pcie_port *lpp)
114 {
115 pcie_app_wr_mask(lpp, PCIE_APP_CCR, PCIE_APP_CCR_LTSSM_ENABLE,
116 PCIE_APP_CCR_LTSSM_ENABLE);
117 }
118
intel_pcie_ltssm_disable(struct intel_pcie_port * lpp)119 static void intel_pcie_ltssm_disable(struct intel_pcie_port *lpp)
120 {
121 pcie_app_wr_mask(lpp, PCIE_APP_CCR, PCIE_APP_CCR_LTSSM_ENABLE, 0);
122 }
123
intel_pcie_link_setup(struct intel_pcie_port * lpp)124 static void intel_pcie_link_setup(struct intel_pcie_port *lpp)
125 {
126 u32 val;
127 u8 offset = dw_pcie_find_capability(&lpp->pci, PCI_CAP_ID_EXP);
128
129 val = pcie_rc_cfg_rd(lpp, offset + PCI_EXP_LNKCTL);
130
131 val &= ~(PCI_EXP_LNKCTL_LD | PCI_EXP_LNKCTL_ASPMC);
132 pcie_rc_cfg_wr(lpp, offset + PCI_EXP_LNKCTL, val);
133 }
134
intel_pcie_init_n_fts(struct dw_pcie * pci)135 static void intel_pcie_init_n_fts(struct dw_pcie *pci)
136 {
137 switch (pci->link_gen) {
138 case 3:
139 pci->n_fts[1] = PORT_AFR_N_FTS_GEN3;
140 break;
141 case 4:
142 pci->n_fts[1] = PORT_AFR_N_FTS_GEN4;
143 break;
144 default:
145 pci->n_fts[1] = PORT_AFR_N_FTS_GEN12_DFT;
146 break;
147 }
148 pci->n_fts[0] = PORT_AFR_N_FTS_GEN12_DFT;
149 }
150
intel_pcie_ep_rst_init(struct intel_pcie_port * lpp)151 static int intel_pcie_ep_rst_init(struct intel_pcie_port *lpp)
152 {
153 struct device *dev = lpp->pci.dev;
154 int ret;
155
156 lpp->reset_gpio = devm_gpiod_get(dev, "reset", GPIOD_OUT_LOW);
157 if (IS_ERR(lpp->reset_gpio)) {
158 ret = PTR_ERR(lpp->reset_gpio);
159 if (ret != -EPROBE_DEFER)
160 dev_err(dev, "Failed to request PCIe GPIO: %d\n", ret);
161 return ret;
162 }
163
164 /* Make initial reset last for 100us */
165 usleep_range(100, 200);
166
167 return 0;
168 }
169
intel_pcie_core_rst_assert(struct intel_pcie_port * lpp)170 static void intel_pcie_core_rst_assert(struct intel_pcie_port *lpp)
171 {
172 reset_control_assert(lpp->core_rst);
173 }
174
intel_pcie_core_rst_deassert(struct intel_pcie_port * lpp)175 static void intel_pcie_core_rst_deassert(struct intel_pcie_port *lpp)
176 {
177 /*
178 * One micro-second delay to make sure the reset pulse
179 * wide enough so that core reset is clean.
180 */
181 udelay(1);
182 reset_control_deassert(lpp->core_rst);
183
184 /*
185 * Some SoC core reset also reset PHY, more delay needed
186 * to make sure the reset process is done.
187 */
188 usleep_range(1000, 2000);
189 }
190
intel_pcie_device_rst_assert(struct intel_pcie_port * lpp)191 static void intel_pcie_device_rst_assert(struct intel_pcie_port *lpp)
192 {
193 gpiod_set_value_cansleep(lpp->reset_gpio, 1);
194 }
195
intel_pcie_device_rst_deassert(struct intel_pcie_port * lpp)196 static void intel_pcie_device_rst_deassert(struct intel_pcie_port *lpp)
197 {
198 msleep(lpp->rst_intrvl);
199 gpiod_set_value_cansleep(lpp->reset_gpio, 0);
200 }
201
intel_pcie_core_irq_disable(struct intel_pcie_port * lpp)202 static void intel_pcie_core_irq_disable(struct intel_pcie_port *lpp)
203 {
204 pcie_app_wr(lpp, PCIE_APP_IRNEN, 0);
205 pcie_app_wr(lpp, PCIE_APP_IRNCR, PCIE_APP_IRN_INT);
206 }
207
intel_pcie_get_resources(struct platform_device * pdev)208 static int intel_pcie_get_resources(struct platform_device *pdev)
209 {
210 struct intel_pcie_port *lpp = platform_get_drvdata(pdev);
211 struct dw_pcie *pci = &lpp->pci;
212 struct device *dev = pci->dev;
213 int ret;
214
215 lpp->core_clk = devm_clk_get(dev, NULL);
216 if (IS_ERR(lpp->core_clk)) {
217 ret = PTR_ERR(lpp->core_clk);
218 if (ret != -EPROBE_DEFER)
219 dev_err(dev, "Failed to get clks: %d\n", ret);
220 return ret;
221 }
222
223 lpp->core_rst = devm_reset_control_get(dev, NULL);
224 if (IS_ERR(lpp->core_rst)) {
225 ret = PTR_ERR(lpp->core_rst);
226 if (ret != -EPROBE_DEFER)
227 dev_err(dev, "Failed to get resets: %d\n", ret);
228 return ret;
229 }
230
231 ret = device_property_read_u32(dev, "reset-assert-ms",
232 &lpp->rst_intrvl);
233 if (ret)
234 lpp->rst_intrvl = RESET_INTERVAL_MS;
235
236 lpp->app_base = devm_platform_ioremap_resource_byname(pdev, "app");
237 if (IS_ERR(lpp->app_base))
238 return PTR_ERR(lpp->app_base);
239
240 lpp->phy = devm_phy_get(dev, "pcie");
241 if (IS_ERR(lpp->phy)) {
242 ret = PTR_ERR(lpp->phy);
243 if (ret != -EPROBE_DEFER)
244 dev_err(dev, "Couldn't get pcie-phy: %d\n", ret);
245 return ret;
246 }
247
248 return 0;
249 }
250
intel_pcie_wait_l2(struct intel_pcie_port * lpp)251 static int intel_pcie_wait_l2(struct intel_pcie_port *lpp)
252 {
253 u32 value;
254 int ret;
255 struct dw_pcie *pci = &lpp->pci;
256
257 if (pci->link_gen < 3)
258 return 0;
259
260 /* Send PME_TURN_OFF message */
261 pcie_app_wr_mask(lpp, PCIE_APP_MSG_CR, PCIE_APP_MSG_XMT_PM_TURNOFF,
262 PCIE_APP_MSG_XMT_PM_TURNOFF);
263
264 /* Read PMC status and wait for falling into L2 link state */
265 ret = readl_poll_timeout(lpp->app_base + PCIE_APP_PMC, value,
266 value & PCIE_APP_PMC_IN_L2, 20,
267 jiffies_to_usecs(5 * HZ));
268 if (ret)
269 dev_err(lpp->pci.dev, "PCIe link enter L2 timeout!\n");
270
271 return ret;
272 }
273
intel_pcie_turn_off(struct intel_pcie_port * lpp)274 static void intel_pcie_turn_off(struct intel_pcie_port *lpp)
275 {
276 if (dw_pcie_link_up(&lpp->pci))
277 intel_pcie_wait_l2(lpp);
278
279 /* Put endpoint device in reset state */
280 intel_pcie_device_rst_assert(lpp);
281 pcie_rc_cfg_wr_mask(lpp, PCI_COMMAND, PCI_COMMAND_MEMORY, 0);
282 }
283
intel_pcie_host_setup(struct intel_pcie_port * lpp)284 static int intel_pcie_host_setup(struct intel_pcie_port *lpp)
285 {
286 int ret;
287 struct dw_pcie *pci = &lpp->pci;
288
289 intel_pcie_core_rst_assert(lpp);
290 intel_pcie_device_rst_assert(lpp);
291
292 ret = phy_init(lpp->phy);
293 if (ret)
294 return ret;
295
296 intel_pcie_core_rst_deassert(lpp);
297
298 ret = clk_prepare_enable(lpp->core_clk);
299 if (ret) {
300 dev_err(lpp->pci.dev, "Core clock enable failed: %d\n", ret);
301 goto clk_err;
302 }
303
304 pci->atu_base = pci->dbi_base + 0xC0000;
305
306 intel_pcie_ltssm_disable(lpp);
307 intel_pcie_link_setup(lpp);
308 intel_pcie_init_n_fts(pci);
309 dw_pcie_setup_rc(&pci->pp);
310 dw_pcie_upconfig_setup(pci);
311
312 intel_pcie_device_rst_deassert(lpp);
313 intel_pcie_ltssm_enable(lpp);
314
315 ret = dw_pcie_wait_for_link(pci);
316 if (ret)
317 goto app_init_err;
318
319 /* Enable integrated interrupts */
320 pcie_app_wr_mask(lpp, PCIE_APP_IRNEN, PCIE_APP_IRN_INT,
321 PCIE_APP_IRN_INT);
322
323 return 0;
324
325 app_init_err:
326 clk_disable_unprepare(lpp->core_clk);
327 clk_err:
328 intel_pcie_core_rst_assert(lpp);
329 phy_exit(lpp->phy);
330
331 return ret;
332 }
333
__intel_pcie_remove(struct intel_pcie_port * lpp)334 static void __intel_pcie_remove(struct intel_pcie_port *lpp)
335 {
336 intel_pcie_core_irq_disable(lpp);
337 intel_pcie_turn_off(lpp);
338 clk_disable_unprepare(lpp->core_clk);
339 intel_pcie_core_rst_assert(lpp);
340 phy_exit(lpp->phy);
341 }
342
intel_pcie_remove(struct platform_device * pdev)343 static int intel_pcie_remove(struct platform_device *pdev)
344 {
345 struct intel_pcie_port *lpp = platform_get_drvdata(pdev);
346 struct pcie_port *pp = &lpp->pci.pp;
347
348 dw_pcie_host_deinit(pp);
349 __intel_pcie_remove(lpp);
350
351 return 0;
352 }
353
intel_pcie_suspend_noirq(struct device * dev)354 static int __maybe_unused intel_pcie_suspend_noirq(struct device *dev)
355 {
356 struct intel_pcie_port *lpp = dev_get_drvdata(dev);
357 int ret;
358
359 intel_pcie_core_irq_disable(lpp);
360 ret = intel_pcie_wait_l2(lpp);
361 if (ret)
362 return ret;
363
364 phy_exit(lpp->phy);
365 clk_disable_unprepare(lpp->core_clk);
366 return ret;
367 }
368
intel_pcie_resume_noirq(struct device * dev)369 static int __maybe_unused intel_pcie_resume_noirq(struct device *dev)
370 {
371 struct intel_pcie_port *lpp = dev_get_drvdata(dev);
372
373 return intel_pcie_host_setup(lpp);
374 }
375
intel_pcie_rc_init(struct pcie_port * pp)376 static int intel_pcie_rc_init(struct pcie_port *pp)
377 {
378 struct dw_pcie *pci = to_dw_pcie_from_pp(pp);
379 struct intel_pcie_port *lpp = dev_get_drvdata(pci->dev);
380
381 return intel_pcie_host_setup(lpp);
382 }
383
intel_pcie_cpu_addr(struct dw_pcie * pcie,u64 cpu_addr)384 static u64 intel_pcie_cpu_addr(struct dw_pcie *pcie, u64 cpu_addr)
385 {
386 return cpu_addr + BUS_IATU_OFFSET;
387 }
388
389 static const struct dw_pcie_ops intel_pcie_ops = {
390 .cpu_addr_fixup = intel_pcie_cpu_addr,
391 };
392
393 static const struct dw_pcie_host_ops intel_pcie_dw_ops = {
394 .host_init = intel_pcie_rc_init,
395 };
396
397 static const struct intel_pcie_soc pcie_data = {
398 .pcie_ver = 0x520A,
399 };
400
intel_pcie_probe(struct platform_device * pdev)401 static int intel_pcie_probe(struct platform_device *pdev)
402 {
403 const struct intel_pcie_soc *data;
404 struct device *dev = &pdev->dev;
405 struct intel_pcie_port *lpp;
406 struct pcie_port *pp;
407 struct dw_pcie *pci;
408 int ret;
409
410 lpp = devm_kzalloc(dev, sizeof(*lpp), GFP_KERNEL);
411 if (!lpp)
412 return -ENOMEM;
413
414 platform_set_drvdata(pdev, lpp);
415 pci = &lpp->pci;
416 pci->dev = dev;
417 pp = &pci->pp;
418
419 ret = intel_pcie_get_resources(pdev);
420 if (ret)
421 return ret;
422
423 ret = intel_pcie_ep_rst_init(lpp);
424 if (ret)
425 return ret;
426
427 data = device_get_match_data(dev);
428 if (!data)
429 return -ENODEV;
430
431 pci->ops = &intel_pcie_ops;
432 pci->version = data->pcie_ver;
433 pp->ops = &intel_pcie_dw_ops;
434
435 ret = dw_pcie_host_init(pp);
436 if (ret) {
437 dev_err(dev, "Cannot initialize host\n");
438 return ret;
439 }
440
441 return 0;
442 }
443
444 static const struct dev_pm_ops intel_pcie_pm_ops = {
445 SET_NOIRQ_SYSTEM_SLEEP_PM_OPS(intel_pcie_suspend_noirq,
446 intel_pcie_resume_noirq)
447 };
448
449 static const struct of_device_id of_intel_pcie_match[] = {
450 { .compatible = "intel,lgm-pcie", .data = &pcie_data },
451 {}
452 };
453
454 static struct platform_driver intel_pcie_driver = {
455 .probe = intel_pcie_probe,
456 .remove = intel_pcie_remove,
457 .driver = {
458 .name = "intel-gw-pcie",
459 .of_match_table = of_intel_pcie_match,
460 .pm = &intel_pcie_pm_ops,
461 },
462 };
463 builtin_platform_driver(intel_pcie_driver);
464