• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1 /* SPDX-License-Identifier: GPL-2.0 */
2 /*
3  * Synopsys DesignWare PCIe host controller driver
4  *
5  * Copyright (C) 2013 Samsung Electronics Co., Ltd.
6  *		https://www.samsung.com
7  *
8  * Author: Jingoo Han <jg1.han@samsung.com>
9  */
10 
11 #ifndef _PCIE_DESIGNWARE_H
12 #define _PCIE_DESIGNWARE_H
13 
14 #include <linux/bitfield.h>
15 #include <linux/bitops.h>
16 #include <linux/clk.h>
17 #include <linux/dma-mapping.h>
18 #include <linux/dma/edma.h>
19 #include <linux/gpio/consumer.h>
20 #include <linux/irq.h>
21 #include <linux/msi.h>
22 #include <linux/pci.h>
23 #include <linux/reset.h>
24 
25 #include <linux/pci-epc.h>
26 #include <linux/pci-epf.h>
27 
28 /* DWC PCIe IP-core versions (native support since v4.70a) */
29 #define DW_PCIE_VER_365A		0x3336352a
30 #define DW_PCIE_VER_460A		0x3436302a
31 #define DW_PCIE_VER_470A		0x3437302a
32 #define DW_PCIE_VER_480A		0x3438302a
33 #define DW_PCIE_VER_490A		0x3439302a
34 #define DW_PCIE_VER_520A		0x3532302a
35 #define DW_PCIE_VER_540A		0x3534302a
36 
37 #define __dw_pcie_ver_cmp(_pci, _ver, _op) \
38 	((_pci)->version _op DW_PCIE_VER_ ## _ver)
39 
40 #define dw_pcie_ver_is(_pci, _ver) __dw_pcie_ver_cmp(_pci, _ver, ==)
41 
42 #define dw_pcie_ver_is_ge(_pci, _ver) __dw_pcie_ver_cmp(_pci, _ver, >=)
43 
44 #define dw_pcie_ver_type_is(_pci, _ver, _type) \
45 	(__dw_pcie_ver_cmp(_pci, _ver, ==) && \
46 	 __dw_pcie_ver_cmp(_pci, TYPE_ ## _type, ==))
47 
48 #define dw_pcie_ver_type_is_ge(_pci, _ver, _type) \
49 	(__dw_pcie_ver_cmp(_pci, _ver, ==) && \
50 	 __dw_pcie_ver_cmp(_pci, TYPE_ ## _type, >=))
51 
52 /* DWC PCIe controller capabilities */
53 #define DW_PCIE_CAP_REQ_RES		0
54 #define DW_PCIE_CAP_IATU_UNROLL		1
55 #define DW_PCIE_CAP_CDM_CHECK		2
56 
57 #define dw_pcie_cap_is(_pci, _cap) \
58 	test_bit(DW_PCIE_CAP_ ## _cap, &(_pci)->caps)
59 
60 #define dw_pcie_cap_set(_pci, _cap) \
61 	set_bit(DW_PCIE_CAP_ ## _cap, &(_pci)->caps)
62 
63 /* Parameters for the waiting for link up routine */
64 #define LINK_WAIT_MAX_RETRIES		10
65 #define LINK_WAIT_SLEEP_MS		90
66 
67 /* Parameters for the waiting for iATU enabled routine */
68 #define LINK_WAIT_MAX_IATU_RETRIES	5
69 #define LINK_WAIT_IATU			9
70 
71 /* Synopsys-specific PCIe configuration registers */
72 #define PCIE_PORT_FORCE			0x708
73 #define PORT_FORCE_DO_DESKEW_FOR_SRIS	BIT(23)
74 
75 #define PCIE_PORT_AFR			0x70C
76 #define PORT_AFR_N_FTS_MASK		GENMASK(15, 8)
77 #define PORT_AFR_N_FTS(n)		FIELD_PREP(PORT_AFR_N_FTS_MASK, n)
78 #define PORT_AFR_CC_N_FTS_MASK		GENMASK(23, 16)
79 #define PORT_AFR_CC_N_FTS(n)		FIELD_PREP(PORT_AFR_CC_N_FTS_MASK, n)
80 #define PORT_AFR_ENTER_ASPM		BIT(30)
81 #define PORT_AFR_L0S_ENTRANCE_LAT_SHIFT	24
82 #define PORT_AFR_L0S_ENTRANCE_LAT_MASK	GENMASK(26, 24)
83 #define PORT_AFR_L1_ENTRANCE_LAT_SHIFT	27
84 #define PORT_AFR_L1_ENTRANCE_LAT_MASK	GENMASK(29, 27)
85 
86 #define PCIE_PORT_LINK_CONTROL		0x710
87 #define PORT_LINK_DLL_LINK_EN		BIT(5)
88 #define PORT_LINK_FAST_LINK_MODE	BIT(7)
89 #define PORT_LINK_MODE_MASK		GENMASK(21, 16)
90 #define PORT_LINK_MODE(n)		FIELD_PREP(PORT_LINK_MODE_MASK, n)
91 #define PORT_LINK_MODE_1_LANES		PORT_LINK_MODE(0x1)
92 #define PORT_LINK_MODE_2_LANES		PORT_LINK_MODE(0x3)
93 #define PORT_LINK_MODE_4_LANES		PORT_LINK_MODE(0x7)
94 #define PORT_LINK_MODE_8_LANES		PORT_LINK_MODE(0xf)
95 
96 #define PCIE_PORT_LANE_SKEW		0x714
97 #define PORT_LANE_SKEW_INSERT_MASK	GENMASK(23, 0)
98 
99 #define PCIE_PORT_DEBUG0		0x728
100 #define PORT_LOGIC_LTSSM_STATE_MASK	0x1f
101 #define PORT_LOGIC_LTSSM_STATE_L0	0x11
102 #define PCIE_PORT_DEBUG1		0x72C
103 #define PCIE_PORT_DEBUG1_LINK_UP		BIT(4)
104 #define PCIE_PORT_DEBUG1_LINK_IN_TRAINING	BIT(29)
105 
106 #define PCIE_LINK_WIDTH_SPEED_CONTROL	0x80C
107 #define PORT_LOGIC_N_FTS_MASK		GENMASK(7, 0)
108 #define PORT_LOGIC_SPEED_CHANGE		BIT(17)
109 #define PORT_LOGIC_LINK_WIDTH_MASK	GENMASK(12, 8)
110 #define PORT_LOGIC_LINK_WIDTH(n)	FIELD_PREP(PORT_LOGIC_LINK_WIDTH_MASK, n)
111 #define PORT_LOGIC_LINK_WIDTH_1_LANES	PORT_LOGIC_LINK_WIDTH(0x1)
112 #define PORT_LOGIC_LINK_WIDTH_2_LANES	PORT_LOGIC_LINK_WIDTH(0x2)
113 #define PORT_LOGIC_LINK_WIDTH_4_LANES	PORT_LOGIC_LINK_WIDTH(0x4)
114 #define PORT_LOGIC_LINK_WIDTH_8_LANES	PORT_LOGIC_LINK_WIDTH(0x8)
115 
116 #define PCIE_MSI_ADDR_LO		0x820
117 #define PCIE_MSI_ADDR_HI		0x824
118 #define PCIE_MSI_INTR0_ENABLE		0x828
119 #define PCIE_MSI_INTR0_MASK		0x82C
120 #define PCIE_MSI_INTR0_STATUS		0x830
121 
122 #define GEN3_RELATED_OFF			0x890
123 #define GEN3_RELATED_OFF_GEN3_ZRXDC_NONCOMPL	BIT(0)
124 #define GEN3_RELATED_OFF_RXEQ_RGRDLESS_RXTS	BIT(13)
125 #define GEN3_RELATED_OFF_GEN3_EQ_DISABLE	BIT(16)
126 #define GEN3_RELATED_OFF_RATE_SHADOW_SEL_SHIFT	24
127 #define GEN3_RELATED_OFF_RATE_SHADOW_SEL_MASK	GENMASK(25, 24)
128 #define GEN3_RELATED_OFF_RATE_SHADOW_SEL_16_0GT	0x1
129 
130 #define GEN3_EQ_CONTROL_OFF			0x8A8
131 #define GEN3_EQ_CONTROL_OFF_FB_MODE		GENMASK(3, 0)
132 #define GEN3_EQ_CONTROL_OFF_PHASE23_EXIT_MODE	BIT(4)
133 #define GEN3_EQ_CONTROL_OFF_PSET_REQ_VEC	GENMASK(23, 8)
134 #define GEN3_EQ_CONTROL_OFF_FOM_INC_INITIAL_EVAL	BIT(24)
135 
136 #define GEN3_EQ_FB_MODE_DIR_CHANGE_OFF		0x8AC
137 #define GEN3_EQ_FMDC_T_MIN_PHASE23		GENMASK(4, 0)
138 #define GEN3_EQ_FMDC_N_EVALS			GENMASK(9, 5)
139 #define GEN3_EQ_FMDC_MAX_PRE_CUSROR_DELTA	GENMASK(13, 10)
140 #define GEN3_EQ_FMDC_MAX_POST_CUSROR_DELTA	GENMASK(17, 14)
141 
142 #define PCIE_PORT_MULTI_LANE_CTRL	0x8C0
143 #define PORT_MLTI_UPCFG_SUPPORT		BIT(7)
144 
145 #define PCIE_VERSION_NUMBER		0x8F8
146 #define PCIE_VERSION_TYPE		0x8FC
147 
148 /*
149  * iATU inbound and outbound windows CSRs. Before the IP-core v4.80a each
150  * iATU region CSRs had been indirectly accessible by means of the dedicated
151  * viewport selector. The iATU/eDMA CSRs space was re-designed in DWC PCIe
152  * v4.80a in a way so the viewport was unrolled into the directly accessible
153  * iATU/eDMA CSRs space.
154  */
155 #define PCIE_ATU_VIEWPORT		0x900
156 #define PCIE_ATU_REGION_DIR_IB		BIT(31)
157 #define PCIE_ATU_REGION_DIR_OB		0
158 #define PCIE_ATU_VIEWPORT_BASE		0x904
159 #define PCIE_ATU_UNROLL_BASE(dir, index) \
160 	(((index) << 9) | ((dir == PCIE_ATU_REGION_DIR_IB) ? BIT(8) : 0))
161 #define PCIE_ATU_VIEWPORT_SIZE		0x2C
162 #define PCIE_ATU_REGION_CTRL1		0x000
163 #define PCIE_ATU_INCREASE_REGION_SIZE	BIT(13)
164 #define PCIE_ATU_TYPE_MEM		0x0
165 #define PCIE_ATU_TYPE_IO		0x2
166 #define PCIE_ATU_TYPE_CFG0		0x4
167 #define PCIE_ATU_TYPE_CFG1		0x5
168 #define PCIE_ATU_TYPE_MSG		0x10
169 #define PCIE_ATU_TD			BIT(8)
170 #define PCIE_ATU_FUNC_NUM(pf)           ((pf) << 20)
171 #define PCIE_ATU_REGION_CTRL2		0x004
172 #define PCIE_ATU_ENABLE			BIT(31)
173 #define PCIE_ATU_BAR_MODE_ENABLE	BIT(30)
174 #define PCIE_ATU_INHIBIT_PAYLOAD	BIT(22)
175 #define PCIE_ATU_FUNC_NUM_MATCH_EN      BIT(19)
176 #define PCIE_ATU_LOWER_BASE		0x008
177 #define PCIE_ATU_UPPER_BASE		0x00C
178 #define PCIE_ATU_LIMIT			0x010
179 #define PCIE_ATU_LOWER_TARGET		0x014
180 #define PCIE_ATU_BUS(x)			FIELD_PREP(GENMASK(31, 24), x)
181 #define PCIE_ATU_DEV(x)			FIELD_PREP(GENMASK(23, 19), x)
182 #define PCIE_ATU_FUNC(x)		FIELD_PREP(GENMASK(18, 16), x)
183 #define PCIE_ATU_UPPER_TARGET		0x018
184 #define PCIE_ATU_UPPER_LIMIT		0x020
185 
186 #define PCIE_MISC_CONTROL_1_OFF		0x8BC
187 #define PCIE_DBI_RO_WR_EN		BIT(0)
188 
189 #define PCIE_MSIX_DOORBELL		0x948
190 #define PCIE_MSIX_DOORBELL_PF_SHIFT	24
191 
192 /*
193  * eDMA CSRs. DW PCIe IP-core v4.70a and older had the eDMA registers accessible
194  * over the Port Logic registers space. Afterwards the unrolled mapping was
195  * introduced so eDMA and iATU could be accessed via a dedicated registers
196  * space.
197  */
198 #define PCIE_DMA_VIEWPORT_BASE		0x970
199 #define PCIE_DMA_UNROLL_BASE		0x80000
200 #define PCIE_DMA_CTRL			0x008
201 #define PCIE_DMA_NUM_WR_CHAN		GENMASK(3, 0)
202 #define PCIE_DMA_NUM_RD_CHAN		GENMASK(19, 16)
203 
204 #define PCIE_PL_CHK_REG_CONTROL_STATUS			0xB20
205 #define PCIE_PL_CHK_REG_CHK_REG_START			BIT(0)
206 #define PCIE_PL_CHK_REG_CHK_REG_CONTINUOUS		BIT(1)
207 #define PCIE_PL_CHK_REG_CHK_REG_COMPARISON_ERROR	BIT(16)
208 #define PCIE_PL_CHK_REG_CHK_REG_LOGIC_ERROR		BIT(17)
209 #define PCIE_PL_CHK_REG_CHK_REG_COMPLETE		BIT(18)
210 
211 #define PCIE_PL_CHK_REG_ERR_ADDR			0xB28
212 
213 /*
214  * 16.0 GT/s (Gen 4) lane margining register definitions
215  */
216 #define GEN4_LANE_MARGINING_1_OFF		0xB80
217 #define MARGINING_MAX_VOLTAGE_OFFSET		GENMASK(29, 24)
218 #define MARGINING_NUM_VOLTAGE_STEPS		GENMASK(22, 16)
219 #define MARGINING_MAX_TIMING_OFFSET		GENMASK(13, 8)
220 #define MARGINING_NUM_TIMING_STEPS		GENMASK(5, 0)
221 
222 #define GEN4_LANE_MARGINING_2_OFF		0xB84
223 #define MARGINING_IND_ERROR_SAMPLER		BIT(28)
224 #define MARGINING_SAMPLE_REPORTING_METHOD	BIT(27)
225 #define MARGINING_IND_LEFT_RIGHT_TIMING		BIT(26)
226 #define MARGINING_IND_UP_DOWN_VOLTAGE		BIT(25)
227 #define MARGINING_VOLTAGE_SUPPORTED		BIT(24)
228 #define MARGINING_MAXLANES			GENMASK(20, 16)
229 #define MARGINING_SAMPLE_RATE_TIMING		GENMASK(13, 8)
230 #define MARGINING_SAMPLE_RATE_VOLTAGE		GENMASK(5, 0)
231 /*
232  * iATU Unroll-specific register definitions
233  * From 4.80 core version the address translation will be made by unroll
234  */
235 #define PCIE_ATU_UNR_REGION_CTRL1	0x00
236 #define PCIE_ATU_UNR_REGION_CTRL2	0x04
237 #define PCIE_ATU_UNR_LOWER_BASE		0x08
238 #define PCIE_ATU_UNR_UPPER_BASE		0x0C
239 #define PCIE_ATU_UNR_LOWER_LIMIT	0x10
240 #define PCIE_ATU_UNR_LOWER_TARGET	0x14
241 #define PCIE_ATU_UNR_UPPER_TARGET	0x18
242 #define PCIE_ATU_UNR_UPPER_LIMIT	0x20
243 
244 /*
245  * RAS-DES register definitions
246  */
247 #define PCIE_RAS_DES_EVENT_COUNTER_CONTROL	0x8
248 #define EVENT_COUNTER_ALL_CLEAR		0x3
249 #define EVENT_COUNTER_ENABLE_ALL	0x7
250 #define EVENT_COUNTER_ENABLE_SHIFT	2
251 #define EVENT_COUNTER_EVENT_SEL_MASK	GENMASK(7, 0)
252 #define EVENT_COUNTER_EVENT_SEL_SHIFT	16
253 #define EVENT_COUNTER_EVENT_Tx_L0S	0x2
254 #define EVENT_COUNTER_EVENT_Rx_L0S	0x3
255 #define EVENT_COUNTER_EVENT_L1		0x5
256 #define EVENT_COUNTER_EVENT_L1_1	0x7
257 #define EVENT_COUNTER_EVENT_L1_2	0x8
258 #define EVENT_COUNTER_GROUP_SEL_SHIFT	24
259 #define EVENT_COUNTER_GROUP_5		0x5
260 
261 #define PCIE_RAS_DES_EVENT_COUNTER_DATA		0xc
262 
263 /*
264  * The default address offset between dbi_base and atu_base. Root controller
265  * drivers are not required to initialize atu_base if the offset matches this
266  * default; the driver core automatically derives atu_base from dbi_base using
267  * this offset, if atu_base not set.
268  */
269 #define DEFAULT_DBI_ATU_OFFSET (0x3 << 20)
270 #define DEFAULT_DBI_DMA_OFFSET PCIE_DMA_UNROLL_BASE
271 
272 #define MAX_MSI_IRQS			256
273 #define MAX_MSI_IRQS_PER_CTRL		32
274 #define MAX_MSI_CTRLS			(MAX_MSI_IRQS / MAX_MSI_IRQS_PER_CTRL)
275 #define MSI_REG_CTRL_BLOCK_SIZE		12
276 #define MSI_DEF_NUM_VECTORS		32
277 
278 /* Maximum number of inbound/outbound iATUs */
279 #define MAX_IATU_IN			256
280 #define MAX_IATU_OUT			256
281 
282 /* Default eDMA LLP memory size */
283 #define DMA_LLP_MEM_SIZE		PAGE_SIZE
284 
285 struct dw_pcie;
286 struct dw_pcie_rp;
287 struct dw_pcie_ep;
288 
289 enum dw_pcie_device_mode {
290 	DW_PCIE_UNKNOWN_TYPE,
291 	DW_PCIE_EP_TYPE,
292 	DW_PCIE_LEG_EP_TYPE,
293 	DW_PCIE_RC_TYPE,
294 };
295 
296 enum dw_pcie_app_clk {
297 	DW_PCIE_DBI_CLK,
298 	DW_PCIE_MSTR_CLK,
299 	DW_PCIE_SLV_CLK,
300 	DW_PCIE_NUM_APP_CLKS
301 };
302 
303 enum dw_pcie_core_clk {
304 	DW_PCIE_PIPE_CLK,
305 	DW_PCIE_CORE_CLK,
306 	DW_PCIE_AUX_CLK,
307 	DW_PCIE_REF_CLK,
308 	DW_PCIE_NUM_CORE_CLKS
309 };
310 
311 enum dw_pcie_app_rst {
312 	DW_PCIE_DBI_RST,
313 	DW_PCIE_MSTR_RST,
314 	DW_PCIE_SLV_RST,
315 	DW_PCIE_NUM_APP_RSTS
316 };
317 
318 enum dw_pcie_core_rst {
319 	DW_PCIE_NON_STICKY_RST,
320 	DW_PCIE_STICKY_RST,
321 	DW_PCIE_CORE_RST,
322 	DW_PCIE_PIPE_RST,
323 	DW_PCIE_PHY_RST,
324 	DW_PCIE_HOT_RST,
325 	DW_PCIE_PWR_RST,
326 	DW_PCIE_NUM_CORE_RSTS
327 };
328 
329 enum dw_pcie_ltssm {
330 	/* Need to align with PCIE_PORT_DEBUG0 bits 0:5 */
331 	DW_PCIE_LTSSM_DETECT_QUIET = 0x0,
332 	DW_PCIE_LTSSM_DETECT_ACT = 0x1,
333 	DW_PCIE_LTSSM_L0 = 0x11,
334 	DW_PCIE_LTSSM_L2_IDLE = 0x15,
335 
336 	DW_PCIE_LTSSM_UNKNOWN = 0xFFFFFFFF,
337 };
338 
339 struct dw_pcie_ob_atu_cfg {
340 	int index;
341 	int type;
342 	u8 func_no;
343 	u8 code;
344 	u8 routing;
345 	u64 cpu_addr;
346 	u64 pci_addr;
347 	u64 size;
348 };
349 
350 struct dw_pcie_host_ops {
351 	int (*init)(struct dw_pcie_rp *pp);
352 	void (*deinit)(struct dw_pcie_rp *pp);
353 	void (*post_init)(struct dw_pcie_rp *pp);
354 	int (*msi_init)(struct dw_pcie_rp *pp);
355 	void (*pme_turn_off)(struct dw_pcie_rp *pp);
356 };
357 
358 struct dw_pcie_rp {
359 	bool			has_msi_ctrl:1;
360 	bool			cfg0_io_shared:1;
361 	u64			cfg0_base;
362 	void __iomem		*va_cfg0_base;
363 	u32			cfg0_size;
364 	resource_size_t		io_base;
365 	phys_addr_t		io_bus_addr;
366 	u32			io_size;
367 	int			irq;
368 	const struct dw_pcie_host_ops *ops;
369 	int			msi_irq[MAX_MSI_CTRLS];
370 	struct irq_domain	*irq_domain;
371 	struct irq_domain	*msi_domain;
372 	dma_addr_t		msi_data;
373 	struct irq_chip		*msi_irq_chip;
374 	u32			num_vectors;
375 	u32			irq_mask[MAX_MSI_CTRLS];
376 	struct pci_host_bridge  *bridge;
377 	raw_spinlock_t		lock;
378 	DECLARE_BITMAP(msi_irq_in_use, MAX_MSI_IRQS);
379 	bool			use_atu_msg;
380 	int			msg_atu_index;
381 	struct resource		*msg_res;
382 	bool			use_linkup_irq;
383 };
384 
385 struct dw_pcie_ep_ops {
386 	void	(*pre_init)(struct dw_pcie_ep *ep);
387 	void	(*init)(struct dw_pcie_ep *ep);
388 	int	(*raise_irq)(struct dw_pcie_ep *ep, u8 func_no,
389 			     unsigned int type, u16 interrupt_num);
390 	const struct pci_epc_features* (*get_features)(struct dw_pcie_ep *ep);
391 	/*
392 	 * Provide a method to implement the different func config space
393 	 * access for different platform, if different func have different
394 	 * offset, return the offset of func. if use write a register way
395 	 * return a 0, and implement code in callback function of platform
396 	 * driver.
397 	 */
398 	unsigned int (*get_dbi_offset)(struct dw_pcie_ep *ep, u8 func_no);
399 	unsigned int (*get_dbi2_offset)(struct dw_pcie_ep *ep, u8 func_no);
400 };
401 
402 struct dw_pcie_ep_func {
403 	struct list_head	list;
404 	u8			func_no;
405 	u8			msi_cap;	/* MSI capability offset */
406 	u8			msix_cap;	/* MSI-X capability offset */
407 };
408 
409 struct dw_pcie_ep {
410 	struct pci_epc		*epc;
411 	struct list_head	func_list;
412 	const struct dw_pcie_ep_ops *ops;
413 	phys_addr_t		phys_base;
414 	size_t			addr_size;
415 	size_t			page_size;
416 	u8			bar_to_atu[PCI_STD_NUM_BARS];
417 	phys_addr_t		*outbound_addr;
418 	unsigned long		*ib_window_map;
419 	unsigned long		*ob_window_map;
420 	void __iomem		*msi_mem;
421 	phys_addr_t		msi_mem_phys;
422 	struct pci_epf_bar	*epf_bar[PCI_STD_NUM_BARS];
423 };
424 
425 struct dw_pcie_ops {
426 	u64	(*cpu_addr_fixup)(struct dw_pcie *pcie, u64 cpu_addr);
427 	u32	(*read_dbi)(struct dw_pcie *pcie, void __iomem *base, u32 reg,
428 			    size_t size);
429 	void	(*write_dbi)(struct dw_pcie *pcie, void __iomem *base, u32 reg,
430 			     size_t size, u32 val);
431 	void    (*write_dbi2)(struct dw_pcie *pcie, void __iomem *base, u32 reg,
432 			      size_t size, u32 val);
433 	int	(*link_up)(struct dw_pcie *pcie);
434 	enum dw_pcie_ltssm (*get_ltssm)(struct dw_pcie *pcie);
435 	int	(*start_link)(struct dw_pcie *pcie);
436 	void	(*stop_link)(struct dw_pcie *pcie);
437 };
438 
439 struct dw_pcie {
440 	struct device		*dev;
441 	void __iomem		*dbi_base;
442 	resource_size_t		dbi_phys_addr;
443 	void __iomem		*dbi_base2;
444 	void __iomem		*atu_base;
445 	resource_size_t		atu_phys_addr;
446 	size_t			atu_size;
447 	u32			num_ib_windows;
448 	u32			num_ob_windows;
449 	u32			region_align;
450 	u64			region_limit;
451 	struct dw_pcie_rp	pp;
452 	struct dw_pcie_ep	ep;
453 	const struct dw_pcie_ops *ops;
454 	u32			version;
455 	u32			type;
456 	unsigned long		caps;
457 	int			num_lanes;
458 	int			max_link_speed;
459 	u8			n_fts[2];
460 	struct dw_edma_chip	edma;
461 	struct clk_bulk_data	app_clks[DW_PCIE_NUM_APP_CLKS];
462 	struct clk_bulk_data	core_clks[DW_PCIE_NUM_CORE_CLKS];
463 	struct reset_control_bulk_data	app_rsts[DW_PCIE_NUM_APP_RSTS];
464 	struct reset_control_bulk_data	core_rsts[DW_PCIE_NUM_CORE_RSTS];
465 	struct gpio_desc		*pe_rst;
466 	bool			suspended;
467 };
468 
469 #define to_dw_pcie_from_pp(port) container_of((port), struct dw_pcie, pp)
470 
471 #define to_dw_pcie_from_ep(endpoint)   \
472 		container_of((endpoint), struct dw_pcie, ep)
473 
474 int dw_pcie_get_resources(struct dw_pcie *pci);
475 
476 void dw_pcie_version_detect(struct dw_pcie *pci);
477 
478 u8 dw_pcie_find_capability(struct dw_pcie *pci, u8 cap);
479 u16 dw_pcie_find_ext_capability(struct dw_pcie *pci, u8 cap);
480 
481 int dw_pcie_read(void __iomem *addr, int size, u32 *val);
482 int dw_pcie_write(void __iomem *addr, int size, u32 val);
483 
484 u32 dw_pcie_read_dbi(struct dw_pcie *pci, u32 reg, size_t size);
485 void dw_pcie_write_dbi(struct dw_pcie *pci, u32 reg, size_t size, u32 val);
486 void dw_pcie_write_dbi2(struct dw_pcie *pci, u32 reg, size_t size, u32 val);
487 int dw_pcie_link_up(struct dw_pcie *pci);
488 void dw_pcie_upconfig_setup(struct dw_pcie *pci);
489 int dw_pcie_wait_for_link(struct dw_pcie *pci);
490 int dw_pcie_prog_outbound_atu(struct dw_pcie *pci,
491 			      const struct dw_pcie_ob_atu_cfg *atu);
492 int dw_pcie_prog_inbound_atu(struct dw_pcie *pci, int index, int type,
493 			     u64 cpu_addr, u64 pci_addr, u64 size);
494 int dw_pcie_prog_ep_inbound_atu(struct dw_pcie *pci, u8 func_no, int index,
495 				int type, u64 cpu_addr, u8 bar);
496 void dw_pcie_disable_atu(struct dw_pcie *pci, u32 dir, int index);
497 void dw_pcie_setup(struct dw_pcie *pci);
498 void dw_pcie_iatu_detect(struct dw_pcie *pci);
499 int dw_pcie_edma_detect(struct dw_pcie *pci);
500 void dw_pcie_edma_remove(struct dw_pcie *pci);
501 
502 int dw_pcie_suspend_noirq(struct dw_pcie *pci);
503 int dw_pcie_resume_noirq(struct dw_pcie *pci);
504 
dw_pcie_writel_dbi(struct dw_pcie * pci,u32 reg,u32 val)505 static inline void dw_pcie_writel_dbi(struct dw_pcie *pci, u32 reg, u32 val)
506 {
507 	dw_pcie_write_dbi(pci, reg, 0x4, val);
508 }
509 
dw_pcie_readl_dbi(struct dw_pcie * pci,u32 reg)510 static inline u32 dw_pcie_readl_dbi(struct dw_pcie *pci, u32 reg)
511 {
512 	return dw_pcie_read_dbi(pci, reg, 0x4);
513 }
514 
dw_pcie_writew_dbi(struct dw_pcie * pci,u32 reg,u16 val)515 static inline void dw_pcie_writew_dbi(struct dw_pcie *pci, u32 reg, u16 val)
516 {
517 	dw_pcie_write_dbi(pci, reg, 0x2, val);
518 }
519 
dw_pcie_readw_dbi(struct dw_pcie * pci,u32 reg)520 static inline u16 dw_pcie_readw_dbi(struct dw_pcie *pci, u32 reg)
521 {
522 	return dw_pcie_read_dbi(pci, reg, 0x2);
523 }
524 
dw_pcie_writeb_dbi(struct dw_pcie * pci,u32 reg,u8 val)525 static inline void dw_pcie_writeb_dbi(struct dw_pcie *pci, u32 reg, u8 val)
526 {
527 	dw_pcie_write_dbi(pci, reg, 0x1, val);
528 }
529 
dw_pcie_readb_dbi(struct dw_pcie * pci,u32 reg)530 static inline u8 dw_pcie_readb_dbi(struct dw_pcie *pci, u32 reg)
531 {
532 	return dw_pcie_read_dbi(pci, reg, 0x1);
533 }
534 
dw_pcie_writel_dbi2(struct dw_pcie * pci,u32 reg,u32 val)535 static inline void dw_pcie_writel_dbi2(struct dw_pcie *pci, u32 reg, u32 val)
536 {
537 	dw_pcie_write_dbi2(pci, reg, 0x4, val);
538 }
539 
dw_pcie_ep_get_dbi_offset(struct dw_pcie_ep * ep,u8 func_no)540 static inline unsigned int dw_pcie_ep_get_dbi_offset(struct dw_pcie_ep *ep,
541 						     u8 func_no)
542 {
543 	unsigned int dbi_offset = 0;
544 
545 	if (ep->ops->get_dbi_offset)
546 		dbi_offset = ep->ops->get_dbi_offset(ep, func_no);
547 
548 	return dbi_offset;
549 }
550 
dw_pcie_ep_read_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg,size_t size)551 static inline u32 dw_pcie_ep_read_dbi(struct dw_pcie_ep *ep, u8 func_no,
552 				      u32 reg, size_t size)
553 {
554 	unsigned int offset = dw_pcie_ep_get_dbi_offset(ep, func_no);
555 	struct dw_pcie *pci = to_dw_pcie_from_ep(ep);
556 
557 	return dw_pcie_read_dbi(pci, offset + reg, size);
558 }
559 
dw_pcie_ep_write_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg,size_t size,u32 val)560 static inline void dw_pcie_ep_write_dbi(struct dw_pcie_ep *ep, u8 func_no,
561 					u32 reg, size_t size, u32 val)
562 {
563 	unsigned int offset = dw_pcie_ep_get_dbi_offset(ep, func_no);
564 	struct dw_pcie *pci = to_dw_pcie_from_ep(ep);
565 
566 	dw_pcie_write_dbi(pci, offset + reg, size, val);
567 }
568 
dw_pcie_ep_writel_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg,u32 val)569 static inline void dw_pcie_ep_writel_dbi(struct dw_pcie_ep *ep, u8 func_no,
570 					 u32 reg, u32 val)
571 {
572 	dw_pcie_ep_write_dbi(ep, func_no, reg, 0x4, val);
573 }
574 
dw_pcie_ep_readl_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg)575 static inline u32 dw_pcie_ep_readl_dbi(struct dw_pcie_ep *ep, u8 func_no,
576 				       u32 reg)
577 {
578 	return dw_pcie_ep_read_dbi(ep, func_no, reg, 0x4);
579 }
580 
dw_pcie_ep_writew_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg,u16 val)581 static inline void dw_pcie_ep_writew_dbi(struct dw_pcie_ep *ep, u8 func_no,
582 					 u32 reg, u16 val)
583 {
584 	dw_pcie_ep_write_dbi(ep, func_no, reg, 0x2, val);
585 }
586 
dw_pcie_ep_readw_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg)587 static inline u16 dw_pcie_ep_readw_dbi(struct dw_pcie_ep *ep, u8 func_no,
588 				       u32 reg)
589 {
590 	return dw_pcie_ep_read_dbi(ep, func_no, reg, 0x2);
591 }
592 
dw_pcie_ep_writeb_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg,u8 val)593 static inline void dw_pcie_ep_writeb_dbi(struct dw_pcie_ep *ep, u8 func_no,
594 					 u32 reg, u8 val)
595 {
596 	dw_pcie_ep_write_dbi(ep, func_no, reg, 0x1, val);
597 }
598 
dw_pcie_ep_readb_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg)599 static inline u8 dw_pcie_ep_readb_dbi(struct dw_pcie_ep *ep, u8 func_no,
600 				      u32 reg)
601 {
602 	return dw_pcie_ep_read_dbi(ep, func_no, reg, 0x1);
603 }
604 
dw_pcie_ep_get_dbi2_offset(struct dw_pcie_ep * ep,u8 func_no)605 static inline unsigned int dw_pcie_ep_get_dbi2_offset(struct dw_pcie_ep *ep,
606 						      u8 func_no)
607 {
608 	unsigned int dbi2_offset = 0;
609 
610 	if (ep->ops->get_dbi2_offset)
611 		dbi2_offset = ep->ops->get_dbi2_offset(ep, func_no);
612 	else if (ep->ops->get_dbi_offset)     /* for backward compatibility */
613 		dbi2_offset = ep->ops->get_dbi_offset(ep, func_no);
614 
615 	return dbi2_offset;
616 }
617 
dw_pcie_ep_write_dbi2(struct dw_pcie_ep * ep,u8 func_no,u32 reg,size_t size,u32 val)618 static inline void dw_pcie_ep_write_dbi2(struct dw_pcie_ep *ep, u8 func_no,
619 					 u32 reg, size_t size, u32 val)
620 {
621 	unsigned int offset = dw_pcie_ep_get_dbi2_offset(ep, func_no);
622 	struct dw_pcie *pci = to_dw_pcie_from_ep(ep);
623 
624 	dw_pcie_write_dbi2(pci, offset + reg, size, val);
625 }
626 
dw_pcie_ep_writel_dbi2(struct dw_pcie_ep * ep,u8 func_no,u32 reg,u32 val)627 static inline void dw_pcie_ep_writel_dbi2(struct dw_pcie_ep *ep, u8 func_no,
628 					  u32 reg, u32 val)
629 {
630 	dw_pcie_ep_write_dbi2(ep, func_no, reg, 0x4, val);
631 }
632 
dw_pcie_dbi_ro_wr_en(struct dw_pcie * pci)633 static inline void dw_pcie_dbi_ro_wr_en(struct dw_pcie *pci)
634 {
635 	u32 reg;
636 	u32 val;
637 
638 	reg = PCIE_MISC_CONTROL_1_OFF;
639 	val = dw_pcie_readl_dbi(pci, reg);
640 	val |= PCIE_DBI_RO_WR_EN;
641 	dw_pcie_writel_dbi(pci, reg, val);
642 }
643 
dw_pcie_dbi_ro_wr_dis(struct dw_pcie * pci)644 static inline void dw_pcie_dbi_ro_wr_dis(struct dw_pcie *pci)
645 {
646 	u32 reg;
647 	u32 val;
648 
649 	reg = PCIE_MISC_CONTROL_1_OFF;
650 	val = dw_pcie_readl_dbi(pci, reg);
651 	val &= ~PCIE_DBI_RO_WR_EN;
652 	dw_pcie_writel_dbi(pci, reg, val);
653 }
654 
dw_pcie_start_link(struct dw_pcie * pci)655 static inline int dw_pcie_start_link(struct dw_pcie *pci)
656 {
657 	if (pci->ops && pci->ops->start_link)
658 		return pci->ops->start_link(pci);
659 
660 	return 0;
661 }
662 
dw_pcie_stop_link(struct dw_pcie * pci)663 static inline void dw_pcie_stop_link(struct dw_pcie *pci)
664 {
665 	if (pci->ops && pci->ops->stop_link)
666 		pci->ops->stop_link(pci);
667 }
668 
dw_pcie_get_ltssm(struct dw_pcie * pci)669 static inline enum dw_pcie_ltssm dw_pcie_get_ltssm(struct dw_pcie *pci)
670 {
671 	u32 val;
672 
673 	if (pci->ops && pci->ops->get_ltssm)
674 		return pci->ops->get_ltssm(pci);
675 
676 	val = dw_pcie_readl_dbi(pci, PCIE_PORT_DEBUG0);
677 
678 	return (enum dw_pcie_ltssm)FIELD_GET(PORT_LOGIC_LTSSM_STATE_MASK, val);
679 }
680 
681 #ifdef CONFIG_PCIE_DW_HOST
682 irqreturn_t dw_handle_msi_irq(struct dw_pcie_rp *pp);
683 int dw_pcie_setup_rc(struct dw_pcie_rp *pp);
684 int dw_pcie_host_init(struct dw_pcie_rp *pp);
685 void dw_pcie_host_deinit(struct dw_pcie_rp *pp);
686 int dw_pcie_allocate_domains(struct dw_pcie_rp *pp);
687 void __iomem *dw_pcie_own_conf_map_bus(struct pci_bus *bus, unsigned int devfn,
688 				       int where);
689 #else
dw_handle_msi_irq(struct dw_pcie_rp * pp)690 static inline irqreturn_t dw_handle_msi_irq(struct dw_pcie_rp *pp)
691 {
692 	return IRQ_NONE;
693 }
694 
dw_pcie_setup_rc(struct dw_pcie_rp * pp)695 static inline int dw_pcie_setup_rc(struct dw_pcie_rp *pp)
696 {
697 	return 0;
698 }
699 
dw_pcie_host_init(struct dw_pcie_rp * pp)700 static inline int dw_pcie_host_init(struct dw_pcie_rp *pp)
701 {
702 	return 0;
703 }
704 
dw_pcie_host_deinit(struct dw_pcie_rp * pp)705 static inline void dw_pcie_host_deinit(struct dw_pcie_rp *pp)
706 {
707 }
708 
dw_pcie_allocate_domains(struct dw_pcie_rp * pp)709 static inline int dw_pcie_allocate_domains(struct dw_pcie_rp *pp)
710 {
711 	return 0;
712 }
dw_pcie_own_conf_map_bus(struct pci_bus * bus,unsigned int devfn,int where)713 static inline void __iomem *dw_pcie_own_conf_map_bus(struct pci_bus *bus,
714 						     unsigned int devfn,
715 						     int where)
716 {
717 	return NULL;
718 }
719 #endif
720 
721 #ifdef CONFIG_PCIE_DW_EP
722 void dw_pcie_ep_linkup(struct dw_pcie_ep *ep);
723 void dw_pcie_ep_linkdown(struct dw_pcie_ep *ep);
724 int dw_pcie_ep_init(struct dw_pcie_ep *ep);
725 int dw_pcie_ep_init_registers(struct dw_pcie_ep *ep);
726 void dw_pcie_ep_deinit(struct dw_pcie_ep *ep);
727 void dw_pcie_ep_cleanup(struct dw_pcie_ep *ep);
728 int dw_pcie_ep_raise_intx_irq(struct dw_pcie_ep *ep, u8 func_no);
729 int dw_pcie_ep_raise_msi_irq(struct dw_pcie_ep *ep, u8 func_no,
730 			     u8 interrupt_num);
731 int dw_pcie_ep_raise_msix_irq(struct dw_pcie_ep *ep, u8 func_no,
732 			     u16 interrupt_num);
733 int dw_pcie_ep_raise_msix_irq_doorbell(struct dw_pcie_ep *ep, u8 func_no,
734 				       u16 interrupt_num);
735 void dw_pcie_ep_reset_bar(struct dw_pcie *pci, enum pci_barno bar);
736 struct dw_pcie_ep_func *
737 dw_pcie_ep_get_func_from_ep(struct dw_pcie_ep *ep, u8 func_no);
738 #else
dw_pcie_ep_linkup(struct dw_pcie_ep * ep)739 static inline void dw_pcie_ep_linkup(struct dw_pcie_ep *ep)
740 {
741 }
742 
dw_pcie_ep_linkdown(struct dw_pcie_ep * ep)743 static inline void dw_pcie_ep_linkdown(struct dw_pcie_ep *ep)
744 {
745 }
746 
dw_pcie_ep_init(struct dw_pcie_ep * ep)747 static inline int dw_pcie_ep_init(struct dw_pcie_ep *ep)
748 {
749 	return 0;
750 }
751 
dw_pcie_ep_init_registers(struct dw_pcie_ep * ep)752 static inline int dw_pcie_ep_init_registers(struct dw_pcie_ep *ep)
753 {
754 	return 0;
755 }
756 
dw_pcie_ep_deinit(struct dw_pcie_ep * ep)757 static inline void dw_pcie_ep_deinit(struct dw_pcie_ep *ep)
758 {
759 }
760 
dw_pcie_ep_cleanup(struct dw_pcie_ep * ep)761 static inline void dw_pcie_ep_cleanup(struct dw_pcie_ep *ep)
762 {
763 }
764 
dw_pcie_ep_raise_intx_irq(struct dw_pcie_ep * ep,u8 func_no)765 static inline int dw_pcie_ep_raise_intx_irq(struct dw_pcie_ep *ep, u8 func_no)
766 {
767 	return 0;
768 }
769 
dw_pcie_ep_raise_msi_irq(struct dw_pcie_ep * ep,u8 func_no,u8 interrupt_num)770 static inline int dw_pcie_ep_raise_msi_irq(struct dw_pcie_ep *ep, u8 func_no,
771 					   u8 interrupt_num)
772 {
773 	return 0;
774 }
775 
dw_pcie_ep_raise_msix_irq(struct dw_pcie_ep * ep,u8 func_no,u16 interrupt_num)776 static inline int dw_pcie_ep_raise_msix_irq(struct dw_pcie_ep *ep, u8 func_no,
777 					   u16 interrupt_num)
778 {
779 	return 0;
780 }
781 
dw_pcie_ep_raise_msix_irq_doorbell(struct dw_pcie_ep * ep,u8 func_no,u16 interrupt_num)782 static inline int dw_pcie_ep_raise_msix_irq_doorbell(struct dw_pcie_ep *ep,
783 						     u8 func_no,
784 						     u16 interrupt_num)
785 {
786 	return 0;
787 }
788 
dw_pcie_ep_reset_bar(struct dw_pcie * pci,enum pci_barno bar)789 static inline void dw_pcie_ep_reset_bar(struct dw_pcie *pci, enum pci_barno bar)
790 {
791 }
792 
793 static inline struct dw_pcie_ep_func *
dw_pcie_ep_get_func_from_ep(struct dw_pcie_ep * ep,u8 func_no)794 dw_pcie_ep_get_func_from_ep(struct dw_pcie_ep *ep, u8 func_no)
795 {
796 	return NULL;
797 }
798 #endif
799 #endif /* _PCIE_DESIGNWARE_H */
800