]> git.proxmox.com Git - mirror_ubuntu-artful-kernel.git/blob - drivers/pci/dwc/pci-exynos.c
efi/arm: Fix boot crash with CONFIG_CPUMASK_OFFSTACK=y
[mirror_ubuntu-artful-kernel.git] / drivers / pci / dwc / pci-exynos.c
1 /*
2 * PCIe host controller driver for Samsung EXYNOS SoCs
3 *
4 * Copyright (C) 2013 Samsung Electronics Co., Ltd.
5 * http://www.samsung.com
6 *
7 * Author: Jingoo Han <jg1.han@samsung.com>
8 *
9 * This program is free software; you can redistribute it and/or modify
10 * it under the terms of the GNU General Public License version 2 as
11 * published by the Free Software Foundation.
12 */
13
14 #include <linux/clk.h>
15 #include <linux/delay.h>
16 #include <linux/gpio.h>
17 #include <linux/interrupt.h>
18 #include <linux/kernel.h>
19 #include <linux/init.h>
20 #include <linux/of_device.h>
21 #include <linux/of_gpio.h>
22 #include <linux/pci.h>
23 #include <linux/platform_device.h>
24 #include <linux/phy/phy.h>
25 #include <linux/resource.h>
26 #include <linux/signal.h>
27 #include <linux/types.h>
28
29 #include "pcie-designware.h"
30
31 #define to_exynos_pcie(x) dev_get_drvdata((x)->dev)
32
33 /* PCIe ELBI registers */
34 #define PCIE_IRQ_PULSE 0x000
35 #define IRQ_INTA_ASSERT BIT(0)
36 #define IRQ_INTB_ASSERT BIT(2)
37 #define IRQ_INTC_ASSERT BIT(4)
38 #define IRQ_INTD_ASSERT BIT(6)
39 #define PCIE_IRQ_LEVEL 0x004
40 #define PCIE_IRQ_SPECIAL 0x008
41 #define PCIE_IRQ_EN_PULSE 0x00c
42 #define PCIE_IRQ_EN_LEVEL 0x010
43 #define IRQ_MSI_ENABLE BIT(2)
44 #define PCIE_IRQ_EN_SPECIAL 0x014
45 #define PCIE_PWR_RESET 0x018
46 #define PCIE_CORE_RESET 0x01c
47 #define PCIE_CORE_RESET_ENABLE BIT(0)
48 #define PCIE_STICKY_RESET 0x020
49 #define PCIE_NONSTICKY_RESET 0x024
50 #define PCIE_APP_INIT_RESET 0x028
51 #define PCIE_APP_LTSSM_ENABLE 0x02c
52 #define PCIE_ELBI_RDLH_LINKUP 0x064
53 #define PCIE_ELBI_LTSSM_ENABLE 0x1
54 #define PCIE_ELBI_SLV_AWMISC 0x11c
55 #define PCIE_ELBI_SLV_ARMISC 0x120
56 #define PCIE_ELBI_SLV_DBI_ENABLE BIT(21)
57
58 /* PCIe Purple registers */
59 #define PCIE_PHY_GLOBAL_RESET 0x000
60 #define PCIE_PHY_COMMON_RESET 0x004
61 #define PCIE_PHY_CMN_REG 0x008
62 #define PCIE_PHY_MAC_RESET 0x00c
63 #define PCIE_PHY_PLL_LOCKED 0x010
64 #define PCIE_PHY_TRSVREG_RESET 0x020
65 #define PCIE_PHY_TRSV_RESET 0x024
66
67 /* PCIe PHY registers */
68 #define PCIE_PHY_IMPEDANCE 0x004
69 #define PCIE_PHY_PLL_DIV_0 0x008
70 #define PCIE_PHY_PLL_BIAS 0x00c
71 #define PCIE_PHY_DCC_FEEDBACK 0x014
72 #define PCIE_PHY_PLL_DIV_1 0x05c
73 #define PCIE_PHY_COMMON_POWER 0x064
74 #define PCIE_PHY_COMMON_PD_CMN BIT(3)
75 #define PCIE_PHY_TRSV0_EMP_LVL 0x084
76 #define PCIE_PHY_TRSV0_DRV_LVL 0x088
77 #define PCIE_PHY_TRSV0_RXCDR 0x0ac
78 #define PCIE_PHY_TRSV0_POWER 0x0c4
79 #define PCIE_PHY_TRSV0_PD_TSV BIT(7)
80 #define PCIE_PHY_TRSV0_LVCC 0x0dc
81 #define PCIE_PHY_TRSV1_EMP_LVL 0x144
82 #define PCIE_PHY_TRSV1_RXCDR 0x16c
83 #define PCIE_PHY_TRSV1_POWER 0x184
84 #define PCIE_PHY_TRSV1_PD_TSV BIT(7)
85 #define PCIE_PHY_TRSV1_LVCC 0x19c
86 #define PCIE_PHY_TRSV2_EMP_LVL 0x204
87 #define PCIE_PHY_TRSV2_RXCDR 0x22c
88 #define PCIE_PHY_TRSV2_POWER 0x244
89 #define PCIE_PHY_TRSV2_PD_TSV BIT(7)
90 #define PCIE_PHY_TRSV2_LVCC 0x25c
91 #define PCIE_PHY_TRSV3_EMP_LVL 0x2c4
92 #define PCIE_PHY_TRSV3_RXCDR 0x2ec
93 #define PCIE_PHY_TRSV3_POWER 0x304
94 #define PCIE_PHY_TRSV3_PD_TSV BIT(7)
95 #define PCIE_PHY_TRSV3_LVCC 0x31c
96
97 struct exynos_pcie_mem_res {
98 void __iomem *elbi_base; /* DT 0th resource: PCIe CTRL */
99 void __iomem *phy_base; /* DT 1st resource: PHY CTRL */
100 void __iomem *block_base; /* DT 2nd resource: PHY ADDITIONAL CTRL */
101 };
102
103 struct exynos_pcie_clk_res {
104 struct clk *clk;
105 struct clk *bus_clk;
106 };
107
108 struct exynos_pcie {
109 struct dw_pcie *pci;
110 struct exynos_pcie_mem_res *mem_res;
111 struct exynos_pcie_clk_res *clk_res;
112 const struct exynos_pcie_ops *ops;
113 int reset_gpio;
114
115 /* For Generic PHY Framework */
116 bool using_phy;
117 struct phy *phy;
118 };
119
120 struct exynos_pcie_ops {
121 int (*get_mem_resources)(struct platform_device *pdev,
122 struct exynos_pcie *ep);
123 int (*get_clk_resources)(struct exynos_pcie *ep);
124 int (*init_clk_resources)(struct exynos_pcie *ep);
125 void (*deinit_clk_resources)(struct exynos_pcie *ep);
126 };
127
128 static int exynos5440_pcie_get_mem_resources(struct platform_device *pdev,
129 struct exynos_pcie *ep)
130 {
131 struct dw_pcie *pci = ep->pci;
132 struct device *dev = pci->dev;
133 struct resource *res;
134
135 /* If using the PHY framework, doesn't need to get other resource */
136 if (ep->using_phy)
137 return 0;
138
139 ep->mem_res = devm_kzalloc(dev, sizeof(*ep->mem_res), GFP_KERNEL);
140 if (!ep->mem_res)
141 return -ENOMEM;
142
143 res = platform_get_resource(pdev, IORESOURCE_MEM, 0);
144 ep->mem_res->elbi_base = devm_ioremap_resource(dev, res);
145 if (IS_ERR(ep->mem_res->elbi_base))
146 return PTR_ERR(ep->mem_res->elbi_base);
147
148 res = platform_get_resource(pdev, IORESOURCE_MEM, 1);
149 ep->mem_res->phy_base = devm_ioremap_resource(dev, res);
150 if (IS_ERR(ep->mem_res->phy_base))
151 return PTR_ERR(ep->mem_res->phy_base);
152
153 res = platform_get_resource(pdev, IORESOURCE_MEM, 2);
154 ep->mem_res->block_base = devm_ioremap_resource(dev, res);
155 if (IS_ERR(ep->mem_res->block_base))
156 return PTR_ERR(ep->mem_res->block_base);
157
158 return 0;
159 }
160
161 static int exynos5440_pcie_get_clk_resources(struct exynos_pcie *ep)
162 {
163 struct dw_pcie *pci = ep->pci;
164 struct device *dev = pci->dev;
165
166 ep->clk_res = devm_kzalloc(dev, sizeof(*ep->clk_res), GFP_KERNEL);
167 if (!ep->clk_res)
168 return -ENOMEM;
169
170 ep->clk_res->clk = devm_clk_get(dev, "pcie");
171 if (IS_ERR(ep->clk_res->clk)) {
172 dev_err(dev, "Failed to get pcie rc clock\n");
173 return PTR_ERR(ep->clk_res->clk);
174 }
175
176 ep->clk_res->bus_clk = devm_clk_get(dev, "pcie_bus");
177 if (IS_ERR(ep->clk_res->bus_clk)) {
178 dev_err(dev, "Failed to get pcie bus clock\n");
179 return PTR_ERR(ep->clk_res->bus_clk);
180 }
181
182 return 0;
183 }
184
185 static int exynos5440_pcie_init_clk_resources(struct exynos_pcie *ep)
186 {
187 struct dw_pcie *pci = ep->pci;
188 struct device *dev = pci->dev;
189 int ret;
190
191 ret = clk_prepare_enable(ep->clk_res->clk);
192 if (ret) {
193 dev_err(dev, "cannot enable pcie rc clock");
194 return ret;
195 }
196
197 ret = clk_prepare_enable(ep->clk_res->bus_clk);
198 if (ret) {
199 dev_err(dev, "cannot enable pcie bus clock");
200 goto err_bus_clk;
201 }
202
203 return 0;
204
205 err_bus_clk:
206 clk_disable_unprepare(ep->clk_res->clk);
207
208 return ret;
209 }
210
211 static void exynos5440_pcie_deinit_clk_resources(struct exynos_pcie *ep)
212 {
213 clk_disable_unprepare(ep->clk_res->bus_clk);
214 clk_disable_unprepare(ep->clk_res->clk);
215 }
216
217 static const struct exynos_pcie_ops exynos5440_pcie_ops = {
218 .get_mem_resources = exynos5440_pcie_get_mem_resources,
219 .get_clk_resources = exynos5440_pcie_get_clk_resources,
220 .init_clk_resources = exynos5440_pcie_init_clk_resources,
221 .deinit_clk_resources = exynos5440_pcie_deinit_clk_resources,
222 };
223
224 static void exynos_pcie_writel(void __iomem *base, u32 val, u32 reg)
225 {
226 writel(val, base + reg);
227 }
228
229 static u32 exynos_pcie_readl(void __iomem *base, u32 reg)
230 {
231 return readl(base + reg);
232 }
233
234 static void exynos_pcie_sideband_dbi_w_mode(struct exynos_pcie *ep, bool on)
235 {
236 u32 val;
237
238 val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_ELBI_SLV_AWMISC);
239 if (on)
240 val |= PCIE_ELBI_SLV_DBI_ENABLE;
241 else
242 val &= ~PCIE_ELBI_SLV_DBI_ENABLE;
243 exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_ELBI_SLV_AWMISC);
244 }
245
246 static void exynos_pcie_sideband_dbi_r_mode(struct exynos_pcie *ep, bool on)
247 {
248 u32 val;
249
250 val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_ELBI_SLV_ARMISC);
251 if (on)
252 val |= PCIE_ELBI_SLV_DBI_ENABLE;
253 else
254 val &= ~PCIE_ELBI_SLV_DBI_ENABLE;
255 exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_ELBI_SLV_ARMISC);
256 }
257
258 static void exynos_pcie_assert_core_reset(struct exynos_pcie *ep)
259 {
260 u32 val;
261
262 val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_CORE_RESET);
263 val &= ~PCIE_CORE_RESET_ENABLE;
264 exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_CORE_RESET);
265 exynos_pcie_writel(ep->mem_res->elbi_base, 0, PCIE_PWR_RESET);
266 exynos_pcie_writel(ep->mem_res->elbi_base, 0, PCIE_STICKY_RESET);
267 exynos_pcie_writel(ep->mem_res->elbi_base, 0, PCIE_NONSTICKY_RESET);
268 }
269
270 static void exynos_pcie_deassert_core_reset(struct exynos_pcie *ep)
271 {
272 u32 val;
273
274 val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_CORE_RESET);
275 val |= PCIE_CORE_RESET_ENABLE;
276
277 exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_CORE_RESET);
278 exynos_pcie_writel(ep->mem_res->elbi_base, 1, PCIE_STICKY_RESET);
279 exynos_pcie_writel(ep->mem_res->elbi_base, 1, PCIE_NONSTICKY_RESET);
280 exynos_pcie_writel(ep->mem_res->elbi_base, 1, PCIE_APP_INIT_RESET);
281 exynos_pcie_writel(ep->mem_res->elbi_base, 0, PCIE_APP_INIT_RESET);
282 exynos_pcie_writel(ep->mem_res->block_base, 1, PCIE_PHY_MAC_RESET);
283 }
284
285 static void exynos_pcie_assert_phy_reset(struct exynos_pcie *ep)
286 {
287 exynos_pcie_writel(ep->mem_res->block_base, 0, PCIE_PHY_MAC_RESET);
288 exynos_pcie_writel(ep->mem_res->block_base, 1, PCIE_PHY_GLOBAL_RESET);
289 }
290
291 static void exynos_pcie_deassert_phy_reset(struct exynos_pcie *ep)
292 {
293 exynos_pcie_writel(ep->mem_res->block_base, 0, PCIE_PHY_GLOBAL_RESET);
294 exynos_pcie_writel(ep->mem_res->elbi_base, 1, PCIE_PWR_RESET);
295 exynos_pcie_writel(ep->mem_res->block_base, 0, PCIE_PHY_COMMON_RESET);
296 exynos_pcie_writel(ep->mem_res->block_base, 0, PCIE_PHY_CMN_REG);
297 exynos_pcie_writel(ep->mem_res->block_base, 0, PCIE_PHY_TRSVREG_RESET);
298 exynos_pcie_writel(ep->mem_res->block_base, 0, PCIE_PHY_TRSV_RESET);
299 }
300
301 static void exynos_pcie_power_on_phy(struct exynos_pcie *ep)
302 {
303 u32 val;
304
305 val = exynos_pcie_readl(ep->mem_res->phy_base, PCIE_PHY_COMMON_POWER);
306 val &= ~PCIE_PHY_COMMON_PD_CMN;
307 exynos_pcie_writel(ep->mem_res->phy_base, val, PCIE_PHY_COMMON_POWER);
308
309 val = exynos_pcie_readl(ep->mem_res->phy_base, PCIE_PHY_TRSV0_POWER);
310 val &= ~PCIE_PHY_TRSV0_PD_TSV;
311 exynos_pcie_writel(ep->mem_res->phy_base, val, PCIE_PHY_TRSV0_POWER);
312
313 val = exynos_pcie_readl(ep->mem_res->phy_base, PCIE_PHY_TRSV1_POWER);
314 val &= ~PCIE_PHY_TRSV1_PD_TSV;
315 exynos_pcie_writel(ep->mem_res->phy_base, val, PCIE_PHY_TRSV1_POWER);
316
317 val = exynos_pcie_readl(ep->mem_res->phy_base, PCIE_PHY_TRSV2_POWER);
318 val &= ~PCIE_PHY_TRSV2_PD_TSV;
319 exynos_pcie_writel(ep->mem_res->phy_base, val, PCIE_PHY_TRSV2_POWER);
320
321 val = exynos_pcie_readl(ep->mem_res->phy_base, PCIE_PHY_TRSV3_POWER);
322 val &= ~PCIE_PHY_TRSV3_PD_TSV;
323 exynos_pcie_writel(ep->mem_res->phy_base, val, PCIE_PHY_TRSV3_POWER);
324 }
325
326 static void exynos_pcie_power_off_phy(struct exynos_pcie *ep)
327 {
328 u32 val;
329
330 val = exynos_pcie_readl(ep->mem_res->phy_base, PCIE_PHY_COMMON_POWER);
331 val |= PCIE_PHY_COMMON_PD_CMN;
332 exynos_pcie_writel(ep->mem_res->phy_base, val, PCIE_PHY_COMMON_POWER);
333
334 val = exynos_pcie_readl(ep->mem_res->phy_base, PCIE_PHY_TRSV0_POWER);
335 val |= PCIE_PHY_TRSV0_PD_TSV;
336 exynos_pcie_writel(ep->mem_res->phy_base, val, PCIE_PHY_TRSV0_POWER);
337
338 val = exynos_pcie_readl(ep->mem_res->phy_base, PCIE_PHY_TRSV1_POWER);
339 val |= PCIE_PHY_TRSV1_PD_TSV;
340 exynos_pcie_writel(ep->mem_res->phy_base, val, PCIE_PHY_TRSV1_POWER);
341
342 val = exynos_pcie_readl(ep->mem_res->phy_base, PCIE_PHY_TRSV2_POWER);
343 val |= PCIE_PHY_TRSV2_PD_TSV;
344 exynos_pcie_writel(ep->mem_res->phy_base, val, PCIE_PHY_TRSV2_POWER);
345
346 val = exynos_pcie_readl(ep->mem_res->phy_base, PCIE_PHY_TRSV3_POWER);
347 val |= PCIE_PHY_TRSV3_PD_TSV;
348 exynos_pcie_writel(ep->mem_res->phy_base, val, PCIE_PHY_TRSV3_POWER);
349 }
350
351 static void exynos_pcie_init_phy(struct exynos_pcie *ep)
352 {
353 /* DCC feedback control off */
354 exynos_pcie_writel(ep->mem_res->phy_base, 0x29, PCIE_PHY_DCC_FEEDBACK);
355
356 /* set TX/RX impedance */
357 exynos_pcie_writel(ep->mem_res->phy_base, 0xd5, PCIE_PHY_IMPEDANCE);
358
359 /* set 50Mhz PHY clock */
360 exynos_pcie_writel(ep->mem_res->phy_base, 0x14, PCIE_PHY_PLL_DIV_0);
361 exynos_pcie_writel(ep->mem_res->phy_base, 0x12, PCIE_PHY_PLL_DIV_1);
362
363 /* set TX Differential output for lane 0 */
364 exynos_pcie_writel(ep->mem_res->phy_base, 0x7f, PCIE_PHY_TRSV0_DRV_LVL);
365
366 /* set TX Pre-emphasis Level Control for lane 0 to minimum */
367 exynos_pcie_writel(ep->mem_res->phy_base, 0x0, PCIE_PHY_TRSV0_EMP_LVL);
368
369 /* set RX clock and data recovery bandwidth */
370 exynos_pcie_writel(ep->mem_res->phy_base, 0xe7, PCIE_PHY_PLL_BIAS);
371 exynos_pcie_writel(ep->mem_res->phy_base, 0x82, PCIE_PHY_TRSV0_RXCDR);
372 exynos_pcie_writel(ep->mem_res->phy_base, 0x82, PCIE_PHY_TRSV1_RXCDR);
373 exynos_pcie_writel(ep->mem_res->phy_base, 0x82, PCIE_PHY_TRSV2_RXCDR);
374 exynos_pcie_writel(ep->mem_res->phy_base, 0x82, PCIE_PHY_TRSV3_RXCDR);
375
376 /* change TX Pre-emphasis Level Control for lanes */
377 exynos_pcie_writel(ep->mem_res->phy_base, 0x39, PCIE_PHY_TRSV0_EMP_LVL);
378 exynos_pcie_writel(ep->mem_res->phy_base, 0x39, PCIE_PHY_TRSV1_EMP_LVL);
379 exynos_pcie_writel(ep->mem_res->phy_base, 0x39, PCIE_PHY_TRSV2_EMP_LVL);
380 exynos_pcie_writel(ep->mem_res->phy_base, 0x39, PCIE_PHY_TRSV3_EMP_LVL);
381
382 /* set LVCC */
383 exynos_pcie_writel(ep->mem_res->phy_base, 0x20, PCIE_PHY_TRSV0_LVCC);
384 exynos_pcie_writel(ep->mem_res->phy_base, 0xa0, PCIE_PHY_TRSV1_LVCC);
385 exynos_pcie_writel(ep->mem_res->phy_base, 0xa0, PCIE_PHY_TRSV2_LVCC);
386 exynos_pcie_writel(ep->mem_res->phy_base, 0xa0, PCIE_PHY_TRSV3_LVCC);
387 }
388
389 static void exynos_pcie_assert_reset(struct exynos_pcie *ep)
390 {
391 struct dw_pcie *pci = ep->pci;
392 struct device *dev = pci->dev;
393
394 if (ep->reset_gpio >= 0)
395 devm_gpio_request_one(dev, ep->reset_gpio,
396 GPIOF_OUT_INIT_HIGH, "RESET");
397 }
398
399 static int exynos_pcie_establish_link(struct exynos_pcie *ep)
400 {
401 struct dw_pcie *pci = ep->pci;
402 struct pcie_port *pp = &pci->pp;
403 struct device *dev = pci->dev;
404 u32 val;
405
406 if (dw_pcie_link_up(pci)) {
407 dev_err(dev, "Link already up\n");
408 return 0;
409 }
410
411 exynos_pcie_assert_core_reset(ep);
412
413 if (ep->using_phy) {
414 phy_reset(ep->phy);
415
416 exynos_pcie_writel(ep->mem_res->elbi_base, 1,
417 PCIE_PWR_RESET);
418
419 phy_power_on(ep->phy);
420 phy_init(ep->phy);
421 } else {
422 exynos_pcie_assert_phy_reset(ep);
423 exynos_pcie_deassert_phy_reset(ep);
424 exynos_pcie_power_on_phy(ep);
425 exynos_pcie_init_phy(ep);
426
427 /* pulse for common reset */
428 exynos_pcie_writel(ep->mem_res->block_base, 1,
429 PCIE_PHY_COMMON_RESET);
430 udelay(500);
431 exynos_pcie_writel(ep->mem_res->block_base, 0,
432 PCIE_PHY_COMMON_RESET);
433 }
434
435 /* pulse for common reset */
436 exynos_pcie_writel(ep->mem_res->block_base, 1, PCIE_PHY_COMMON_RESET);
437 udelay(500);
438 exynos_pcie_writel(ep->mem_res->block_base, 0, PCIE_PHY_COMMON_RESET);
439
440 exynos_pcie_deassert_core_reset(ep);
441 dw_pcie_setup_rc(pp);
442 exynos_pcie_assert_reset(ep);
443
444 /* assert LTSSM enable */
445 exynos_pcie_writel(ep->mem_res->elbi_base, PCIE_ELBI_LTSSM_ENABLE,
446 PCIE_APP_LTSSM_ENABLE);
447
448 /* check if the link is up or not */
449 if (!dw_pcie_wait_for_link(pci))
450 return 0;
451
452 if (ep->using_phy) {
453 phy_power_off(ep->phy);
454 return -ETIMEDOUT;
455 }
456
457 while (exynos_pcie_readl(ep->mem_res->phy_base,
458 PCIE_PHY_PLL_LOCKED) == 0) {
459 val = exynos_pcie_readl(ep->mem_res->block_base,
460 PCIE_PHY_PLL_LOCKED);
461 dev_info(dev, "PLL Locked: 0x%x\n", val);
462 }
463 exynos_pcie_power_off_phy(ep);
464 return -ETIMEDOUT;
465 }
466
467 static void exynos_pcie_clear_irq_pulse(struct exynos_pcie *ep)
468 {
469 u32 val;
470
471 val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_IRQ_PULSE);
472 exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_IRQ_PULSE);
473 }
474
475 static void exynos_pcie_enable_irq_pulse(struct exynos_pcie *ep)
476 {
477 u32 val;
478
479 /* enable INTX interrupt */
480 val = IRQ_INTA_ASSERT | IRQ_INTB_ASSERT |
481 IRQ_INTC_ASSERT | IRQ_INTD_ASSERT;
482 exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_IRQ_EN_PULSE);
483 }
484
485 static irqreturn_t exynos_pcie_irq_handler(int irq, void *arg)
486 {
487 struct exynos_pcie *ep = arg;
488
489 exynos_pcie_clear_irq_pulse(ep);
490 return IRQ_HANDLED;
491 }
492
493 static irqreturn_t exynos_pcie_msi_irq_handler(int irq, void *arg)
494 {
495 struct exynos_pcie *ep = arg;
496 struct dw_pcie *pci = ep->pci;
497 struct pcie_port *pp = &pci->pp;
498
499 return dw_handle_msi_irq(pp);
500 }
501
502 static void exynos_pcie_msi_init(struct exynos_pcie *ep)
503 {
504 struct dw_pcie *pci = ep->pci;
505 struct pcie_port *pp = &pci->pp;
506 u32 val;
507
508 dw_pcie_msi_init(pp);
509
510 /* enable MSI interrupt */
511 val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_IRQ_EN_LEVEL);
512 val |= IRQ_MSI_ENABLE;
513 exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_IRQ_EN_LEVEL);
514 }
515
516 static void exynos_pcie_enable_interrupts(struct exynos_pcie *ep)
517 {
518 exynos_pcie_enable_irq_pulse(ep);
519
520 if (IS_ENABLED(CONFIG_PCI_MSI))
521 exynos_pcie_msi_init(ep);
522 }
523
524 static u32 exynos_pcie_readl_dbi(struct dw_pcie *pci, u32 reg)
525 {
526 struct exynos_pcie *ep = to_exynos_pcie(pci);
527 u32 val;
528
529 exynos_pcie_sideband_dbi_r_mode(ep, true);
530 val = readl(pci->dbi_base + reg);
531 exynos_pcie_sideband_dbi_r_mode(ep, false);
532 return val;
533 }
534
535 static void exynos_pcie_writel_dbi(struct dw_pcie *pci, u32 reg, u32 val)
536 {
537 struct exynos_pcie *ep = to_exynos_pcie(pci);
538
539 exynos_pcie_sideband_dbi_w_mode(ep, true);
540 writel(val, pci->dbi_base + reg);
541 exynos_pcie_sideband_dbi_w_mode(ep, false);
542 }
543
544 static int exynos_pcie_rd_own_conf(struct pcie_port *pp, int where, int size,
545 u32 *val)
546 {
547 struct dw_pcie *pci = to_dw_pcie_from_pp(pp);
548 struct exynos_pcie *ep = to_exynos_pcie(pci);
549 int ret;
550
551 exynos_pcie_sideband_dbi_r_mode(ep, true);
552 ret = dw_pcie_read(pci->dbi_base + where, size, val);
553 exynos_pcie_sideband_dbi_r_mode(ep, false);
554 return ret;
555 }
556
557 static int exynos_pcie_wr_own_conf(struct pcie_port *pp, int where, int size,
558 u32 val)
559 {
560 struct dw_pcie *pci = to_dw_pcie_from_pp(pp);
561 struct exynos_pcie *ep = to_exynos_pcie(pci);
562 int ret;
563
564 exynos_pcie_sideband_dbi_w_mode(ep, true);
565 ret = dw_pcie_write(pci->dbi_base + where, size, val);
566 exynos_pcie_sideband_dbi_w_mode(ep, false);
567 return ret;
568 }
569
570 static int exynos_pcie_link_up(struct dw_pcie *pci)
571 {
572 struct exynos_pcie *ep = to_exynos_pcie(pci);
573 u32 val;
574
575 val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_ELBI_RDLH_LINKUP);
576 if (val == PCIE_ELBI_LTSSM_ENABLE)
577 return 1;
578
579 return 0;
580 }
581
582 static void exynos_pcie_host_init(struct pcie_port *pp)
583 {
584 struct dw_pcie *pci = to_dw_pcie_from_pp(pp);
585 struct exynos_pcie *ep = to_exynos_pcie(pci);
586
587 exynos_pcie_establish_link(ep);
588 exynos_pcie_enable_interrupts(ep);
589 }
590
591 static struct dw_pcie_host_ops exynos_pcie_host_ops = {
592 .rd_own_conf = exynos_pcie_rd_own_conf,
593 .wr_own_conf = exynos_pcie_wr_own_conf,
594 .host_init = exynos_pcie_host_init,
595 };
596
597 static int __init exynos_add_pcie_port(struct exynos_pcie *ep,
598 struct platform_device *pdev)
599 {
600 struct dw_pcie *pci = ep->pci;
601 struct pcie_port *pp = &pci->pp;
602 struct device *dev = &pdev->dev;
603 int ret;
604
605 pp->irq = platform_get_irq(pdev, 1);
606 if (!pp->irq) {
607 dev_err(dev, "failed to get irq\n");
608 return -ENODEV;
609 }
610 ret = devm_request_irq(dev, pp->irq, exynos_pcie_irq_handler,
611 IRQF_SHARED, "exynos-pcie", ep);
612 if (ret) {
613 dev_err(dev, "failed to request irq\n");
614 return ret;
615 }
616
617 if (IS_ENABLED(CONFIG_PCI_MSI)) {
618 pp->msi_irq = platform_get_irq(pdev, 0);
619 if (!pp->msi_irq) {
620 dev_err(dev, "failed to get msi irq\n");
621 return -ENODEV;
622 }
623
624 ret = devm_request_irq(dev, pp->msi_irq,
625 exynos_pcie_msi_irq_handler,
626 IRQF_SHARED | IRQF_NO_THREAD,
627 "exynos-pcie", ep);
628 if (ret) {
629 dev_err(dev, "failed to request msi irq\n");
630 return ret;
631 }
632 }
633
634 pp->root_bus_nr = -1;
635 pp->ops = &exynos_pcie_host_ops;
636
637 ret = dw_pcie_host_init(pp);
638 if (ret) {
639 dev_err(dev, "failed to initialize host\n");
640 return ret;
641 }
642
643 return 0;
644 }
645
646 static const struct dw_pcie_ops dw_pcie_ops = {
647 .readl_dbi = exynos_pcie_readl_dbi,
648 .writel_dbi = exynos_pcie_writel_dbi,
649 .link_up = exynos_pcie_link_up,
650 };
651
652 static int __init exynos_pcie_probe(struct platform_device *pdev)
653 {
654 struct device *dev = &pdev->dev;
655 struct dw_pcie *pci;
656 struct exynos_pcie *ep;
657 struct device_node *np = dev->of_node;
658 int ret;
659
660 ep = devm_kzalloc(dev, sizeof(*ep), GFP_KERNEL);
661 if (!ep)
662 return -ENOMEM;
663
664 pci = devm_kzalloc(dev, sizeof(*pci), GFP_KERNEL);
665 if (!pci)
666 return -ENOMEM;
667
668 pci->dev = dev;
669 pci->ops = &dw_pcie_ops;
670
671 ep->ops = (const struct exynos_pcie_ops *)
672 of_device_get_match_data(dev);
673
674 ep->reset_gpio = of_get_named_gpio(np, "reset-gpio", 0);
675
676 /* Assume that controller doesn't use the PHY framework */
677 ep->using_phy = false;
678
679 ep->phy = devm_of_phy_get(dev, np, NULL);
680 if (IS_ERR(ep->phy)) {
681 if (PTR_ERR(ep->phy) == -EPROBE_DEFER)
682 return PTR_ERR(ep->phy);
683 dev_warn(dev, "Use the 'phy' property. Current DT of pci-exynos was deprecated!!\n");
684 } else
685 ep->using_phy = true;
686
687 if (ep->ops && ep->ops->get_mem_resources) {
688 ret = ep->ops->get_mem_resources(pdev, ep);
689 if (ret)
690 return ret;
691 }
692
693 if (ep->ops && ep->ops->get_clk_resources) {
694 ret = ep->ops->get_clk_resources(ep);
695 if (ret)
696 return ret;
697 ret = ep->ops->init_clk_resources(ep);
698 if (ret)
699 return ret;
700 }
701
702 platform_set_drvdata(pdev, ep);
703
704 ret = exynos_add_pcie_port(ep, pdev);
705 if (ret < 0)
706 goto fail_probe;
707
708 return 0;
709
710 fail_probe:
711 if (ep->using_phy)
712 phy_exit(ep->phy);
713
714 if (ep->ops && ep->ops->deinit_clk_resources)
715 ep->ops->deinit_clk_resources(ep);
716 return ret;
717 }
718
719 static int __exit exynos_pcie_remove(struct platform_device *pdev)
720 {
721 struct exynos_pcie *ep = platform_get_drvdata(pdev);
722
723 if (ep->ops && ep->ops->deinit_clk_resources)
724 ep->ops->deinit_clk_resources(ep);
725
726 return 0;
727 }
728
729 static const struct of_device_id exynos_pcie_of_match[] = {
730 {
731 .compatible = "samsung,exynos5440-pcie",
732 .data = &exynos5440_pcie_ops
733 },
734 {},
735 };
736
737 static struct platform_driver exynos_pcie_driver = {
738 .remove = __exit_p(exynos_pcie_remove),
739 .driver = {
740 .name = "exynos-pcie",
741 .of_match_table = exynos_pcie_of_match,
742 },
743 };
744
745 /* Exynos PCIe driver does not allow module unload */
746
747 static int __init exynos_pcie_init(void)
748 {
749 return platform_driver_probe(&exynos_pcie_driver, exynos_pcie_probe);
750 }
751 subsys_initcall(exynos_pcie_init);