Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright(c) 2018-2021 Beijing WangXun Technology Co., Ltd.
3 : : * Copyright(c) 2010-2017 Intel Corporation
4 : : */
5 : :
6 : : #include <errno.h>
7 : : #include <rte_common.h>
8 : : #include <ethdev_pci.h>
9 : :
10 : : #include <rte_alarm.h>
11 : :
12 : : #include "ngbe_logs.h"
13 : : #include "ngbe.h"
14 : : #include "ngbe_ethdev.h"
15 : : #include "ngbe_rxtx.h"
16 : : #include "ngbe_regs_group.h"
17 : :
18 : : static const struct reg_info ngbe_regs_general[] = {
19 : : {NGBE_RST, 1, 1, "NGBE_RST"},
20 : : {NGBE_STAT, 1, 1, "NGBE_STAT"},
21 : : {NGBE_PORTCTL, 1, 1, "NGBE_PORTCTL"},
22 : : {NGBE_GPIODATA, 1, 1, "NGBE_GPIODATA"},
23 : : {NGBE_GPIOCTL, 1, 1, "NGBE_GPIOCTL"},
24 : : {NGBE_LEDCTL, 1, 1, "NGBE_LEDCTL"},
25 : : {0, 0, 0, ""}
26 : : };
27 : :
28 : : static const struct reg_info ngbe_regs_nvm[] = {
29 : : {0, 0, 0, ""}
30 : : };
31 : :
32 : : static const struct reg_info ngbe_regs_interrupt[] = {
33 : : {0, 0, 0, ""}
34 : : };
35 : :
36 : : static const struct reg_info ngbe_regs_fctl_others[] = {
37 : : {0, 0, 0, ""}
38 : : };
39 : :
40 : : static const struct reg_info ngbe_regs_rxdma[] = {
41 : : {0, 0, 0, ""}
42 : : };
43 : :
44 : : static const struct reg_info ngbe_regs_rx[] = {
45 : : {0, 0, 0, ""}
46 : : };
47 : :
48 : : static struct reg_info ngbe_regs_tx[] = {
49 : : {0, 0, 0, ""}
50 : : };
51 : :
52 : : static const struct reg_info ngbe_regs_wakeup[] = {
53 : : {0, 0, 0, ""}
54 : : };
55 : :
56 : : static const struct reg_info ngbe_regs_mac[] = {
57 : : {0, 0, 0, ""}
58 : : };
59 : :
60 : : static const struct reg_info ngbe_regs_diagnostic[] = {
61 : : {0, 0, 0, ""},
62 : : };
63 : :
64 : : /* PF registers */
65 : : static const struct reg_info *ngbe_regs_others[] = {
66 : : ngbe_regs_general,
67 : : ngbe_regs_nvm,
68 : : ngbe_regs_interrupt,
69 : : ngbe_regs_fctl_others,
70 : : ngbe_regs_rxdma,
71 : : ngbe_regs_rx,
72 : : ngbe_regs_tx,
73 : : ngbe_regs_wakeup,
74 : : ngbe_regs_mac,
75 : : ngbe_regs_diagnostic,
76 : : NULL};
77 : :
78 : : static int ngbe_dev_close(struct rte_eth_dev *dev);
79 : : static int ngbe_dev_link_update(struct rte_eth_dev *dev,
80 : : int wait_to_complete);
81 : : static int ngbe_dev_stats_reset(struct rte_eth_dev *dev);
82 : : static void ngbe_vlan_hw_strip_enable(struct rte_eth_dev *dev, uint16_t queue);
83 : : static void ngbe_vlan_hw_strip_disable(struct rte_eth_dev *dev,
84 : : uint16_t queue);
85 : :
86 : : static void ngbe_dev_link_status_print(struct rte_eth_dev *dev);
87 : : static int ngbe_dev_lsc_interrupt_setup(struct rte_eth_dev *dev, uint8_t on);
88 : : static int ngbe_dev_macsec_interrupt_setup(struct rte_eth_dev *dev);
89 : : static int ngbe_dev_misc_interrupt_setup(struct rte_eth_dev *dev);
90 : : static int ngbe_dev_rxq_interrupt_setup(struct rte_eth_dev *dev);
91 : : static void ngbe_dev_interrupt_handler(void *param);
92 : : static void ngbe_configure_msix(struct rte_eth_dev *dev);
93 : : static void ngbe_pbthresh_set(struct rte_eth_dev *dev);
94 : :
95 : : #define NGBE_SET_HWSTRIP(h, q) do {\
96 : : uint32_t idx = (q) / (sizeof((h)->bitmap[0]) * NBBY); \
97 : : uint32_t bit = (q) % (sizeof((h)->bitmap[0]) * NBBY); \
98 : : (h)->bitmap[idx] |= 1 << bit;\
99 : : } while (0)
100 : :
101 : : #define NGBE_CLEAR_HWSTRIP(h, q) do {\
102 : : uint32_t idx = (q) / (sizeof((h)->bitmap[0]) * NBBY); \
103 : : uint32_t bit = (q) % (sizeof((h)->bitmap[0]) * NBBY); \
104 : : (h)->bitmap[idx] &= ~(1 << bit);\
105 : : } while (0)
106 : :
107 : : #define NGBE_GET_HWSTRIP(h, q, r) do {\
108 : : uint32_t idx = (q) / (sizeof((h)->bitmap[0]) * NBBY); \
109 : : uint32_t bit = (q) % (sizeof((h)->bitmap[0]) * NBBY); \
110 : : (r) = (h)->bitmap[idx] >> bit & 1;\
111 : : } while (0)
112 : :
113 : : /*
114 : : * The set of PCI devices this driver supports
115 : : */
116 : : static const struct rte_pci_id pci_id_ngbe_map[] = {
117 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A2) },
118 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A2S) },
119 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A4) },
120 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A4S) },
121 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860AL2) },
122 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860AL2S) },
123 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860AL4) },
124 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860AL4S) },
125 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860NCSI) },
126 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A1) },
127 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A1L) },
128 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860AL_W) },
129 : : { .vendor_id = 0, /* sentinel */ },
130 : : };
131 : :
132 : : static const struct rte_eth_desc_lim rx_desc_lim = {
133 : : .nb_max = NGBE_RING_DESC_MAX,
134 : : .nb_min = NGBE_RING_DESC_MIN,
135 : : .nb_align = NGBE_RXD_ALIGN,
136 : : };
137 : :
138 : : static const struct rte_eth_desc_lim tx_desc_lim = {
139 : : .nb_max = NGBE_RING_DESC_MAX,
140 : : .nb_min = NGBE_RING_DESC_MIN,
141 : : .nb_align = NGBE_TXD_ALIGN,
142 : : .nb_seg_max = NGBE_TX_MAX_SEG,
143 : : .nb_mtu_seg_max = NGBE_TX_MAX_SEG,
144 : : };
145 : :
146 : : static const struct eth_dev_ops ngbe_eth_dev_ops;
147 : :
148 : : #define HW_XSTAT(m) {#m, offsetof(struct ngbe_hw_stats, m)}
149 : : #define HW_XSTAT_NAME(m, n) {n, offsetof(struct ngbe_hw_stats, m)}
150 : : static const struct rte_ngbe_xstats_name_off rte_ngbe_stats_strings[] = {
151 : : /* MNG RxTx */
152 : : HW_XSTAT(mng_bmc2host_packets),
153 : : HW_XSTAT(mng_host2bmc_packets),
154 : : /* Basic RxTx */
155 : : HW_XSTAT(rx_packets),
156 : : HW_XSTAT(tx_packets),
157 : : HW_XSTAT(rx_bytes),
158 : : HW_XSTAT(tx_bytes),
159 : : HW_XSTAT(rx_total_bytes),
160 : : HW_XSTAT(rx_total_packets),
161 : : HW_XSTAT(tx_total_packets),
162 : : HW_XSTAT(rx_total_missed_packets),
163 : : HW_XSTAT(rx_broadcast_packets),
164 : : HW_XSTAT(tx_broadcast_packets),
165 : : HW_XSTAT(rx_multicast_packets),
166 : : HW_XSTAT(tx_multicast_packets),
167 : : HW_XSTAT(rx_management_packets),
168 : : HW_XSTAT(tx_management_packets),
169 : : HW_XSTAT(rx_management_dropped),
170 : : HW_XSTAT(rx_dma_drop),
171 : : HW_XSTAT(tx_dma_drop),
172 : : HW_XSTAT(tx_secdrp_packets),
173 : :
174 : : /* Basic Error */
175 : : HW_XSTAT(rx_crc_errors),
176 : : HW_XSTAT(rx_illegal_byte_errors),
177 : : HW_XSTAT(rx_error_bytes),
178 : : HW_XSTAT(rx_mac_short_packet_dropped),
179 : : HW_XSTAT(rx_length_errors),
180 : : HW_XSTAT(rx_undersize_errors),
181 : : HW_XSTAT(rx_fragment_errors),
182 : : HW_XSTAT(rx_oversize_cnt),
183 : : HW_XSTAT(rx_jabber_errors),
184 : : HW_XSTAT(rx_l3_l4_xsum_error),
185 : : HW_XSTAT(mac_local_errors),
186 : : HW_XSTAT(mac_remote_errors),
187 : :
188 : : /* PB Stats */
189 : : HW_XSTAT(rx_up_dropped),
190 : : HW_XSTAT(rdb_pkt_cnt),
191 : : HW_XSTAT(rdb_repli_cnt),
192 : : HW_XSTAT(rdb_drp_cnt),
193 : :
194 : : /* MACSEC */
195 : : HW_XSTAT(tx_macsec_pkts_untagged),
196 : : HW_XSTAT(tx_macsec_pkts_encrypted),
197 : : HW_XSTAT(tx_macsec_pkts_protected),
198 : : HW_XSTAT(tx_macsec_octets_encrypted),
199 : : HW_XSTAT(tx_macsec_octets_protected),
200 : : HW_XSTAT(rx_macsec_pkts_untagged),
201 : : HW_XSTAT(rx_macsec_pkts_badtag),
202 : : HW_XSTAT(rx_macsec_pkts_nosci),
203 : : HW_XSTAT(rx_macsec_pkts_unknownsci),
204 : : HW_XSTAT(rx_macsec_octets_decrypted),
205 : : HW_XSTAT(rx_macsec_octets_validated),
206 : : HW_XSTAT(rx_macsec_sc_pkts_unchecked),
207 : : HW_XSTAT(rx_macsec_sc_pkts_delayed),
208 : : HW_XSTAT(rx_macsec_sc_pkts_late),
209 : : HW_XSTAT(rx_macsec_sa_pkts_ok),
210 : : HW_XSTAT(rx_macsec_sa_pkts_invalid),
211 : : HW_XSTAT(rx_macsec_sa_pkts_notvalid),
212 : : HW_XSTAT(rx_macsec_sa_pkts_unusedsa),
213 : : HW_XSTAT(rx_macsec_sa_pkts_notusingsa),
214 : :
215 : : /* MAC RxTx */
216 : : HW_XSTAT(rx_size_64_packets),
217 : : HW_XSTAT(rx_size_65_to_127_packets),
218 : : HW_XSTAT(rx_size_128_to_255_packets),
219 : : HW_XSTAT(rx_size_256_to_511_packets),
220 : : HW_XSTAT(rx_size_512_to_1023_packets),
221 : : HW_XSTAT(rx_size_1024_to_max_packets),
222 : : HW_XSTAT(tx_size_64_packets),
223 : : HW_XSTAT(tx_size_65_to_127_packets),
224 : : HW_XSTAT(tx_size_128_to_255_packets),
225 : : HW_XSTAT(tx_size_256_to_511_packets),
226 : : HW_XSTAT(tx_size_512_to_1023_packets),
227 : : HW_XSTAT(tx_size_1024_to_max_packets),
228 : :
229 : : /* Flow Control */
230 : : HW_XSTAT(tx_xon_packets),
231 : : HW_XSTAT(rx_xon_packets),
232 : : HW_XSTAT(tx_xoff_packets),
233 : : HW_XSTAT(rx_xoff_packets),
234 : :
235 : : HW_XSTAT_NAME(tx_xon_packets, "tx_flow_control_xon_packets"),
236 : : HW_XSTAT_NAME(rx_xon_packets, "rx_flow_control_xon_packets"),
237 : : HW_XSTAT_NAME(tx_xoff_packets, "tx_flow_control_xoff_packets"),
238 : : HW_XSTAT_NAME(rx_xoff_packets, "rx_flow_control_xoff_packets"),
239 : : };
240 : :
241 : : #define NGBE_NB_HW_STATS (sizeof(rte_ngbe_stats_strings) / \
242 : : sizeof(rte_ngbe_stats_strings[0]))
243 : :
244 : : /* Per-queue statistics */
245 : : #define QP_XSTAT(m) {#m, offsetof(struct ngbe_hw_stats, qp[0].m)}
246 : : static const struct rte_ngbe_xstats_name_off rte_ngbe_qp_strings[] = {
247 : : QP_XSTAT(rx_qp_packets),
248 : : QP_XSTAT(tx_qp_packets),
249 : : QP_XSTAT(rx_qp_bytes),
250 : : QP_XSTAT(tx_qp_bytes),
251 : : QP_XSTAT(rx_qp_mc_packets),
252 : : };
253 : :
254 : : #define NGBE_NB_QP_STATS (sizeof(rte_ngbe_qp_strings) / \
255 : : sizeof(rte_ngbe_qp_strings[0]))
256 : :
257 : : static inline int32_t
258 : : ngbe_pf_reset_hw(struct ngbe_hw *hw)
259 : : {
260 : : uint32_t ctrl_ext;
261 : : int32_t status;
262 : :
263 : 0 : status = hw->mac.reset_hw(hw);
264 : :
265 : : ctrl_ext = rd32(hw, NGBE_PORTCTL);
266 : : /* let hardware know driver is loaded */
267 : : ctrl_ext |= NGBE_PORTCTL_DRVLOAD;
268 : : /* Set PF Reset Done bit so PF/VF Mail Ops can work */
269 : 0 : ctrl_ext |= NGBE_PORTCTL_RSTDONE;
270 : : wr32(hw, NGBE_PORTCTL, ctrl_ext);
271 : : ngbe_flush(hw);
272 : :
273 [ # # ]: 0 : if (status == NGBE_ERR_SFP_NOT_PRESENT)
274 : : status = 0;
275 : : return status;
276 : : }
277 : :
278 : : static inline void
279 : : ngbe_enable_intr(struct rte_eth_dev *dev)
280 : : {
281 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
282 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
283 : :
284 : 0 : wr32(hw, NGBE_IENMISC, intr->mask_misc);
285 : 0 : wr32(hw, NGBE_IMC(0), intr->mask & BIT_MASK32);
286 : : ngbe_flush(hw);
287 : 0 : }
288 : :
289 : : static void
290 : 0 : ngbe_disable_intr(struct ngbe_hw *hw)
291 : : {
292 : 0 : PMD_INIT_FUNC_TRACE();
293 : :
294 : : wr32(hw, NGBE_IMS(0), NGBE_IMS_MASK);
295 : : ngbe_flush(hw);
296 : 0 : }
297 : :
298 : : /*
299 : : * Ensure that all locks are released before first NVM or PHY access
300 : : */
301 : : static void
302 : 0 : ngbe_swfw_lock_reset(struct ngbe_hw *hw)
303 : : {
304 : : uint16_t mask;
305 : :
306 : : /*
307 : : * These ones are more tricky since they are common to all ports; but
308 : : * swfw_sync retries last long enough (1s) to be almost sure that if
309 : : * lock can not be taken it is due to an improper lock of the
310 : : * semaphore.
311 : : */
312 : : mask = NGBE_MNGSEM_SWPHY |
313 : : NGBE_MNGSEM_SWMBX |
314 : : NGBE_MNGSEM_SWFLASH;
315 [ # # ]: 0 : if (hw->mac.acquire_swfw_sync(hw, mask) < 0)
316 : 0 : PMD_DRV_LOG(DEBUG, "SWFW common locks released");
317 : :
318 : 0 : hw->mac.release_swfw_sync(hw, mask);
319 : 0 : }
320 : :
321 : : static int
322 : 0 : eth_ngbe_dev_init(struct rte_eth_dev *eth_dev, void *init_params __rte_unused)
323 : : {
324 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(eth_dev);
325 : : struct ngbe_hw *hw = ngbe_dev_hw(eth_dev);
326 : 0 : struct ngbe_vfta *shadow_vfta = NGBE_DEV_VFTA(eth_dev);
327 : : struct ngbe_hwstrip *hwstrip = NGBE_DEV_HWSTRIP(eth_dev);
328 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
329 : : const struct rte_memzone *mz;
330 : : uint32_t ctrl_ext;
331 : 0 : u32 led_conf = 0;
332 : : int err, ret;
333 : :
334 : 0 : PMD_INIT_FUNC_TRACE();
335 : :
336 : 0 : eth_dev->dev_ops = &ngbe_eth_dev_ops;
337 : 0 : eth_dev->rx_queue_count = ngbe_dev_rx_queue_count;
338 : 0 : eth_dev->rx_descriptor_status = ngbe_dev_rx_descriptor_status;
339 : 0 : eth_dev->tx_descriptor_status = ngbe_dev_tx_descriptor_status;
340 : 0 : eth_dev->rx_pkt_burst = &ngbe_recv_pkts;
341 : 0 : eth_dev->tx_pkt_burst = &ngbe_xmit_pkts;
342 : 0 : eth_dev->tx_pkt_prepare = &ngbe_prep_pkts;
343 : :
344 : : /*
345 : : * For secondary processes, we don't initialise any further as primary
346 : : * has already done this work. Only check we don't need a different
347 : : * Rx and Tx function.
348 : : */
349 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY) {
350 : : struct ngbe_tx_queue *txq;
351 : : /* Tx queue function in primary, set by last queue initialized
352 : : * Tx queue may not initialized by primary process
353 : : */
354 [ # # ]: 0 : if (eth_dev->data->tx_queues) {
355 : 0 : uint16_t nb_tx_queues = eth_dev->data->nb_tx_queues;
356 : 0 : txq = eth_dev->data->tx_queues[nb_tx_queues - 1];
357 : 0 : ngbe_set_tx_function(eth_dev, txq);
358 : : } else {
359 : : /* Use default Tx function if we get here */
360 : 0 : PMD_INIT_LOG(NOTICE,
361 : : "No Tx queues configured yet. Using default Tx function.");
362 : : }
363 : :
364 : 0 : ngbe_set_rx_function(eth_dev);
365 : :
366 : 0 : return 0;
367 : : }
368 : :
369 : 0 : rte_eth_copy_pci_info(eth_dev, pci_dev);
370 : 0 : eth_dev->data->dev_flags |= RTE_ETH_DEV_AUTOFILL_QUEUE_XSTATS;
371 : :
372 : 0 : hw->hw_addr = (void *)pci_dev->mem_resource[0].addr;
373 : :
374 : : /* Vendor and Device ID need to be set before init of shared code */
375 : 0 : hw->back = pci_dev;
376 : 0 : hw->port_id = eth_dev->data->port_id;
377 : 0 : hw->device_id = pci_dev->id.device_id;
378 : 0 : hw->vendor_id = pci_dev->id.vendor_id;
379 [ # # ]: 0 : if (pci_dev->id.subsystem_vendor_id == PCI_VENDOR_ID_WANGXUN) {
380 : 0 : hw->sub_system_id = pci_dev->id.subsystem_device_id;
381 : : } else {
382 : 0 : u32 ssid = 0;
383 : :
384 : 0 : err = ngbe_flash_read_dword(hw, 0xFFFDC, &ssid);
385 [ # # ]: 0 : if (err) {
386 : 0 : PMD_INIT_LOG(ERR,
387 : : "Read of internal subsystem device id failed");
388 : 0 : return -ENODEV;
389 : : }
390 : 0 : hw->sub_system_id = (u16)ssid >> 8 | (u16)ssid << 8;
391 : : }
392 : 0 : ngbe_map_device_id(hw);
393 : :
394 : : /* Reserve memory for interrupt status block */
395 : 0 : mz = rte_eth_dma_zone_reserve(eth_dev, "ngbe_driver", -1,
396 : : NGBE_ISB_SIZE, NGBE_ALIGN, SOCKET_ID_ANY);
397 [ # # ]: 0 : if (mz == NULL)
398 : : return -ENOMEM;
399 : :
400 : 0 : hw->isb_dma = TMZ_PADDR(mz);
401 : 0 : hw->isb_mem = TMZ_VADDR(mz);
402 : :
403 : : /* Initialize the shared code (base driver) */
404 : 0 : err = ngbe_init_shared_code(hw);
405 [ # # ]: 0 : if (err != 0) {
406 : 0 : PMD_INIT_LOG(ERR, "Shared code init failed: %d", err);
407 : 0 : return -EIO;
408 : : }
409 : :
410 : : /* Unlock any pending hardware semaphore */
411 : 0 : ngbe_swfw_lock_reset(hw);
412 : 0 : ngbe_set_ncsi_status(hw);
413 : :
414 : : /* Get Hardware Flow Control setting */
415 : 0 : hw->fc.requested_mode = ngbe_fc_full;
416 : 0 : hw->fc.current_mode = ngbe_fc_full;
417 : 0 : hw->fc.pause_time = NGBE_FC_PAUSE_TIME;
418 : 0 : hw->fc.low_water = NGBE_FC_XON_LOTH;
419 : 0 : hw->fc.high_water = NGBE_FC_XOFF_HITH;
420 : 0 : hw->fc.send_xon = 1;
421 : :
422 : 0 : err = hw->rom.init_params(hw);
423 [ # # ]: 0 : if (err != 0) {
424 : 0 : PMD_INIT_LOG(ERR, "The EEPROM init failed: %d", err);
425 : 0 : return -EIO;
426 : : }
427 : :
428 : : /* Make sure we have a good EEPROM before we read from it */
429 : 0 : err = hw->rom.validate_checksum(hw, NULL);
430 [ # # ]: 0 : if (err != 0) {
431 : 0 : PMD_INIT_LOG(ERR, "The EEPROM checksum is not valid: %d", err);
432 : 0 : return -EIO;
433 : : }
434 : :
435 : 0 : err = hw->phy.led_oem_chk(hw, &led_conf);
436 [ # # ]: 0 : if (err == 0)
437 : 0 : hw->led_conf = led_conf;
438 : : else
439 : 0 : hw->led_conf = 0xFFFF;
440 : :
441 : 0 : err = hw->mac.init_hw(hw);
442 [ # # ]: 0 : if (err != 0) {
443 : 0 : PMD_INIT_LOG(ERR, "Hardware Initialization Failure: %d", err);
444 : 0 : return -EIO;
445 : : }
446 : :
447 : : /* Reset the hw statistics */
448 : 0 : ngbe_dev_stats_reset(eth_dev);
449 : :
450 : : /* disable interrupt */
451 : 0 : ngbe_disable_intr(hw);
452 : :
453 : : /* Allocate memory for storing MAC addresses */
454 : 0 : eth_dev->data->mac_addrs = rte_zmalloc("ngbe", RTE_ETHER_ADDR_LEN *
455 : 0 : hw->mac.num_rar_entries, 0);
456 [ # # ]: 0 : if (eth_dev->data->mac_addrs == NULL) {
457 : 0 : PMD_INIT_LOG(ERR,
458 : : "Failed to allocate %u bytes needed to store MAC addresses",
459 : : RTE_ETHER_ADDR_LEN * hw->mac.num_rar_entries);
460 : 0 : return -ENOMEM;
461 : : }
462 : :
463 : : /* Copy the permanent MAC address */
464 : : rte_ether_addr_copy((struct rte_ether_addr *)hw->mac.perm_addr,
465 : : ð_dev->data->mac_addrs[0]);
466 : :
467 : : /* Allocate memory for storing hash filter MAC addresses */
468 : 0 : eth_dev->data->hash_mac_addrs = rte_zmalloc("ngbe",
469 : : RTE_ETHER_ADDR_LEN * NGBE_VMDQ_NUM_UC_MAC, 0);
470 [ # # ]: 0 : if (eth_dev->data->hash_mac_addrs == NULL) {
471 : 0 : PMD_INIT_LOG(ERR,
472 : : "Failed to allocate %d bytes needed to store MAC addresses",
473 : : RTE_ETHER_ADDR_LEN * NGBE_VMDQ_NUM_UC_MAC);
474 : 0 : rte_free(eth_dev->data->mac_addrs);
475 : 0 : eth_dev->data->mac_addrs = NULL;
476 : 0 : return -ENOMEM;
477 : : }
478 : :
479 : : /* initialize the vfta */
480 : : memset(shadow_vfta, 0, sizeof(*shadow_vfta));
481 : :
482 : : /* initialize the hw strip bitmap*/
483 : : memset(hwstrip, 0, sizeof(*hwstrip));
484 : :
485 : : /* initialize PF if max_vfs not zero */
486 : 0 : ret = ngbe_pf_host_init(eth_dev);
487 [ # # ]: 0 : if (ret) {
488 : 0 : rte_free(eth_dev->data->mac_addrs);
489 : 0 : eth_dev->data->mac_addrs = NULL;
490 : 0 : rte_free(eth_dev->data->hash_mac_addrs);
491 : 0 : eth_dev->data->hash_mac_addrs = NULL;
492 : 0 : return ret;
493 : : }
494 : :
495 : : ctrl_ext = rd32(hw, NGBE_PORTCTL);
496 : : /* let hardware know driver is loaded */
497 : : ctrl_ext |= NGBE_PORTCTL_DRVLOAD;
498 : : /* Set PF Reset Done bit so PF/VF Mail Ops can work */
499 : 0 : ctrl_ext |= NGBE_PORTCTL_RSTDONE;
500 : : wr32(hw, NGBE_PORTCTL, ctrl_ext);
501 : : ngbe_flush(hw);
502 : :
503 : 0 : PMD_INIT_LOG(DEBUG, "MAC: %d, PHY: %d",
504 : : (int)hw->mac.type, (int)hw->phy.type);
505 : :
506 : 0 : PMD_INIT_LOG(DEBUG, "port %d vendorID=0x%x deviceID=0x%x",
507 : : eth_dev->data->port_id, pci_dev->id.vendor_id,
508 : : pci_dev->id.device_id);
509 : :
510 : 0 : rte_intr_callback_register(intr_handle,
511 : : ngbe_dev_interrupt_handler, eth_dev);
512 : :
513 : : /* enable uio/vfio intr/eventfd mapping */
514 : 0 : rte_intr_enable(intr_handle);
515 : :
516 : : /* enable support intr */
517 : : ngbe_enable_intr(eth_dev);
518 : :
519 : 0 : return 0;
520 : : }
521 : :
522 : : static int
523 : 0 : eth_ngbe_dev_uninit(struct rte_eth_dev *eth_dev)
524 : : {
525 : 0 : PMD_INIT_FUNC_TRACE();
526 : :
527 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY)
528 : : return 0;
529 : :
530 : 0 : ngbe_dev_close(eth_dev);
531 : :
532 : 0 : return 0;
533 : : }
534 : :
535 : : static int
536 : 0 : eth_ngbe_pci_probe(struct rte_pci_driver *pci_drv __rte_unused,
537 : : struct rte_pci_device *pci_dev)
538 : : {
539 : 0 : return rte_eth_dev_create(&pci_dev->device, pci_dev->device.name,
540 : : sizeof(struct ngbe_adapter),
541 : : eth_dev_pci_specific_init, pci_dev,
542 : : eth_ngbe_dev_init, NULL);
543 : : }
544 : :
545 : 0 : static int eth_ngbe_pci_remove(struct rte_pci_device *pci_dev)
546 : : {
547 : : struct rte_eth_dev *ethdev;
548 : :
549 : 0 : ethdev = rte_eth_dev_allocated(pci_dev->device.name);
550 [ # # ]: 0 : if (ethdev == NULL)
551 : : return 0;
552 : :
553 : 0 : return rte_eth_dev_pci_generic_remove(pci_dev, eth_ngbe_dev_uninit);
554 : : }
555 : :
556 : : static struct rte_pci_driver rte_ngbe_pmd = {
557 : : .id_table = pci_id_ngbe_map,
558 : : .drv_flags = RTE_PCI_DRV_NEED_MAPPING |
559 : : RTE_PCI_DRV_INTR_LSC,
560 : : .probe = eth_ngbe_pci_probe,
561 : : .remove = eth_ngbe_pci_remove,
562 : : };
563 : :
564 : : static int
565 : 0 : ngbe_vlan_filter_set(struct rte_eth_dev *dev, uint16_t vlan_id, int on)
566 : : {
567 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
568 : : struct ngbe_vfta *shadow_vfta = NGBE_DEV_VFTA(dev);
569 : : uint32_t vfta;
570 : : uint32_t vid_idx;
571 : : uint32_t vid_bit;
572 : :
573 : 0 : vid_idx = (uint32_t)((vlan_id >> 5) & 0x7F);
574 : 0 : vid_bit = (uint32_t)(1 << (vlan_id & 0x1F));
575 : 0 : vfta = rd32(hw, NGBE_VLANTBL(vid_idx));
576 [ # # ]: 0 : if (on)
577 : 0 : vfta |= vid_bit;
578 : : else
579 : 0 : vfta &= ~vid_bit;
580 : : wr32(hw, NGBE_VLANTBL(vid_idx), vfta);
581 : :
582 : : /* update local VFTA copy */
583 : 0 : shadow_vfta->vfta[vid_idx] = vfta;
584 : :
585 : 0 : return 0;
586 : : }
587 : :
588 : : static void
589 : 0 : ngbe_vlan_strip_q_set(struct rte_eth_dev *dev, uint16_t queue, int on)
590 : : {
591 [ # # ]: 0 : if (on)
592 : 0 : ngbe_vlan_hw_strip_enable(dev, queue);
593 : : else
594 : 0 : ngbe_vlan_hw_strip_disable(dev, queue);
595 : 0 : }
596 : :
597 : : static void
598 [ # # ]: 0 : ngbe_vlan_strip_queue_set(struct rte_eth_dev *dev, uint16_t queue, int on)
599 : : {
600 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
601 : :
602 [ # # ]: 0 : if (!hw->adapter_stopped) {
603 : 0 : PMD_DRV_LOG(ERR, "Please stop port first");
604 : 0 : return;
605 : : }
606 : :
607 : 0 : ngbe_vlan_strip_q_set(dev, queue, on);
608 : : }
609 : :
610 : : static int
611 : 0 : ngbe_vlan_tpid_set(struct rte_eth_dev *dev,
612 : : enum rte_vlan_type vlan_type,
613 : : uint16_t tpid)
614 : : {
615 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
616 : : int ret = 0;
617 : : uint32_t portctrl, vlan_ext, qinq;
618 : :
619 : : portctrl = rd32(hw, NGBE_PORTCTL);
620 : :
621 : 0 : vlan_ext = (portctrl & NGBE_PORTCTL_VLANEXT);
622 [ # # # # ]: 0 : qinq = vlan_ext && (portctrl & NGBE_PORTCTL_QINQ);
623 [ # # # ]: 0 : switch (vlan_type) {
624 : 0 : case RTE_ETH_VLAN_TYPE_INNER:
625 [ # # ]: 0 : if (vlan_ext) {
626 : 0 : wr32m(hw, NGBE_VLANCTL,
627 : : NGBE_VLANCTL_TPID_MASK,
628 : : NGBE_VLANCTL_TPID(tpid));
629 : 0 : wr32m(hw, NGBE_DMATXCTRL,
630 : : NGBE_DMATXCTRL_TPID_MASK,
631 : : NGBE_DMATXCTRL_TPID(tpid));
632 : : } else {
633 : : ret = -ENOTSUP;
634 : 0 : PMD_DRV_LOG(ERR,
635 : : "Inner type is not supported by single VLAN");
636 : : }
637 : :
638 [ # # ]: 0 : if (qinq) {
639 : 0 : wr32m(hw, NGBE_TAGTPID(0),
640 : : NGBE_TAGTPID_LSB_MASK,
641 : : NGBE_TAGTPID_LSB(tpid));
642 : : }
643 : : break;
644 : 0 : case RTE_ETH_VLAN_TYPE_OUTER:
645 [ # # ]: 0 : if (vlan_ext) {
646 : : /* Only the high 16-bits is valid */
647 : 0 : wr32m(hw, NGBE_EXTAG,
648 : : NGBE_EXTAG_VLAN_MASK,
649 : 0 : NGBE_EXTAG_VLAN(tpid));
650 : : } else {
651 : 0 : wr32m(hw, NGBE_VLANCTL,
652 : : NGBE_VLANCTL_TPID_MASK,
653 : : NGBE_VLANCTL_TPID(tpid));
654 : 0 : wr32m(hw, NGBE_DMATXCTRL,
655 : : NGBE_DMATXCTRL_TPID_MASK,
656 : : NGBE_DMATXCTRL_TPID(tpid));
657 : : }
658 : :
659 [ # # ]: 0 : if (qinq) {
660 : 0 : wr32m(hw, NGBE_TAGTPID(0),
661 : : NGBE_TAGTPID_MSB_MASK,
662 : 0 : NGBE_TAGTPID_MSB(tpid));
663 : : }
664 : : break;
665 : 0 : default:
666 : 0 : PMD_DRV_LOG(ERR, "Unsupported VLAN type %d", vlan_type);
667 : 0 : return -EINVAL;
668 : : }
669 : :
670 : : return ret;
671 : : }
672 : :
673 : : void
674 : 0 : ngbe_vlan_hw_filter_disable(struct rte_eth_dev *dev)
675 : : {
676 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
677 : : uint32_t vlnctrl;
678 : :
679 : 0 : PMD_INIT_FUNC_TRACE();
680 : :
681 : : /* Filter Table Disable */
682 : : vlnctrl = rd32(hw, NGBE_VLANCTL);
683 : 0 : vlnctrl &= ~NGBE_VLANCTL_VFE;
684 : : wr32(hw, NGBE_VLANCTL, vlnctrl);
685 : 0 : }
686 : :
687 : : void
688 : 0 : ngbe_vlan_hw_filter_enable(struct rte_eth_dev *dev)
689 : : {
690 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
691 : : struct ngbe_vfta *shadow_vfta = NGBE_DEV_VFTA(dev);
692 : : uint32_t vlnctrl;
693 : : uint16_t i;
694 : :
695 : 0 : PMD_INIT_FUNC_TRACE();
696 : :
697 : : /* Filter Table Enable */
698 : : vlnctrl = rd32(hw, NGBE_VLANCTL);
699 : 0 : vlnctrl &= ~NGBE_VLANCTL_CFIENA;
700 : 0 : vlnctrl |= NGBE_VLANCTL_VFE;
701 : : wr32(hw, NGBE_VLANCTL, vlnctrl);
702 : :
703 : : /* write whatever is in local vfta copy */
704 [ # # ]: 0 : for (i = 0; i < NGBE_VFTA_SIZE; i++)
705 : 0 : wr32(hw, NGBE_VLANTBL(i), shadow_vfta->vfta[i]);
706 : 0 : }
707 : :
708 : : void
709 : 0 : ngbe_vlan_hw_strip_bitmap_set(struct rte_eth_dev *dev, uint16_t queue, bool on)
710 : : {
711 : 0 : struct ngbe_hwstrip *hwstrip = NGBE_DEV_HWSTRIP(dev);
712 : : struct ngbe_rx_queue *rxq;
713 : :
714 [ # # ]: 0 : if (queue >= NGBE_MAX_RX_QUEUE_NUM)
715 : : return;
716 : :
717 [ # # ]: 0 : if (on)
718 : 0 : NGBE_SET_HWSTRIP(hwstrip, queue);
719 : : else
720 : 0 : NGBE_CLEAR_HWSTRIP(hwstrip, queue);
721 : :
722 [ # # ]: 0 : if (queue >= dev->data->nb_rx_queues)
723 : : return;
724 : :
725 : 0 : rxq = dev->data->rx_queues[queue];
726 : :
727 [ # # ]: 0 : if (on) {
728 : 0 : rxq->vlan_flags = RTE_MBUF_F_RX_VLAN | RTE_MBUF_F_RX_VLAN_STRIPPED;
729 : 0 : rxq->offloads |= RTE_ETH_RX_OFFLOAD_VLAN_STRIP;
730 : : } else {
731 : 0 : rxq->vlan_flags = RTE_MBUF_F_RX_VLAN;
732 : 0 : rxq->offloads &= ~RTE_ETH_RX_OFFLOAD_VLAN_STRIP;
733 : : }
734 : : }
735 : :
736 : : static void
737 : 0 : ngbe_vlan_hw_strip_disable(struct rte_eth_dev *dev, uint16_t queue)
738 : : {
739 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
740 : : uint32_t ctrl;
741 : :
742 : 0 : PMD_INIT_FUNC_TRACE();
743 : :
744 : 0 : ctrl = rd32(hw, NGBE_RXCFG(queue));
745 : 0 : ctrl &= ~NGBE_RXCFG_VLAN;
746 : : wr32(hw, NGBE_RXCFG(queue), ctrl);
747 : :
748 : : /* record those setting for HW strip per queue */
749 : 0 : ngbe_vlan_hw_strip_bitmap_set(dev, queue, 0);
750 : 0 : }
751 : :
752 : : static void
753 : 0 : ngbe_vlan_hw_strip_enable(struct rte_eth_dev *dev, uint16_t queue)
754 : : {
755 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
756 : : uint32_t ctrl;
757 : :
758 : 0 : PMD_INIT_FUNC_TRACE();
759 : :
760 : 0 : ctrl = rd32(hw, NGBE_RXCFG(queue));
761 : 0 : ctrl |= NGBE_RXCFG_VLAN;
762 : : wr32(hw, NGBE_RXCFG(queue), ctrl);
763 : :
764 : : /* record those setting for HW strip per queue */
765 : 0 : ngbe_vlan_hw_strip_bitmap_set(dev, queue, 1);
766 : 0 : }
767 : :
768 : : static void
769 : 0 : ngbe_vlan_hw_extend_disable(struct rte_eth_dev *dev)
770 : : {
771 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
772 : : uint32_t ctrl;
773 : :
774 : 0 : PMD_INIT_FUNC_TRACE();
775 : :
776 : : ctrl = rd32(hw, NGBE_PORTCTL);
777 : : ctrl &= ~NGBE_PORTCTL_VLANEXT;
778 : 0 : ctrl &= ~NGBE_PORTCTL_QINQ;
779 : : wr32(hw, NGBE_PORTCTL, ctrl);
780 : 0 : }
781 : :
782 : : static void
783 : 0 : ngbe_vlan_hw_extend_enable(struct rte_eth_dev *dev)
784 : : {
785 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
786 : : uint32_t ctrl;
787 : :
788 : 0 : PMD_INIT_FUNC_TRACE();
789 : :
790 : : ctrl = rd32(hw, NGBE_PORTCTL);
791 : 0 : ctrl |= NGBE_PORTCTL_VLANEXT | NGBE_PORTCTL_QINQ;
792 : : wr32(hw, NGBE_PORTCTL, ctrl);
793 : 0 : }
794 : :
795 : : static void
796 : 0 : ngbe_qinq_hw_strip_disable(struct rte_eth_dev *dev)
797 : : {
798 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
799 : : uint32_t ctrl;
800 : :
801 : 0 : PMD_INIT_FUNC_TRACE();
802 : :
803 : : ctrl = rd32(hw, NGBE_PORTCTL);
804 : 0 : ctrl &= ~NGBE_PORTCTL_QINQ;
805 : : wr32(hw, NGBE_PORTCTL, ctrl);
806 : 0 : }
807 : :
808 : : static void
809 : 0 : ngbe_qinq_hw_strip_enable(struct rte_eth_dev *dev)
810 : : {
811 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
812 : : uint32_t ctrl;
813 : :
814 : 0 : PMD_INIT_FUNC_TRACE();
815 : :
816 : : ctrl = rd32(hw, NGBE_PORTCTL);
817 : 0 : ctrl |= NGBE_PORTCTL_QINQ | NGBE_PORTCTL_VLANEXT;
818 : : wr32(hw, NGBE_PORTCTL, ctrl);
819 : 0 : }
820 : :
821 : : void
822 : 0 : ngbe_vlan_hw_strip_config(struct rte_eth_dev *dev)
823 : : {
824 : : struct ngbe_rx_queue *rxq;
825 : : uint16_t i;
826 : :
827 : 0 : PMD_INIT_FUNC_TRACE();
828 : :
829 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
830 : 0 : rxq = dev->data->rx_queues[i];
831 : :
832 [ # # ]: 0 : if (rxq->offloads & RTE_ETH_RX_OFFLOAD_VLAN_STRIP)
833 : 0 : ngbe_vlan_strip_q_set(dev, i, 1);
834 : : else
835 : 0 : ngbe_vlan_strip_q_set(dev, i, 0);
836 : : }
837 : 0 : }
838 : :
839 : : void
840 : 0 : ngbe_config_vlan_strip_on_all_queues(struct rte_eth_dev *dev, int mask)
841 : : {
842 : : uint16_t i;
843 : : struct rte_eth_rxmode *rxmode;
844 : : struct ngbe_rx_queue *rxq;
845 : :
846 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_STRIP_MASK) {
847 : 0 : rxmode = &dev->data->dev_conf.rxmode;
848 [ # # ]: 0 : if (rxmode->offloads & RTE_ETH_RX_OFFLOAD_VLAN_STRIP)
849 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
850 : 0 : rxq = dev->data->rx_queues[i];
851 : 0 : rxq->offloads |= RTE_ETH_RX_OFFLOAD_VLAN_STRIP;
852 : : }
853 : : else
854 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
855 : 0 : rxq = dev->data->rx_queues[i];
856 : 0 : rxq->offloads &= ~RTE_ETH_RX_OFFLOAD_VLAN_STRIP;
857 : : }
858 : : }
859 : 0 : }
860 : :
861 : : static int
862 : 0 : ngbe_vlan_offload_config(struct rte_eth_dev *dev, int mask)
863 : : {
864 : : struct rte_eth_rxmode *rxmode;
865 : 0 : rxmode = &dev->data->dev_conf.rxmode;
866 : :
867 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_STRIP_MASK)
868 : 0 : ngbe_vlan_hw_strip_config(dev);
869 : :
870 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_FILTER_MASK) {
871 [ # # ]: 0 : if (rxmode->offloads & RTE_ETH_RX_OFFLOAD_VLAN_FILTER)
872 : 0 : ngbe_vlan_hw_filter_enable(dev);
873 : : else
874 : 0 : ngbe_vlan_hw_filter_disable(dev);
875 : : }
876 : :
877 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_EXTEND_MASK) {
878 [ # # ]: 0 : if (rxmode->offloads & RTE_ETH_RX_OFFLOAD_VLAN_EXTEND)
879 : 0 : ngbe_vlan_hw_extend_enable(dev);
880 : : else
881 : 0 : ngbe_vlan_hw_extend_disable(dev);
882 : : }
883 : :
884 [ # # ]: 0 : if (mask & RTE_ETH_QINQ_STRIP_MASK) {
885 [ # # ]: 0 : if (rxmode->offloads & RTE_ETH_RX_OFFLOAD_QINQ_STRIP)
886 : 0 : ngbe_qinq_hw_strip_enable(dev);
887 : : else
888 : 0 : ngbe_qinq_hw_strip_disable(dev);
889 : : }
890 : :
891 : 0 : return 0;
892 : : }
893 : :
894 : : static int
895 [ # # ]: 0 : ngbe_vlan_offload_set(struct rte_eth_dev *dev, int mask)
896 : : {
897 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
898 : :
899 [ # # # # ]: 0 : if (!hw->adapter_stopped && (mask & RTE_ETH_VLAN_STRIP_MASK)) {
900 : 0 : PMD_DRV_LOG(ERR, "Please stop port first");
901 : 0 : return -EPERM;
902 : : }
903 : :
904 : 0 : ngbe_config_vlan_strip_on_all_queues(dev, mask);
905 : :
906 : 0 : ngbe_vlan_offload_config(dev, mask);
907 : :
908 : 0 : return 0;
909 : : }
910 : :
911 : : static int
912 : 0 : ngbe_dev_configure(struct rte_eth_dev *dev)
913 : : {
914 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
915 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
916 : :
917 : 0 : PMD_INIT_FUNC_TRACE();
918 : :
919 [ # # ]: 0 : if (dev->data->dev_conf.rxmode.mq_mode & RTE_ETH_MQ_RX_RSS_FLAG)
920 : 0 : dev->data->dev_conf.rxmode.offloads |= RTE_ETH_RX_OFFLOAD_RSS_HASH;
921 : :
922 : : /* set flag to update link status after init */
923 : 0 : intr->flags |= NGBE_FLAG_NEED_LINK_UPDATE;
924 : :
925 : : /*
926 : : * Initialize to TRUE. If any of Rx queues doesn't meet the bulk
927 : : * allocation Rx preconditions we will reset it.
928 : : */
929 : 0 : adapter->rx_bulk_alloc_allowed = true;
930 : 0 : adapter->rx_vec_allowed = true;
931 : :
932 : 0 : return 0;
933 : : }
934 : :
935 : : static void
936 : 0 : ngbe_dev_phy_intr_setup(struct rte_eth_dev *dev)
937 : : {
938 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
939 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
940 : :
941 : : wr32(hw, NGBE_GPIODIR, NGBE_GPIODIR_DDR(1));
942 : : wr32(hw, NGBE_GPIOINTEN, NGBE_GPIOINTEN_INT(3));
943 : : wr32(hw, NGBE_GPIOINTTYPE, NGBE_GPIOINTTYPE_LEVEL(0));
944 [ # # ]: 0 : if (hw->phy.type == ngbe_phy_yt8521s_sfi)
945 : : wr32(hw, NGBE_GPIOINTPOL, NGBE_GPIOINTPOL_ACT(0));
946 : : else
947 : : wr32(hw, NGBE_GPIOINTPOL, NGBE_GPIOINTPOL_ACT(3));
948 : :
949 : 0 : intr->mask_misc |= NGBE_ICRMISC_GPIO | NGBE_ICRMISC_HEAT;
950 : 0 : }
951 : :
952 : : /*
953 : : * Configure device link speed and setup link.
954 : : * It returns 0 on success.
955 : : */
956 : : static int
957 : 0 : ngbe_dev_start(struct rte_eth_dev *dev)
958 : : {
959 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
960 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
961 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
962 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
963 : : uint32_t intr_vector = 0;
964 : : int err;
965 : 0 : bool link_up = false, negotiate = false;
966 : 0 : uint32_t speed = 0;
967 : : uint32_t allowed_speeds = 0;
968 : : int mask = 0;
969 : : int status;
970 : : uint32_t *link_speeds;
971 : :
972 : 0 : PMD_INIT_FUNC_TRACE();
973 : :
974 : : /* disable uio/vfio intr/eventfd mapping */
975 : 0 : rte_intr_disable(intr_handle);
976 : :
977 : : /* stop adapter */
978 : 0 : hw->adapter_stopped = 0;
979 : :
980 : : /* reinitialize adapter, this calls reset and start */
981 : 0 : hw->nb_rx_queues = dev->data->nb_rx_queues;
982 : 0 : hw->nb_tx_queues = dev->data->nb_tx_queues;
983 : : status = ngbe_pf_reset_hw(hw);
984 [ # # ]: 0 : if (status != 0)
985 : : return -1;
986 : 0 : hw->mac.start_hw(hw);
987 : 0 : hw->mac.get_link_status = true;
988 : :
989 : 0 : ngbe_set_pcie_master(hw, true);
990 : :
991 : : /* configure PF module if SRIOV enabled */
992 : 0 : ngbe_pf_host_configure(dev);
993 : :
994 : 0 : ngbe_dev_phy_intr_setup(dev);
995 : :
996 : : /* check and configure queue intr-vector mapping */
997 [ # # ]: 0 : if ((rte_intr_cap_multiple(intr_handle) ||
998 [ # # ]: 0 : !RTE_ETH_DEV_SRIOV(dev).active) &&
999 [ # # ]: 0 : dev->data->dev_conf.intr_conf.rxq != 0) {
1000 : 0 : intr_vector = dev->data->nb_rx_queues;
1001 [ # # ]: 0 : if (rte_intr_efd_enable(intr_handle, intr_vector))
1002 : : return -1;
1003 : : }
1004 : :
1005 [ # # ]: 0 : if (rte_intr_dp_is_en(intr_handle)) {
1006 [ # # ]: 0 : if (rte_intr_vec_list_alloc(intr_handle, "intr_vec",
1007 : 0 : dev->data->nb_rx_queues)) {
1008 : 0 : PMD_INIT_LOG(ERR,
1009 : : "Failed to allocate %d rx_queues intr_vec",
1010 : : dev->data->nb_rx_queues);
1011 : 0 : return -ENOMEM;
1012 : : }
1013 : : }
1014 : :
1015 : : /* configure MSI-X for sleep until Rx interrupt */
1016 : 0 : ngbe_configure_msix(dev);
1017 : :
1018 : : /* initialize transmission unit */
1019 : 0 : ngbe_dev_tx_init(dev);
1020 : :
1021 : : /* This can fail when allocating mbufs for descriptor rings */
1022 : 0 : err = ngbe_dev_rx_init(dev);
1023 [ # # ]: 0 : if (err != 0) {
1024 : 0 : PMD_INIT_LOG(ERR, "Unable to initialize Rx hardware");
1025 : 0 : goto error;
1026 : : }
1027 : :
1028 : : mask = RTE_ETH_VLAN_STRIP_MASK | RTE_ETH_VLAN_FILTER_MASK |
1029 : : RTE_ETH_VLAN_EXTEND_MASK;
1030 : 0 : err = ngbe_vlan_offload_config(dev, mask);
1031 [ # # ]: 0 : if (err != 0) {
1032 : 0 : PMD_INIT_LOG(ERR, "Unable to set VLAN offload");
1033 : 0 : goto error;
1034 : : }
1035 : :
1036 : 0 : hw->mac.setup_pba(hw);
1037 : 0 : ngbe_pbthresh_set(dev);
1038 : 0 : ngbe_configure_port(dev);
1039 : :
1040 : 0 : err = ngbe_dev_rxtx_start(dev);
1041 [ # # ]: 0 : if (err < 0) {
1042 : 0 : PMD_INIT_LOG(ERR, "Unable to start rxtx queues");
1043 : 0 : goto error;
1044 : : }
1045 : :
1046 : : /* Skip link setup if loopback mode is enabled. */
1047 [ # # # # ]: 0 : if (hw->is_pf && dev->data->dev_conf.lpbk_mode)
1048 : 0 : goto skip_link_setup;
1049 : :
1050 : 0 : hw->lsc = dev->data->dev_conf.intr_conf.lsc;
1051 : :
1052 : 0 : err = hw->mac.check_link(hw, &speed, &link_up, 0);
1053 [ # # ]: 0 : if (err != 0)
1054 : 0 : goto error;
1055 : 0 : dev->data->dev_link.link_status = link_up;
1056 : :
1057 : : link_speeds = &dev->data->dev_conf.link_speeds;
1058 [ # # ]: 0 : if (*link_speeds == RTE_ETH_LINK_SPEED_AUTONEG)
1059 : 0 : negotiate = true;
1060 : :
1061 : 0 : err = hw->mac.get_link_capabilities(hw, &speed, &negotiate);
1062 [ # # ]: 0 : if (err != 0)
1063 : 0 : goto error;
1064 : :
1065 : : allowed_speeds = 0;
1066 [ # # ]: 0 : if (hw->mac.default_speeds & NGBE_LINK_SPEED_1GB_FULL)
1067 : : allowed_speeds |= RTE_ETH_LINK_SPEED_1G;
1068 [ # # ]: 0 : if (hw->mac.default_speeds & NGBE_LINK_SPEED_100M_FULL)
1069 : 0 : allowed_speeds |= RTE_ETH_LINK_SPEED_100M;
1070 [ # # ]: 0 : if (hw->mac.default_speeds & NGBE_LINK_SPEED_10M_FULL)
1071 : 0 : allowed_speeds |= RTE_ETH_LINK_SPEED_10M;
1072 : :
1073 [ # # ]: 0 : if (((*link_speeds) >> 1) & ~(allowed_speeds >> 1)) {
1074 : 0 : PMD_INIT_LOG(ERR, "Invalid link setting");
1075 : 0 : goto error;
1076 : : }
1077 : :
1078 : 0 : speed = 0x0;
1079 [ # # ]: 0 : if (*link_speeds == RTE_ETH_LINK_SPEED_AUTONEG) {
1080 : 0 : speed = hw->mac.default_speeds;
1081 : : } else {
1082 [ # # ]: 0 : if (*link_speeds & RTE_ETH_LINK_SPEED_1G)
1083 : 0 : speed |= NGBE_LINK_SPEED_1GB_FULL;
1084 [ # # ]: 0 : if (*link_speeds & RTE_ETH_LINK_SPEED_100M)
1085 : 0 : speed |= NGBE_LINK_SPEED_100M_FULL;
1086 [ # # ]: 0 : if (*link_speeds & RTE_ETH_LINK_SPEED_10M)
1087 : 0 : speed |= NGBE_LINK_SPEED_10M_FULL;
1088 : : }
1089 : :
1090 [ # # ]: 0 : if (!hw->ncsi_enabled) {
1091 : 0 : err = hw->phy.init_hw(hw);
1092 [ # # ]: 0 : if (err != 0) {
1093 : 0 : PMD_INIT_LOG(ERR, "PHY init failed");
1094 : 0 : goto error;
1095 : : }
1096 : : }
1097 : 0 : err = hw->mac.setup_link(hw, speed, link_up);
1098 [ # # ]: 0 : if (err != 0)
1099 : 0 : goto error;
1100 : :
1101 : 0 : skip_link_setup:
1102 : :
1103 [ # # ]: 0 : if (rte_intr_allow_others(intr_handle)) {
1104 : : ngbe_dev_misc_interrupt_setup(dev);
1105 : : /* check if lsc interrupt is enabled */
1106 : 0 : if (dev->data->dev_conf.intr_conf.lsc != 0)
1107 : 0 : ngbe_dev_lsc_interrupt_setup(dev, TRUE);
1108 : : else
1109 : 0 : ngbe_dev_lsc_interrupt_setup(dev, FALSE);
1110 : : ngbe_dev_macsec_interrupt_setup(dev);
1111 : 0 : ngbe_set_ivar_map(hw, -1, 1, NGBE_MISC_VEC_ID);
1112 : : } else {
1113 : 0 : rte_intr_callback_unregister(intr_handle,
1114 : : ngbe_dev_interrupt_handler, dev);
1115 [ # # ]: 0 : if (dev->data->dev_conf.intr_conf.lsc != 0)
1116 : 0 : PMD_INIT_LOG(INFO,
1117 : : "LSC won't enable because of no intr multiplex");
1118 : : }
1119 : :
1120 : : /* check if rxq interrupt is enabled */
1121 [ # # # # ]: 0 : if (dev->data->dev_conf.intr_conf.rxq != 0 &&
1122 : 0 : rte_intr_dp_is_en(intr_handle))
1123 : : ngbe_dev_rxq_interrupt_setup(dev);
1124 : :
1125 : : /* enable UIO/VFIO intr/eventfd mapping */
1126 : 0 : rte_intr_enable(intr_handle);
1127 : :
1128 : : /* resume enabled intr since HW reset */
1129 : : ngbe_enable_intr(dev);
1130 : :
1131 [ # # ]: 0 : if (hw->gpio_ctl) {
1132 : : /* gpio0 is used to power on/off control*/
1133 : : wr32(hw, NGBE_GPIODATA, 0);
1134 : : }
1135 : :
1136 : : /*
1137 : : * Update link status right before return, because it may
1138 : : * start link configuration process in a separate thread.
1139 : : */
1140 : : ngbe_dev_link_update(dev, 0);
1141 : :
1142 : 0 : ngbe_read_stats_registers(hw, hw_stats);
1143 : 0 : hw->offset_loaded = 1;
1144 : :
1145 : 0 : return 0;
1146 : :
1147 : 0 : error:
1148 : 0 : PMD_INIT_LOG(ERR, "failure in dev start: %d", err);
1149 : 0 : ngbe_dev_clear_queues(dev);
1150 : 0 : return -EIO;
1151 : : }
1152 : :
1153 : : /*
1154 : : * Stop device: disable rx and tx functions to allow for reconfiguring.
1155 : : */
1156 : : static int
1157 [ # # ]: 0 : ngbe_dev_stop(struct rte_eth_dev *dev)
1158 : : {
1159 : : struct rte_eth_link link;
1160 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
1161 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1162 : 0 : struct ngbe_vf_info *vfinfo = *NGBE_DEV_VFDATA(dev);
1163 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
1164 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
1165 : : int vf;
1166 : :
1167 [ # # ]: 0 : if (hw->adapter_stopped)
1168 : 0 : goto out;
1169 : :
1170 : 0 : PMD_INIT_FUNC_TRACE();
1171 : :
1172 [ # # ]: 0 : if (hw->gpio_ctl) {
1173 : : /* gpio0 is used to power on/off control*/
1174 : : wr32(hw, NGBE_GPIODATA, NGBE_GPIOBIT_0);
1175 : : }
1176 : :
1177 : : /* disable interrupts */
1178 : 0 : ngbe_disable_intr(hw);
1179 : :
1180 : : /* reset the NIC */
1181 : : ngbe_pf_reset_hw(hw);
1182 : 0 : hw->adapter_stopped = 0;
1183 : :
1184 : : /* stop adapter */
1185 : 0 : ngbe_stop_hw(hw);
1186 : :
1187 [ # # # # ]: 0 : for (vf = 0; vfinfo != NULL && vf < pci_dev->max_vfs; vf++)
1188 : 0 : vfinfo[vf].clear_to_send = false;
1189 : :
1190 : 0 : ngbe_dev_clear_queues(dev);
1191 : :
1192 : : /* Clear stored conf */
1193 : 0 : dev->data->scattered_rx = 0;
1194 : :
1195 : : /* Clear recorded link status */
1196 : : memset(&link, 0, sizeof(link));
1197 : 0 : rte_eth_linkstatus_set(dev, &link);
1198 : :
1199 [ # # ]: 0 : if (!rte_intr_allow_others(intr_handle))
1200 : : /* resume to the default handler */
1201 : 0 : rte_intr_callback_register(intr_handle,
1202 : : ngbe_dev_interrupt_handler,
1203 : : (void *)dev);
1204 : :
1205 : : /* Clean datapath event and queue/vec mapping */
1206 : 0 : rte_intr_efd_disable(intr_handle);
1207 : 0 : rte_intr_vec_list_free(intr_handle);
1208 : :
1209 : 0 : ngbe_set_pcie_master(hw, true);
1210 : :
1211 : 0 : adapter->rss_reta_updated = 0;
1212 : :
1213 : 0 : hw->adapter_stopped = true;
1214 : 0 : dev->data->dev_started = 0;
1215 : :
1216 : 0 : out:
1217 : : /* close phy to prevent reset in dev_close from restarting physical link */
1218 [ # # # # ]: 0 : if (!(hw->wol_enabled || hw->ncsi_enabled))
1219 : 0 : hw->phy.set_phy_power(hw, false);
1220 : :
1221 : 0 : return 0;
1222 : : }
1223 : :
1224 : : /*
1225 : : * Set device link up: power on.
1226 : : */
1227 : : static int
1228 [ # # ]: 0 : ngbe_dev_set_link_up(struct rte_eth_dev *dev)
1229 : : {
1230 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1231 : :
1232 [ # # # # : 0 : if (!(hw->ncsi_enabled || hw->wol_enabled))
# # # # ]
1233 : 0 : hw->phy.set_phy_power(hw, true);
1234 : :
1235 : 0 : return 0;
1236 : : }
1237 : :
1238 : : /*
1239 : : * Set device link down: power off.
1240 : : */
1241 : : static int
1242 [ # # ]: 0 : ngbe_dev_set_link_down(struct rte_eth_dev *dev)
1243 : : {
1244 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1245 : :
1246 [ # # # # : 0 : if (!(hw->ncsi_enabled || hw->wol_enabled))
# # # # ]
1247 : 0 : hw->phy.set_phy_power(hw, false);
1248 : :
1249 : 0 : return 0;
1250 : : }
1251 : :
1252 : : /*
1253 : : * Reset and stop device.
1254 : : */
1255 : : static int
1256 : 0 : ngbe_dev_close(struct rte_eth_dev *dev)
1257 : : {
1258 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1259 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
1260 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
1261 : : int retries = 0;
1262 : : int ret;
1263 : :
1264 : 0 : PMD_INIT_FUNC_TRACE();
1265 : :
1266 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY)
1267 : : return 0;
1268 : :
1269 : : ngbe_pf_reset_hw(hw);
1270 : :
1271 : 0 : ngbe_dev_stop(dev);
1272 : :
1273 : : /* Let firmware take over control of hardware */
1274 : : wr32m(hw, NGBE_PORTCTL, NGBE_PORTCTL_DRVLOAD, 0);
1275 : :
1276 : 0 : ngbe_dev_free_queues(dev);
1277 : :
1278 : 0 : ngbe_set_pcie_master(hw, false);
1279 : :
1280 : : /* reprogram the RAR[0] in case user changed it. */
1281 : 0 : ngbe_set_rar(hw, 0, hw->mac.addr, 0, true);
1282 : :
1283 : : /* Unlock any pending hardware semaphore */
1284 : 0 : ngbe_swfw_lock_reset(hw);
1285 : :
1286 : : /* disable uio intr before callback unregister */
1287 : 0 : rte_intr_disable(intr_handle);
1288 : :
1289 : : do {
1290 : 0 : ret = rte_intr_callback_unregister(intr_handle,
1291 : : ngbe_dev_interrupt_handler, dev);
1292 [ # # ]: 0 : if (ret >= 0 || ret == -ENOENT) {
1293 : : break;
1294 [ # # ]: 0 : } else if (ret != -EAGAIN) {
1295 : 0 : PMD_INIT_LOG(ERR,
1296 : : "intr callback unregister failed: %d",
1297 : : ret);
1298 : : }
1299 : : rte_delay_ms(100);
1300 [ # # ]: 0 : } while (retries++ < (10 + NGBE_LINK_UP_TIME));
1301 : :
1302 : : /* uninitialize PF if max_vfs not zero */
1303 : 0 : ngbe_pf_host_uninit(dev);
1304 : :
1305 : 0 : rte_free(dev->data->mac_addrs);
1306 : 0 : dev->data->mac_addrs = NULL;
1307 : :
1308 : 0 : rte_free(dev->data->hash_mac_addrs);
1309 : 0 : dev->data->hash_mac_addrs = NULL;
1310 : :
1311 : 0 : return ret;
1312 : : }
1313 : :
1314 : : /*
1315 : : * Reset PF device.
1316 : : */
1317 : : static int
1318 : 0 : ngbe_dev_reset(struct rte_eth_dev *dev)
1319 : : {
1320 : : int ret;
1321 : :
1322 : : /* When a DPDK PMD PF begin to reset PF port, it should notify all
1323 : : * its VF to make them align with it. The detailed notification
1324 : : * mechanism is PMD specific. As to ngbe PF, it is rather complex.
1325 : : * To avoid unexpected behavior in VF, currently reset of PF with
1326 : : * SR-IOV activation is not supported. It might be supported later.
1327 : : */
1328 [ # # ]: 0 : if (dev->data->sriov.active)
1329 : : return -ENOTSUP;
1330 : :
1331 : 0 : ret = eth_ngbe_dev_uninit(dev);
1332 [ # # ]: 0 : if (ret != 0)
1333 : : return ret;
1334 : :
1335 : 0 : ret = eth_ngbe_dev_init(dev, NULL);
1336 : :
1337 : 0 : return ret;
1338 : : }
1339 : :
1340 : : #define UPDATE_QP_COUNTER_32bit(reg, last_counter, counter) \
1341 : : { \
1342 : : uint32_t current_counter = rd32(hw, reg); \
1343 : : if (current_counter < last_counter) \
1344 : : current_counter += 0x100000000LL; \
1345 : : if (!hw->offset_loaded) \
1346 : : last_counter = current_counter; \
1347 : : counter = current_counter - last_counter; \
1348 : : counter &= 0xFFFFFFFFLL; \
1349 : : }
1350 : :
1351 : : #define UPDATE_QP_COUNTER_36bit(reg_lsb, reg_msb, last_counter, counter) \
1352 : : { \
1353 : : uint64_t current_counter_lsb = rd32(hw, reg_lsb); \
1354 : : uint64_t current_counter_msb = rd32(hw, reg_msb); \
1355 : : uint64_t current_counter = (current_counter_msb << 32) | \
1356 : : current_counter_lsb; \
1357 : : if (current_counter < last_counter) \
1358 : : current_counter += 0x1000000000LL; \
1359 : : if (!hw->offset_loaded) \
1360 : : last_counter = current_counter; \
1361 : : counter = current_counter - last_counter; \
1362 : : counter &= 0xFFFFFFFFFLL; \
1363 : : }
1364 : :
1365 : : void
1366 : 0 : ngbe_read_stats_registers(struct ngbe_hw *hw,
1367 : : struct ngbe_hw_stats *hw_stats)
1368 : : {
1369 : : unsigned int i;
1370 : :
1371 : : /* QP Stats */
1372 [ # # ]: 0 : for (i = 0; i < hw->nb_rx_queues; i++) {
1373 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPRXPKT(i),
1374 : : hw->qp_last[i].rx_qp_packets,
1375 : : hw_stats->qp[i].rx_qp_packets);
1376 [ # # # # ]: 0 : UPDATE_QP_COUNTER_36bit(NGBE_QPRXOCTL(i), NGBE_QPRXOCTH(i),
1377 : : hw->qp_last[i].rx_qp_bytes,
1378 : : hw_stats->qp[i].rx_qp_bytes);
1379 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPRXMPKT(i),
1380 : : hw->qp_last[i].rx_qp_mc_packets,
1381 : : hw_stats->qp[i].rx_qp_mc_packets);
1382 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPRXBPKT(i),
1383 : : hw->qp_last[i].rx_qp_bc_packets,
1384 : : hw_stats->qp[i].rx_qp_bc_packets);
1385 : : }
1386 : :
1387 [ # # ]: 0 : for (i = 0; i < hw->nb_tx_queues; i++) {
1388 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPTXPKT(i),
1389 : : hw->qp_last[i].tx_qp_packets,
1390 : : hw_stats->qp[i].tx_qp_packets);
1391 [ # # # # ]: 0 : UPDATE_QP_COUNTER_36bit(NGBE_QPTXOCTL(i), NGBE_QPTXOCTH(i),
1392 : : hw->qp_last[i].tx_qp_bytes,
1393 : : hw_stats->qp[i].tx_qp_bytes);
1394 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPTXMPKT(i),
1395 : : hw->qp_last[i].tx_qp_mc_packets,
1396 : : hw_stats->qp[i].tx_qp_mc_packets);
1397 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPTXBPKT(i),
1398 : : hw->qp_last[i].tx_qp_bc_packets,
1399 : : hw_stats->qp[i].tx_qp_bc_packets);
1400 : : }
1401 : :
1402 : : /* PB Stats */
1403 : 0 : hw_stats->rx_up_dropped += rd32(hw, NGBE_PBRXMISS);
1404 : 0 : hw_stats->rdb_pkt_cnt += rd32(hw, NGBE_PBRXPKT);
1405 : 0 : hw_stats->rdb_repli_cnt += rd32(hw, NGBE_PBRXREP);
1406 : 0 : hw_stats->rdb_drp_cnt += rd32(hw, NGBE_PBRXDROP);
1407 : 0 : hw_stats->tx_xoff_packets += rd32(hw, NGBE_PBTXLNKXOFF);
1408 : 0 : hw_stats->tx_xon_packets += rd32(hw, NGBE_PBTXLNKXON);
1409 : :
1410 : 0 : hw_stats->rx_xon_packets += rd32(hw, NGBE_PBRXLNKXON);
1411 : 0 : hw_stats->rx_xoff_packets += rd32(hw, NGBE_PBRXLNKXOFF);
1412 : :
1413 : : /* DMA Stats */
1414 : 0 : hw_stats->rx_dma_drop += rd32(hw, NGBE_DMARXDROP);
1415 : 0 : hw_stats->tx_dma_drop += rd32(hw, NGBE_DMATXDROP);
1416 : 0 : hw_stats->tx_secdrp_packets += rd32(hw, NGBE_DMATXSECDROP);
1417 : 0 : hw_stats->rx_packets += rd32(hw, NGBE_DMARXPKT);
1418 : 0 : hw_stats->tx_packets += rd32(hw, NGBE_DMATXPKT);
1419 : 0 : hw_stats->rx_bytes += rd64(hw, NGBE_DMARXOCTL);
1420 : 0 : hw_stats->tx_bytes += rd64(hw, NGBE_DMATXOCTL);
1421 : :
1422 : : /* MAC Stats */
1423 : 0 : hw_stats->rx_crc_errors += rd64(hw, NGBE_MACRXERRCRCL);
1424 : 0 : hw_stats->rx_multicast_packets += rd64(hw, NGBE_MACRXMPKTL);
1425 : 0 : hw_stats->tx_multicast_packets += rd64(hw, NGBE_MACTXMPKTL);
1426 : :
1427 : 0 : hw_stats->rx_total_packets += rd64(hw, NGBE_MACRXPKTL);
1428 : 0 : hw_stats->tx_total_packets += rd64(hw, NGBE_MACTXPKTL);
1429 : 0 : hw_stats->rx_total_bytes += rd64(hw, NGBE_MACRXGBOCTL);
1430 : :
1431 : 0 : hw_stats->rx_broadcast_packets += rd64(hw, NGBE_MACRXOCTL);
1432 : 0 : hw_stats->tx_broadcast_packets += rd64(hw, NGBE_MACTXOCTL);
1433 : :
1434 : 0 : hw_stats->rx_size_64_packets += rd64(hw, NGBE_MACRX1TO64L);
1435 : 0 : hw_stats->rx_size_65_to_127_packets += rd64(hw, NGBE_MACRX65TO127L);
1436 : 0 : hw_stats->rx_size_128_to_255_packets += rd64(hw, NGBE_MACRX128TO255L);
1437 : 0 : hw_stats->rx_size_256_to_511_packets += rd64(hw, NGBE_MACRX256TO511L);
1438 : 0 : hw_stats->rx_size_512_to_1023_packets +=
1439 : : rd64(hw, NGBE_MACRX512TO1023L);
1440 : 0 : hw_stats->rx_size_1024_to_max_packets +=
1441 : : rd64(hw, NGBE_MACRX1024TOMAXL);
1442 : 0 : hw_stats->tx_size_64_packets += rd64(hw, NGBE_MACTX1TO64L);
1443 : 0 : hw_stats->tx_size_65_to_127_packets += rd64(hw, NGBE_MACTX65TO127L);
1444 : 0 : hw_stats->tx_size_128_to_255_packets += rd64(hw, NGBE_MACTX128TO255L);
1445 : 0 : hw_stats->tx_size_256_to_511_packets += rd64(hw, NGBE_MACTX256TO511L);
1446 : 0 : hw_stats->tx_size_512_to_1023_packets +=
1447 : : rd64(hw, NGBE_MACTX512TO1023L);
1448 : 0 : hw_stats->tx_size_1024_to_max_packets +=
1449 : : rd64(hw, NGBE_MACTX1024TOMAXL);
1450 : :
1451 : 0 : hw_stats->rx_length_errors += rd64(hw, NGBE_MACRXERRLENL);
1452 : 0 : hw_stats->rx_undersize_errors += rd32(hw, NGBE_MACRXUNDERSIZE);
1453 : 0 : hw_stats->rx_oversize_cnt += rd32(hw, NGBE_MACRXOVERSIZE);
1454 : 0 : hw_stats->rx_jabber_errors += rd32(hw, NGBE_MACRXJABBER);
1455 : :
1456 : : /* MNG Stats */
1457 : 0 : hw_stats->mng_bmc2host_packets = rd32(hw, NGBE_MNGBMC2OS);
1458 : 0 : hw_stats->mng_host2bmc_packets = rd32(hw, NGBE_MNGOS2BMC);
1459 : 0 : hw_stats->rx_management_packets = rd32(hw, NGBE_DMARXMNG);
1460 : 0 : hw_stats->tx_management_packets = rd32(hw, NGBE_DMATXMNG);
1461 : :
1462 : : /* MACsec Stats */
1463 : 0 : hw_stats->tx_macsec_pkts_untagged += rd32(hw, NGBE_LSECTX_UTPKT);
1464 : 0 : hw_stats->tx_macsec_pkts_encrypted +=
1465 : 0 : rd32(hw, NGBE_LSECTX_ENCPKT);
1466 : 0 : hw_stats->tx_macsec_pkts_protected +=
1467 : 0 : rd32(hw, NGBE_LSECTX_PROTPKT);
1468 : 0 : hw_stats->tx_macsec_octets_encrypted +=
1469 : 0 : rd32(hw, NGBE_LSECTX_ENCOCT);
1470 : 0 : hw_stats->tx_macsec_octets_protected +=
1471 : 0 : rd32(hw, NGBE_LSECTX_PROTOCT);
1472 : 0 : hw_stats->rx_macsec_pkts_untagged += rd32(hw, NGBE_LSECRX_UTPKT);
1473 : 0 : hw_stats->rx_macsec_pkts_badtag += rd32(hw, NGBE_LSECRX_BTPKT);
1474 : 0 : hw_stats->rx_macsec_pkts_nosci += rd32(hw, NGBE_LSECRX_NOSCIPKT);
1475 : 0 : hw_stats->rx_macsec_pkts_unknownsci += rd32(hw, NGBE_LSECRX_UNSCIPKT);
1476 : 0 : hw_stats->rx_macsec_octets_decrypted += rd32(hw, NGBE_LSECRX_DECOCT);
1477 : 0 : hw_stats->rx_macsec_octets_validated += rd32(hw, NGBE_LSECRX_VLDOCT);
1478 : 0 : hw_stats->rx_macsec_sc_pkts_unchecked +=
1479 : 0 : rd32(hw, NGBE_LSECRX_UNCHKPKT);
1480 : 0 : hw_stats->rx_macsec_sc_pkts_delayed += rd32(hw, NGBE_LSECRX_DLYPKT);
1481 : 0 : hw_stats->rx_macsec_sc_pkts_late += rd32(hw, NGBE_LSECRX_LATEPKT);
1482 [ # # ]: 0 : for (i = 0; i < 2; i++) {
1483 : 0 : hw_stats->rx_macsec_sa_pkts_ok +=
1484 : 0 : rd32(hw, NGBE_LSECRX_OKPKT(i));
1485 : 0 : hw_stats->rx_macsec_sa_pkts_invalid +=
1486 : 0 : rd32(hw, NGBE_LSECRX_INVPKT(i));
1487 : 0 : hw_stats->rx_macsec_sa_pkts_notvalid +=
1488 : 0 : rd32(hw, NGBE_LSECRX_BADPKT(i));
1489 : : }
1490 [ # # ]: 0 : for (i = 0; i < 4; i++) {
1491 : 0 : hw_stats->rx_macsec_sa_pkts_unusedsa +=
1492 : 0 : rd32(hw, NGBE_LSECRX_INVSAPKT(i));
1493 : 0 : hw_stats->rx_macsec_sa_pkts_notusingsa +=
1494 : 0 : rd32(hw, NGBE_LSECRX_BADSAPKT(i));
1495 : : }
1496 : 0 : hw_stats->rx_total_missed_packets =
1497 : 0 : hw_stats->rx_up_dropped;
1498 : 0 : }
1499 : :
1500 : : static int
1501 : 0 : ngbe_dev_stats_get(struct rte_eth_dev *dev, struct rte_eth_stats *stats,
1502 : : struct eth_queue_stats *qstats)
1503 : : {
1504 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1505 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1506 : : struct ngbe_stat_mappings *stat_mappings =
1507 : : NGBE_DEV_STAT_MAPPINGS(dev);
1508 : : struct ngbe_tx_queue *txq;
1509 : : uint32_t i, j;
1510 : :
1511 : 0 : ngbe_read_stats_registers(hw, hw_stats);
1512 : :
1513 [ # # ]: 0 : if (stats == NULL)
1514 : : return -EINVAL;
1515 : :
1516 : : /* Fill out the rte_eth_stats statistics structure */
1517 : 0 : stats->ipackets = hw_stats->rx_packets;
1518 : 0 : stats->ibytes = hw_stats->rx_bytes;
1519 : 0 : stats->opackets = hw_stats->tx_packets;
1520 : 0 : stats->obytes = hw_stats->tx_bytes;
1521 : :
1522 [ # # ]: 0 : if (qstats != NULL) {
1523 : 0 : memset(&qstats->q_ipackets, 0, sizeof(qstats->q_ipackets));
1524 : 0 : memset(&qstats->q_opackets, 0, sizeof(qstats->q_opackets));
1525 : 0 : memset(&qstats->q_ibytes, 0, sizeof(qstats->q_ibytes));
1526 : 0 : memset(&qstats->q_obytes, 0, sizeof(qstats->q_obytes));
1527 : 0 : memset(&qstats->q_errors, 0, sizeof(qstats->q_errors));
1528 [ # # ]: 0 : for (i = 0; i < NGBE_MAX_QP; i++) {
1529 : 0 : uint32_t n = i / NB_QMAP_FIELDS_PER_QSM_REG;
1530 : 0 : uint32_t offset = (i % NB_QMAP_FIELDS_PER_QSM_REG) * 8;
1531 : : uint32_t q_map;
1532 : :
1533 : 0 : q_map = (stat_mappings->rqsm[n] >> offset)
1534 : : & QMAP_FIELD_RESERVED_BITS_MASK;
1535 : : j = (q_map < RTE_ETHDEV_QUEUE_STAT_CNTRS
1536 : : ? q_map : q_map % RTE_ETHDEV_QUEUE_STAT_CNTRS);
1537 : 0 : qstats->q_ipackets[j] += hw_stats->qp[i].rx_qp_packets;
1538 : 0 : qstats->q_ibytes[j] += hw_stats->qp[i].rx_qp_bytes;
1539 : :
1540 : 0 : q_map = (stat_mappings->tqsm[n] >> offset)
1541 : : & QMAP_FIELD_RESERVED_BITS_MASK;
1542 : : j = (q_map < RTE_ETHDEV_QUEUE_STAT_CNTRS
1543 : : ? q_map : q_map % RTE_ETHDEV_QUEUE_STAT_CNTRS);
1544 : 0 : qstats->q_opackets[j] += hw_stats->qp[i].tx_qp_packets;
1545 : 0 : qstats->q_obytes[j] += hw_stats->qp[i].tx_qp_bytes;
1546 : : }
1547 : : }
1548 : :
1549 : : /* Rx Errors */
1550 : 0 : stats->imissed = hw_stats->rx_total_missed_packets +
1551 : 0 : hw_stats->rx_dma_drop;
1552 : 0 : stats->ierrors = hw_stats->rx_crc_errors +
1553 : 0 : hw_stats->rx_mac_short_packet_dropped +
1554 : 0 : hw_stats->rx_length_errors +
1555 : 0 : hw_stats->rx_undersize_errors +
1556 : 0 : hw_stats->rdb_drp_cnt +
1557 : 0 : hw_stats->rx_illegal_byte_errors +
1558 : 0 : hw_stats->rx_error_bytes +
1559 : 0 : hw_stats->rx_fragment_errors;
1560 : :
1561 : : /* Tx Errors */
1562 : 0 : stats->oerrors = 0;
1563 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
1564 : 0 : txq = dev->data->tx_queues[i];
1565 : 0 : stats->oerrors += txq->desc_error;
1566 : : }
1567 : :
1568 : : return 0;
1569 : : }
1570 : :
1571 : : static int
1572 : 0 : ngbe_dev_stats_reset(struct rte_eth_dev *dev)
1573 : : {
1574 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1575 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1576 : : struct ngbe_tx_queue *txq;
1577 : : uint32_t i;
1578 : :
1579 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
1580 : 0 : txq = dev->data->tx_queues[i];
1581 : 0 : txq->desc_error = 0;
1582 : : }
1583 : :
1584 : : /* HW registers are cleared on read */
1585 : 0 : hw->offset_loaded = 0;
1586 : : ngbe_dev_stats_get(dev, NULL, NULL);
1587 : 0 : hw->offset_loaded = 1;
1588 : :
1589 : : /* Reset software totals */
1590 : : memset(hw_stats, 0, sizeof(*hw_stats));
1591 : :
1592 : 0 : return 0;
1593 : : }
1594 : :
1595 : : /* This function calculates the number of xstats based on the current config */
1596 : : static unsigned
1597 : : ngbe_xstats_calc_num(struct rte_eth_dev *dev)
1598 : : {
1599 : 0 : int nb_queues = max(dev->data->nb_rx_queues, dev->data->nb_tx_queues);
1600 : 0 : return NGBE_NB_HW_STATS +
1601 : : NGBE_NB_QP_STATS * nb_queues;
1602 : : }
1603 : :
1604 : : static inline int
1605 : 0 : ngbe_get_name_by_id(uint32_t id, char *name, uint32_t size)
1606 : : {
1607 : : int nb, st;
1608 : :
1609 : : /* Extended stats from ngbe_hw_stats */
1610 [ # # ]: 0 : if (id < NGBE_NB_HW_STATS) {
1611 : 0 : snprintf(name, size, "[hw]%s",
1612 : 0 : rte_ngbe_stats_strings[id].name);
1613 : 0 : return 0;
1614 : : }
1615 : 0 : id -= NGBE_NB_HW_STATS;
1616 : :
1617 : : /* Queue Stats */
1618 [ # # ]: 0 : if (id < NGBE_NB_QP_STATS * NGBE_MAX_QP) {
1619 : 0 : nb = id / NGBE_NB_QP_STATS;
1620 : 0 : st = id % NGBE_NB_QP_STATS;
1621 : 0 : snprintf(name, size, "[q%u]%s", nb,
1622 : 0 : rte_ngbe_qp_strings[st].name);
1623 : 0 : return 0;
1624 : : }
1625 : : id -= NGBE_NB_QP_STATS * NGBE_MAX_QP;
1626 : :
1627 : 0 : return -(int)(id + 1);
1628 : : }
1629 : :
1630 : : static inline int
1631 : : ngbe_get_offset_by_id(uint32_t id, uint32_t *offset)
1632 : : {
1633 : : int nb, st;
1634 : :
1635 : : /* Extended stats from ngbe_hw_stats */
1636 [ # # # # ]: 0 : if (id < NGBE_NB_HW_STATS) {
1637 : 0 : *offset = rte_ngbe_stats_strings[id].offset;
1638 : : return 0;
1639 : : }
1640 : 0 : id -= NGBE_NB_HW_STATS;
1641 : :
1642 : : /* Queue Stats */
1643 [ # # # # : 0 : if (id < NGBE_NB_QP_STATS * NGBE_MAX_QP) {
# # ]
1644 : 0 : nb = id / NGBE_NB_QP_STATS;
1645 : 0 : st = id % NGBE_NB_QP_STATS;
1646 : 0 : *offset = rte_ngbe_qp_strings[st].offset +
1647 : : nb * (NGBE_NB_QP_STATS * sizeof(uint64_t));
1648 : : return 0;
1649 : : }
1650 : :
1651 : : return -1;
1652 : : }
1653 : :
1654 : 0 : static int ngbe_dev_xstats_get_names(struct rte_eth_dev *dev,
1655 : : struct rte_eth_xstat_name *xstats_names, unsigned int limit)
1656 : : {
1657 : : unsigned int i, count;
1658 : :
1659 : : count = ngbe_xstats_calc_num(dev);
1660 [ # # ]: 0 : if (xstats_names == NULL)
1661 : 0 : return count;
1662 : :
1663 : : /* Note: limit >= cnt_stats checked upstream
1664 : : * in rte_eth_xstats_names()
1665 : : */
1666 : 0 : limit = min(limit, count);
1667 : :
1668 : : /* Extended stats from ngbe_hw_stats */
1669 [ # # ]: 0 : for (i = 0; i < limit; i++) {
1670 [ # # ]: 0 : if (ngbe_get_name_by_id(i, xstats_names[i].name,
1671 : : sizeof(xstats_names[i].name))) {
1672 : 0 : PMD_INIT_LOG(WARNING, "id value %d isn't valid", i);
1673 : 0 : break;
1674 : : }
1675 : : }
1676 : :
1677 : 0 : return i;
1678 : : }
1679 : :
1680 : 0 : static int ngbe_dev_xstats_get_names_by_id(struct rte_eth_dev *dev,
1681 : : const uint64_t *ids,
1682 : : struct rte_eth_xstat_name *xstats_names,
1683 : : unsigned int limit)
1684 : : {
1685 : : unsigned int i;
1686 : :
1687 [ # # ]: 0 : if (ids == NULL)
1688 : 0 : return ngbe_dev_xstats_get_names(dev, xstats_names, limit);
1689 : :
1690 [ # # ]: 0 : for (i = 0; i < limit; i++) {
1691 [ # # ]: 0 : if (ngbe_get_name_by_id(ids[i], xstats_names[i].name,
1692 : : sizeof(xstats_names[i].name))) {
1693 : 0 : PMD_INIT_LOG(WARNING, "id value %d isn't valid", i);
1694 : 0 : return -1;
1695 : : }
1696 : : }
1697 : :
1698 : 0 : return i;
1699 : : }
1700 : :
1701 : : static int
1702 : 0 : ngbe_dev_xstats_get(struct rte_eth_dev *dev, struct rte_eth_xstat *xstats,
1703 : : unsigned int limit)
1704 : : {
1705 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1706 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1707 : : unsigned int i, count;
1708 : :
1709 : 0 : ngbe_read_stats_registers(hw, hw_stats);
1710 : :
1711 : : /* If this is a reset xstats is NULL, and we have cleared the
1712 : : * registers by reading them.
1713 : : */
1714 : : count = ngbe_xstats_calc_num(dev);
1715 [ # # ]: 0 : if (xstats == NULL)
1716 : 0 : return count;
1717 : :
1718 : 0 : limit = min(limit, ngbe_xstats_calc_num(dev));
1719 : :
1720 : : /* Extended stats from ngbe_hw_stats */
1721 [ # # ]: 0 : for (i = 0; i < limit; i++) {
1722 : : uint32_t offset = 0;
1723 : :
1724 : : if (ngbe_get_offset_by_id(i, &offset)) {
1725 : 0 : PMD_INIT_LOG(WARNING, "id value %d isn't valid", i);
1726 : : break;
1727 : : }
1728 : 0 : xstats[i].value = *(uint64_t *)(((char *)hw_stats) + offset);
1729 : 0 : xstats[i].id = i;
1730 : : }
1731 : :
1732 : 0 : return i;
1733 : : }
1734 : :
1735 : : static int
1736 : 0 : ngbe_dev_xstats_get_(struct rte_eth_dev *dev, uint64_t *values,
1737 : : unsigned int limit)
1738 : : {
1739 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1740 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1741 : : unsigned int i, count;
1742 : :
1743 : 0 : ngbe_read_stats_registers(hw, hw_stats);
1744 : :
1745 : : /* If this is a reset xstats is NULL, and we have cleared the
1746 : : * registers by reading them.
1747 : : */
1748 : : count = ngbe_xstats_calc_num(dev);
1749 [ # # ]: 0 : if (values == NULL)
1750 : 0 : return count;
1751 : :
1752 : 0 : limit = min(limit, ngbe_xstats_calc_num(dev));
1753 : :
1754 : : /* Extended stats from ngbe_hw_stats */
1755 [ # # ]: 0 : for (i = 0; i < limit; i++) {
1756 : : uint32_t offset;
1757 : :
1758 : : if (ngbe_get_offset_by_id(i, &offset)) {
1759 : 0 : PMD_INIT_LOG(WARNING, "id value %d isn't valid", i);
1760 : : break;
1761 : : }
1762 : 0 : values[i] = *(uint64_t *)(((char *)hw_stats) + offset);
1763 : : }
1764 : :
1765 : 0 : return i;
1766 : : }
1767 : :
1768 : : static int
1769 : 0 : ngbe_dev_xstats_get_by_id(struct rte_eth_dev *dev, const uint64_t *ids,
1770 : : uint64_t *values, unsigned int limit)
1771 : : {
1772 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1773 : : unsigned int i;
1774 : :
1775 [ # # ]: 0 : if (ids == NULL)
1776 : 0 : return ngbe_dev_xstats_get_(dev, values, limit);
1777 : :
1778 [ # # ]: 0 : for (i = 0; i < limit; i++) {
1779 : : uint32_t offset;
1780 : :
1781 [ # # ]: 0 : if (ngbe_get_offset_by_id(ids[i], &offset)) {
1782 : 0 : PMD_INIT_LOG(WARNING, "id value %d isn't valid", i);
1783 : : break;
1784 : : }
1785 : 0 : values[i] = *(uint64_t *)(((char *)hw_stats) + offset);
1786 : : }
1787 : :
1788 : 0 : return i;
1789 : : }
1790 : :
1791 : : static int
1792 : 0 : ngbe_dev_xstats_reset(struct rte_eth_dev *dev)
1793 : : {
1794 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1795 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1796 : :
1797 : : /* HW registers are cleared on read */
1798 : 0 : hw->offset_loaded = 0;
1799 : 0 : ngbe_read_stats_registers(hw, hw_stats);
1800 : 0 : hw->offset_loaded = 1;
1801 : :
1802 : : /* Reset software totals */
1803 : : memset(hw_stats, 0, sizeof(*hw_stats));
1804 : :
1805 : 0 : return 0;
1806 : : }
1807 : :
1808 : : static int
1809 [ # # ]: 0 : ngbe_fw_version_get(struct rte_eth_dev *dev, char *fw_version, size_t fw_size)
1810 : : {
1811 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1812 : : int ret;
1813 : :
1814 [ # # ]: 0 : ret = snprintf(fw_version, fw_size, "0x%08x", hw->eeprom_id);
1815 : :
1816 [ # # ]: 0 : if (ret < 0)
1817 : : return -EINVAL;
1818 : :
1819 : 0 : ret += 1; /* add the size of '\0' */
1820 [ # # ]: 0 : if (fw_size < (size_t)ret)
1821 : 0 : return ret;
1822 : :
1823 : : return 0;
1824 : : }
1825 : :
1826 : : static int
1827 : 0 : ngbe_dev_info_get(struct rte_eth_dev *dev, struct rte_eth_dev_info *dev_info)
1828 : : {
1829 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
1830 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1831 : :
1832 : 0 : dev_info->max_rx_queues = (uint16_t)hw->mac.max_rx_queues;
1833 : 0 : dev_info->max_tx_queues = (uint16_t)hw->mac.max_tx_queues;
1834 : 0 : dev_info->min_rx_bufsize = 1024;
1835 : 0 : dev_info->max_rx_pktlen = NGBE_MAX_MTU + NGBE_ETH_OVERHEAD;
1836 : 0 : dev_info->min_mtu = RTE_ETHER_MIN_MTU;
1837 : 0 : dev_info->max_mtu = NGBE_MAX_MTU;
1838 : 0 : dev_info->max_mac_addrs = hw->mac.num_rar_entries;
1839 : 0 : dev_info->max_hash_mac_addrs = NGBE_VMDQ_NUM_UC_MAC;
1840 : 0 : dev_info->max_vfs = pci_dev->max_vfs;
1841 : 0 : dev_info->rx_queue_offload_capa = ngbe_get_rx_queue_offloads(dev);
1842 : 0 : dev_info->rx_offload_capa = (ngbe_get_rx_port_offloads(dev) |
1843 : 0 : dev_info->rx_queue_offload_capa);
1844 : 0 : dev_info->tx_queue_offload_capa = 0;
1845 : 0 : dev_info->tx_offload_capa = ngbe_get_tx_port_offloads(dev);
1846 : :
1847 : 0 : dev_info->default_rxconf = (struct rte_eth_rxconf) {
1848 : : .rx_thresh = {
1849 : : .pthresh = NGBE_DEFAULT_RX_PTHRESH,
1850 : : .hthresh = NGBE_DEFAULT_RX_HTHRESH,
1851 : : .wthresh = NGBE_DEFAULT_RX_WTHRESH,
1852 : : },
1853 : : .rx_free_thresh = NGBE_DEFAULT_RX_FREE_THRESH,
1854 : : .rx_drop_en = 0,
1855 : : .offloads = 0,
1856 : : };
1857 : :
1858 : 0 : dev_info->default_txconf = (struct rte_eth_txconf) {
1859 : : .tx_thresh = {
1860 : : .pthresh = NGBE_DEFAULT_TX_PTHRESH,
1861 : : .hthresh = NGBE_DEFAULT_TX_HTHRESH,
1862 : : .wthresh = NGBE_DEFAULT_TX_WTHRESH,
1863 : : },
1864 : : .tx_free_thresh = NGBE_DEFAULT_TX_FREE_THRESH,
1865 : : .offloads = 0,
1866 : : };
1867 : :
1868 : 0 : dev_info->rx_desc_lim = rx_desc_lim;
1869 : 0 : dev_info->tx_desc_lim = tx_desc_lim;
1870 : :
1871 : 0 : dev_info->hash_key_size = NGBE_HKEY_MAX_INDEX * sizeof(uint32_t);
1872 : 0 : dev_info->reta_size = RTE_ETH_RSS_RETA_SIZE_128;
1873 : 0 : dev_info->flow_type_rss_offloads = NGBE_RSS_OFFLOAD_ALL;
1874 : :
1875 : 0 : dev_info->speed_capa = RTE_ETH_LINK_SPEED_1G | RTE_ETH_LINK_SPEED_100M |
1876 : : RTE_ETH_LINK_SPEED_10M;
1877 : :
1878 : : /* Driver-preferred Rx/Tx parameters */
1879 : 0 : dev_info->default_rxportconf.burst_size = 32;
1880 : 0 : dev_info->default_txportconf.burst_size = 32;
1881 : 0 : dev_info->default_rxportconf.nb_queues = 1;
1882 : 0 : dev_info->default_txportconf.nb_queues = 1;
1883 : 0 : dev_info->default_rxportconf.ring_size = 256;
1884 : 0 : dev_info->default_txportconf.ring_size = 256;
1885 : :
1886 : 0 : return 0;
1887 : : }
1888 : :
1889 : : const uint32_t *
1890 : 0 : ngbe_dev_supported_ptypes_get(struct rte_eth_dev *dev, size_t *no_of_elements)
1891 : : {
1892 [ # # # # ]: 0 : if (dev->rx_pkt_burst == ngbe_recv_pkts ||
1893 : : #if defined(RTE_ARCH_X86) || defined(RTE_ARCH_ARM)
1894 [ # # ]: 0 : dev->rx_pkt_burst == ngbe_recv_pkts_vec ||
1895 [ # # ]: 0 : dev->rx_pkt_burst == ngbe_recv_scattered_pkts_vec ||
1896 : : #endif
1897 [ # # ]: 0 : dev->rx_pkt_burst == ngbe_recv_pkts_sc_single_alloc ||
1898 [ # # ]: 0 : dev->rx_pkt_burst == ngbe_recv_pkts_sc_bulk_alloc ||
1899 : : dev->rx_pkt_burst == ngbe_recv_pkts_bulk_alloc)
1900 : 0 : return ngbe_get_supported_ptypes(no_of_elements);
1901 : :
1902 : : return NULL;
1903 : : }
1904 : :
1905 : : static void
1906 : 0 : ngbe_dev_overheat(struct rte_eth_dev *dev)
1907 : : {
1908 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1909 : : s32 temp_state;
1910 : :
1911 : 0 : temp_state = hw->mac.check_overtemp(hw);
1912 [ # # ]: 0 : if (!temp_state)
1913 : : return;
1914 : :
1915 [ # # ]: 0 : if (temp_state == NGBE_ERR_UNDERTEMP) {
1916 : 0 : PMD_DRV_LOG(CRIT, "Network adapter has been started again, "
1917 : : "since the temperature has been back to normal state.");
1918 : : wr32m(hw, NGBE_PBRXCTL, NGBE_PBRXCTL_ENA, NGBE_PBRXCTL_ENA);
1919 : : ngbe_dev_set_link_up(dev);
1920 [ # # ]: 0 : } else if (temp_state == NGBE_ERR_OVERTEMP) {
1921 : 0 : PMD_DRV_LOG(CRIT, "Network adapter has been stopped because it has over heated.");
1922 : : wr32m(hw, NGBE_PBRXCTL, NGBE_PBRXCTL_ENA, 0);
1923 : : ngbe_dev_set_link_down(dev);
1924 : : }
1925 : : }
1926 : :
1927 : : /* return 0 means link status changed, -1 means not changed */
1928 : : int
1929 [ # # ]: 0 : ngbe_dev_link_update_share(struct rte_eth_dev *dev,
1930 : : int wait_to_complete)
1931 : : {
1932 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1933 : : struct rte_eth_link link;
1934 [ # # ]: 0 : u32 link_speed = NGBE_LINK_SPEED_UNKNOWN;
1935 : : u32 lan_speed = 0;
1936 : : bool link_up;
1937 : : int err;
1938 : : int wait = 1;
1939 : : u32 reg;
1940 : :
1941 : : memset(&link, 0, sizeof(link));
1942 : : link.link_status = RTE_ETH_LINK_DOWN;
1943 : : link.link_speed = RTE_ETH_SPEED_NUM_NONE;
1944 : : link.link_duplex = RTE_ETH_LINK_HALF_DUPLEX;
1945 : 0 : link.link_autoneg = !(dev->data->dev_conf.link_speeds &
1946 : : ~RTE_ETH_LINK_SPEED_AUTONEG);
1947 : :
1948 : 0 : hw->mac.get_link_status = true;
1949 : :
1950 : : /* check if it needs to wait to complete, if lsc interrupt is enabled */
1951 [ # # # # ]: 0 : if (wait_to_complete == 0 || dev->data->dev_conf.intr_conf.lsc != 0)
1952 : : wait = 0;
1953 : :
1954 : 0 : err = hw->mac.check_link(hw, &link_speed, &link_up, wait);
1955 [ # # ]: 0 : if (err != 0) {
1956 : : link.link_speed = RTE_ETH_SPEED_NUM_NONE;
1957 [ # # ]: 0 : link.link_duplex = RTE_ETH_LINK_FULL_DUPLEX;
1958 : 0 : return rte_eth_linkstatus_set(dev, &link);
1959 : : }
1960 : :
1961 [ # # ]: 0 : if (!link_up)
1962 : 0 : return rte_eth_linkstatus_set(dev, &link);
1963 : :
1964 : 0 : link.link_status = RTE_ETH_LINK_UP;
1965 : 0 : link.link_duplex = RTE_ETH_LINK_FULL_DUPLEX;
1966 : :
1967 [ # # # # ]: 0 : switch (link_speed) {
1968 : : default:
1969 : : case NGBE_LINK_SPEED_UNKNOWN:
1970 : : link.link_speed = RTE_ETH_SPEED_NUM_NONE;
1971 : : break;
1972 : :
1973 : 0 : case NGBE_LINK_SPEED_10M_FULL:
1974 : 0 : link.link_speed = RTE_ETH_SPEED_NUM_10M;
1975 : : lan_speed = 0;
1976 : 0 : break;
1977 : :
1978 : 0 : case NGBE_LINK_SPEED_100M_FULL:
1979 : 0 : link.link_speed = RTE_ETH_SPEED_NUM_100M;
1980 : : lan_speed = 1;
1981 : 0 : break;
1982 : :
1983 : 0 : case NGBE_LINK_SPEED_1GB_FULL:
1984 : 0 : link.link_speed = RTE_ETH_SPEED_NUM_1G;
1985 : : lan_speed = 2;
1986 : 0 : break;
1987 : : }
1988 : :
1989 [ # # ]: 0 : if (hw->is_pf) {
1990 : : wr32m(hw, NGBE_LAN_SPEED, NGBE_LAN_SPEED_MASK, lan_speed);
1991 [ # # ]: 0 : if (link_speed & (NGBE_LINK_SPEED_1GB_FULL |
1992 : : NGBE_LINK_SPEED_100M_FULL |
1993 : : NGBE_LINK_SPEED_10M_FULL)) {
1994 : : wr32m(hw, NGBE_MACTXCFG, NGBE_MACTXCFG_SPEED_MASK,
1995 : : NGBE_MACTXCFG_SPEED_1G | NGBE_MACTXCFG_TE);
1996 : : }
1997 : : /* Re configure MAC RX */
1998 : : reg = rd32(hw, NGBE_MACRXCFG);
1999 : : wr32(hw, NGBE_MACRXCFG, reg);
2000 : : wr32m(hw, NGBE_MACRXFLT, NGBE_MACRXFLT_PROMISC,
2001 : : NGBE_MACRXFLT_PROMISC);
2002 : : reg = rd32(hw, NGBE_MAC_WDG_TIMEOUT);
2003 : : wr32(hw, NGBE_MAC_WDG_TIMEOUT, reg);
2004 : : }
2005 : :
2006 : : return rte_eth_linkstatus_set(dev, &link);
2007 : : }
2008 : :
2009 : : static int
2010 : 0 : ngbe_dev_link_update(struct rte_eth_dev *dev, int wait_to_complete)
2011 : : {
2012 : 0 : return ngbe_dev_link_update_share(dev, wait_to_complete);
2013 : : }
2014 : :
2015 : : static int
2016 : 0 : ngbe_dev_promiscuous_enable(struct rte_eth_dev *dev)
2017 : : {
2018 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2019 : : uint32_t fctrl;
2020 : :
2021 : : fctrl = rd32(hw, NGBE_PSRCTL);
2022 : 0 : fctrl |= (NGBE_PSRCTL_UCP | NGBE_PSRCTL_MCP);
2023 : : wr32(hw, NGBE_PSRCTL, fctrl);
2024 : :
2025 : 0 : return 0;
2026 : : }
2027 : :
2028 : : static int
2029 : 0 : ngbe_dev_promiscuous_disable(struct rte_eth_dev *dev)
2030 : : {
2031 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2032 : : uint32_t fctrl;
2033 : :
2034 : : fctrl = rd32(hw, NGBE_PSRCTL);
2035 : 0 : fctrl &= (~NGBE_PSRCTL_UCP);
2036 [ # # ]: 0 : if (dev->data->all_multicast == 1)
2037 : 0 : fctrl |= NGBE_PSRCTL_MCP;
2038 : : else
2039 : 0 : fctrl &= (~NGBE_PSRCTL_MCP);
2040 : : wr32(hw, NGBE_PSRCTL, fctrl);
2041 : :
2042 : 0 : return 0;
2043 : : }
2044 : :
2045 : : static int
2046 : 0 : ngbe_dev_allmulticast_enable(struct rte_eth_dev *dev)
2047 : : {
2048 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2049 : : uint32_t fctrl;
2050 : :
2051 : : fctrl = rd32(hw, NGBE_PSRCTL);
2052 : 0 : fctrl |= NGBE_PSRCTL_MCP;
2053 : : wr32(hw, NGBE_PSRCTL, fctrl);
2054 : :
2055 : 0 : return 0;
2056 : : }
2057 : :
2058 : : static int
2059 [ # # ]: 0 : ngbe_dev_allmulticast_disable(struct rte_eth_dev *dev)
2060 : : {
2061 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2062 : : uint32_t fctrl;
2063 : :
2064 [ # # ]: 0 : if (dev->data->promiscuous == 1)
2065 : : return 0; /* must remain in all_multicast mode */
2066 : :
2067 : : fctrl = rd32(hw, NGBE_PSRCTL);
2068 : 0 : fctrl &= (~NGBE_PSRCTL_MCP);
2069 : : wr32(hw, NGBE_PSRCTL, fctrl);
2070 : :
2071 : 0 : return 0;
2072 : : }
2073 : :
2074 : : /**
2075 : : * It clears the interrupt causes and enables the interrupt.
2076 : : * It will be called once only during NIC initialized.
2077 : : *
2078 : : * @param dev
2079 : : * Pointer to struct rte_eth_dev.
2080 : : * @param on
2081 : : * Enable or Disable.
2082 : : *
2083 : : * @return
2084 : : * - On success, zero.
2085 : : * - On failure, a negative value.
2086 : : */
2087 : : static int
2088 : 0 : ngbe_dev_lsc_interrupt_setup(struct rte_eth_dev *dev, uint8_t on)
2089 : : {
2090 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2091 : :
2092 : 0 : ngbe_dev_link_status_print(dev);
2093 [ # # ]: 0 : if (on != 0) {
2094 : 0 : intr->mask_misc |= NGBE_ICRMISC_PHY;
2095 : 0 : intr->mask_misc |= NGBE_ICRMISC_GPIO;
2096 : : } else {
2097 : 0 : intr->mask_misc &= ~NGBE_ICRMISC_PHY;
2098 : 0 : intr->mask_misc &= ~NGBE_ICRMISC_GPIO;
2099 : : }
2100 : :
2101 : 0 : return 0;
2102 : : }
2103 : :
2104 : : /**
2105 : : * It clears the interrupt causes and enables the interrupt.
2106 : : * It will be called once only during NIC initialized.
2107 : : *
2108 : : * @param dev
2109 : : * Pointer to struct rte_eth_dev.
2110 : : *
2111 : : * @return
2112 : : * - On success, zero.
2113 : : * - On failure, a negative value.
2114 : : */
2115 : : static int
2116 : : ngbe_dev_misc_interrupt_setup(struct rte_eth_dev *dev)
2117 : : {
2118 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2119 : : u64 mask;
2120 : :
2121 : : mask = NGBE_ICR_MASK;
2122 : : mask &= (1ULL << NGBE_MISC_VEC_ID);
2123 : 0 : intr->mask |= mask;
2124 [ # # ]: 0 : intr->mask_misc |= NGBE_ICRMISC_GPIO;
2125 : :
2126 : : return 0;
2127 : : }
2128 : :
2129 : : /**
2130 : : * It clears the interrupt causes and enables the interrupt.
2131 : : * It will be called once only during NIC initialized.
2132 : : *
2133 : : * @param dev
2134 : : * Pointer to struct rte_eth_dev.
2135 : : *
2136 : : * @return
2137 : : * - On success, zero.
2138 : : * - On failure, a negative value.
2139 : : */
2140 : : static int
2141 : : ngbe_dev_rxq_interrupt_setup(struct rte_eth_dev *dev)
2142 : : {
2143 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2144 : : u64 mask;
2145 : :
2146 : : mask = NGBE_ICR_MASK;
2147 : : mask &= ~((1ULL << NGBE_RX_VEC_START) - 1);
2148 : 0 : intr->mask |= mask;
2149 : :
2150 : 0 : return 0;
2151 : : }
2152 : :
2153 : : /**
2154 : : * It clears the interrupt causes and enables the interrupt.
2155 : : * It will be called once only during NIC initialized.
2156 : : *
2157 : : * @param dev
2158 : : * Pointer to struct rte_eth_dev.
2159 : : *
2160 : : * @return
2161 : : * - On success, zero.
2162 : : * - On failure, a negative value.
2163 : : */
2164 : : static int
2165 : : ngbe_dev_macsec_interrupt_setup(struct rte_eth_dev *dev)
2166 : : {
2167 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2168 : :
2169 : 0 : intr->mask_misc |= NGBE_ICRMISC_LNKSEC;
2170 : :
2171 : : return 0;
2172 : : }
2173 : :
2174 : : /*
2175 : : * It reads ICR and sets flag for the link_update.
2176 : : *
2177 : : * @param dev
2178 : : * Pointer to struct rte_eth_dev.
2179 : : *
2180 : : * @return
2181 : : * - On success, zero.
2182 : : * - On failure, a negative value.
2183 : : */
2184 : : static int
2185 [ # # ]: 0 : ngbe_dev_interrupt_get_status(struct rte_eth_dev *dev)
2186 : : {
2187 : : uint32_t eicr;
2188 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2189 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2190 : :
2191 : 0 : eicr = ((u32 *)hw->isb_mem)[NGBE_ISB_VEC0];
2192 [ # # ]: 0 : if (!eicr) {
2193 : : /*
2194 : : * shared interrupt alert!
2195 : : * make sure interrupts are enabled because the read will
2196 : : * have disabled interrupts.
2197 : : */
2198 [ # # ]: 0 : if (!hw->adapter_stopped)
2199 : : ngbe_enable_intr(dev);
2200 : 0 : return 0;
2201 : : }
2202 : 0 : ((u32 *)hw->isb_mem)[NGBE_ISB_VEC0] = 0;
2203 : :
2204 : : /* read-on-clear nic registers here */
2205 : 0 : eicr = ((u32 *)hw->isb_mem)[NGBE_ISB_MISC];
2206 : 0 : PMD_DRV_LOG(DEBUG, "eicr %x", eicr);
2207 : :
2208 : 0 : intr->flags = 0;
2209 : :
2210 : : /* set flag for async link update */
2211 [ # # ]: 0 : if (eicr & NGBE_ICRMISC_PHY)
2212 : 0 : intr->flags |= NGBE_FLAG_NEED_LINK_UPDATE;
2213 : :
2214 [ # # ]: 0 : if (eicr & NGBE_ICRMISC_VFMBX)
2215 : 0 : intr->flags |= NGBE_FLAG_MAILBOX;
2216 : :
2217 [ # # ]: 0 : if (eicr & NGBE_ICRMISC_LNKSEC)
2218 : 0 : intr->flags |= NGBE_FLAG_MACSEC;
2219 : :
2220 [ # # ]: 0 : if (eicr & NGBE_ICRMISC_GPIO)
2221 : 0 : intr->flags |= NGBE_FLAG_NEED_LINK_UPDATE;
2222 : :
2223 [ # # ]: 0 : if (eicr & NGBE_ICRMISC_HEAT)
2224 : 0 : intr->flags |= NGBE_FLAG_OVERHEAT;
2225 : :
2226 : 0 : ((u32 *)hw->isb_mem)[NGBE_ISB_MISC] = 0;
2227 : :
2228 : 0 : return 0;
2229 : : }
2230 : :
2231 : : /**
2232 : : * It gets and then prints the link status.
2233 : : *
2234 : : * @param dev
2235 : : * Pointer to struct rte_eth_dev.
2236 : : *
2237 : : * @return
2238 : : * - On success, zero.
2239 : : * - On failure, a negative value.
2240 : : */
2241 : : static void
2242 : 0 : ngbe_dev_link_status_print(struct rte_eth_dev *dev)
2243 : : {
2244 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2245 : : struct rte_eth_link link;
2246 : :
2247 : 0 : rte_eth_linkstatus_get(dev, &link);
2248 : :
2249 [ # # ]: 0 : if (link.link_status == RTE_ETH_LINK_UP) {
2250 [ # # ]: 0 : PMD_INIT_LOG(INFO, "Port %d: Link Up - speed %u Mbps - %s",
2251 : : (int)(dev->data->port_id),
2252 : : (unsigned int)link.link_speed,
2253 : : link.link_duplex == RTE_ETH_LINK_FULL_DUPLEX ?
2254 : : "full-duplex" : "half-duplex");
2255 : : } else {
2256 : 0 : PMD_INIT_LOG(INFO, " Port %d: Link Down",
2257 : : (int)(dev->data->port_id));
2258 : : }
2259 : 0 : PMD_INIT_LOG(DEBUG, "PCI Address: " PCI_PRI_FMT,
2260 : : pci_dev->addr.domain,
2261 : : pci_dev->addr.bus,
2262 : : pci_dev->addr.devid,
2263 : : pci_dev->addr.function);
2264 : 0 : }
2265 : :
2266 : : /*
2267 : : * It executes link_update after knowing an interrupt occurred.
2268 : : *
2269 : : * @param dev
2270 : : * Pointer to struct rte_eth_dev.
2271 : : *
2272 : : * @return
2273 : : * - On success, zero.
2274 : : * - On failure, a negative value.
2275 : : */
2276 : : static int
2277 : 0 : ngbe_dev_interrupt_action(struct rte_eth_dev *dev)
2278 : : {
2279 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2280 : :
2281 : 0 : PMD_DRV_LOG(DEBUG, "intr action type %d", intr->flags);
2282 : :
2283 [ # # ]: 0 : if (intr->flags & NGBE_FLAG_MAILBOX) {
2284 : 0 : ngbe_pf_mbx_process(dev);
2285 : 0 : intr->flags &= ~NGBE_FLAG_MAILBOX;
2286 : : }
2287 : :
2288 [ # # ]: 0 : if (intr->flags & NGBE_FLAG_NEED_LINK_UPDATE) {
2289 : : struct rte_eth_link link;
2290 : :
2291 : : /*get the link status before link update, for predicting later*/
2292 : 0 : rte_eth_linkstatus_get(dev, &link);
2293 : :
2294 : : ngbe_dev_link_update(dev, 0);
2295 : 0 : intr->flags &= ~NGBE_FLAG_NEED_LINK_UPDATE;
2296 : 0 : ngbe_dev_link_status_print(dev);
2297 [ # # ]: 0 : if (dev->data->dev_link.link_speed != link.link_speed)
2298 : 0 : rte_eth_dev_callback_process(dev,
2299 : : RTE_ETH_EVENT_INTR_LSC, NULL);
2300 : : }
2301 : :
2302 [ # # ]: 0 : if (intr->flags & NGBE_FLAG_OVERHEAT) {
2303 : 0 : ngbe_dev_overheat(dev);
2304 : 0 : intr->flags &= ~NGBE_FLAG_OVERHEAT;
2305 : : }
2306 : :
2307 : 0 : PMD_DRV_LOG(DEBUG, "enable intr immediately");
2308 : : ngbe_enable_intr(dev);
2309 : :
2310 : 0 : return 0;
2311 : : }
2312 : :
2313 : : /**
2314 : : * Interrupt handler triggered by NIC for handling
2315 : : * specific interrupt.
2316 : : *
2317 : : * @param param
2318 : : * The address of parameter (struct rte_eth_dev *) registered before.
2319 : : */
2320 : : static void
2321 : 0 : ngbe_dev_interrupt_handler(void *param)
2322 : : {
2323 : : struct rte_eth_dev *dev = (struct rte_eth_dev *)param;
2324 : :
2325 : 0 : ngbe_dev_interrupt_get_status(dev);
2326 : 0 : ngbe_dev_interrupt_action(dev);
2327 : 0 : }
2328 : :
2329 : : static int
2330 : 0 : ngbe_dev_led_on(struct rte_eth_dev *dev)
2331 : : {
2332 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2333 [ # # ]: 0 : return hw->mac.led_on(hw, 0) == 0 ? 0 : -ENOTSUP;
2334 : : }
2335 : :
2336 : : static int
2337 : 0 : ngbe_dev_led_off(struct rte_eth_dev *dev)
2338 : : {
2339 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2340 [ # # ]: 0 : return hw->mac.led_off(hw, 0) == 0 ? 0 : -ENOTSUP;
2341 : : }
2342 : :
2343 : : static int
2344 : 0 : ngbe_flow_ctrl_get(struct rte_eth_dev *dev, struct rte_eth_fc_conf *fc_conf)
2345 : : {
2346 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2347 : : uint32_t mflcn_reg;
2348 : : uint32_t fccfg_reg;
2349 : : int rx_pause;
2350 : : int tx_pause;
2351 : :
2352 : 0 : fc_conf->pause_time = hw->fc.pause_time;
2353 : 0 : fc_conf->high_water = hw->fc.high_water;
2354 : 0 : fc_conf->low_water = hw->fc.low_water;
2355 : 0 : fc_conf->send_xon = hw->fc.send_xon;
2356 : 0 : fc_conf->autoneg = !hw->fc.disable_fc_autoneg;
2357 : :
2358 : : /*
2359 : : * Return rx_pause status according to actual setting of
2360 : : * RXFCCFG register.
2361 : : */
2362 : : mflcn_reg = rd32(hw, NGBE_RXFCCFG);
2363 [ # # ]: 0 : if (mflcn_reg & NGBE_RXFCCFG_FC)
2364 : : rx_pause = 1;
2365 : : else
2366 : : rx_pause = 0;
2367 : :
2368 : : /*
2369 : : * Return tx_pause status according to actual setting of
2370 : : * TXFCCFG register.
2371 : : */
2372 : : fccfg_reg = rd32(hw, NGBE_TXFCCFG);
2373 [ # # ]: 0 : if (fccfg_reg & NGBE_TXFCCFG_FC)
2374 : : tx_pause = 1;
2375 : : else
2376 : : tx_pause = 0;
2377 : :
2378 [ # # ]: 0 : if (rx_pause && tx_pause)
2379 : 0 : fc_conf->mode = RTE_ETH_FC_FULL;
2380 [ # # ]: 0 : else if (rx_pause)
2381 : 0 : fc_conf->mode = RTE_ETH_FC_RX_PAUSE;
2382 [ # # ]: 0 : else if (tx_pause)
2383 : 0 : fc_conf->mode = RTE_ETH_FC_TX_PAUSE;
2384 : : else
2385 : 0 : fc_conf->mode = RTE_ETH_FC_NONE;
2386 : :
2387 : 0 : return 0;
2388 : : }
2389 : :
2390 : : static int
2391 : 0 : ngbe_flow_ctrl_set(struct rte_eth_dev *dev, struct rte_eth_fc_conf *fc_conf)
2392 : : {
2393 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2394 : : int err;
2395 : : uint32_t rx_buf_size;
2396 : : uint32_t max_high_water;
2397 : 0 : enum ngbe_fc_mode rte_fcmode_2_ngbe_fcmode[] = {
2398 : : ngbe_fc_none,
2399 : : ngbe_fc_rx_pause,
2400 : : ngbe_fc_tx_pause,
2401 : : ngbe_fc_full
2402 : : };
2403 : :
2404 : 0 : PMD_INIT_FUNC_TRACE();
2405 : :
2406 : : rx_buf_size = rd32(hw, NGBE_PBRXSIZE);
2407 : 0 : PMD_INIT_LOG(DEBUG, "Rx packet buffer size = 0x%x", rx_buf_size);
2408 : :
2409 : : /*
2410 : : * At least reserve one Ethernet frame for watermark
2411 : : * high_water/low_water in kilo bytes for ngbe
2412 : : */
2413 : 0 : max_high_water = (rx_buf_size - RTE_ETHER_MAX_LEN) >> 10;
2414 [ # # ]: 0 : if (fc_conf->high_water > max_high_water ||
2415 [ # # ]: 0 : fc_conf->high_water < fc_conf->low_water) {
2416 : 0 : PMD_INIT_LOG(ERR, "Invalid high/low water setup value in KB");
2417 : 0 : PMD_INIT_LOG(ERR, "High_water must <= 0x%x", max_high_water);
2418 : 0 : return -EINVAL;
2419 : : }
2420 : :
2421 : 0 : hw->fc.requested_mode = rte_fcmode_2_ngbe_fcmode[fc_conf->mode];
2422 : 0 : hw->fc.pause_time = fc_conf->pause_time;
2423 : 0 : hw->fc.high_water = fc_conf->high_water;
2424 : 0 : hw->fc.low_water = fc_conf->low_water;
2425 : 0 : hw->fc.send_xon = fc_conf->send_xon;
2426 : 0 : hw->fc.disable_fc_autoneg = !fc_conf->autoneg;
2427 : 0 : hw->fc.mac_ctrl_frame_fwd = fc_conf->mac_ctrl_frame_fwd;
2428 : :
2429 : 0 : err = hw->mac.fc_enable(hw);
2430 : :
2431 : : /* Not negotiated is not an error case */
2432 [ # # ]: 0 : if (err == 0 || err == NGBE_ERR_FC_NOT_NEGOTIATED) {
2433 : 0 : wr32m(hw, NGBE_MACRXFLT, NGBE_MACRXFLT_CTL_MASK,
2434 [ # # ]: 0 : (fc_conf->mac_ctrl_frame_fwd
2435 : : ? NGBE_MACRXFLT_CTL_NOPS : NGBE_MACRXFLT_CTL_DROP));
2436 : : ngbe_flush(hw);
2437 : :
2438 : 0 : return 0;
2439 : : }
2440 : :
2441 : 0 : PMD_INIT_LOG(ERR, "ngbe_fc_enable = 0x%x", err);
2442 : 0 : return -EIO;
2443 : : }
2444 : :
2445 : : /* Additional bittime to account for NGBE framing */
2446 : : #define NGBE_ETH_FRAMING 20
2447 : :
2448 : : /*
2449 : : * ngbe_fc_hpbthresh_set - calculate high water mark for flow control
2450 : : *
2451 : : * @dv_id: device interface delay
2452 : : * @pb: packet buffer to calculate
2453 : : */
2454 : : static s32
2455 : 0 : ngbe_fc_hpbthresh_set(struct rte_eth_dev *dev)
2456 : : {
2457 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2458 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2459 : : u32 max_frame_size, tc, dv_id, rx_pb;
2460 : : s32 kb, marker;
2461 : :
2462 : : /* Calculate max LAN frame size */
2463 : : max_frame_size = rd32m(hw, NGBE_FRMSZ, NGBE_FRMSZ_MAX_MASK);
2464 : 0 : tc = max_frame_size + NGBE_ETH_FRAMING;
2465 : :
2466 : : /* Calculate delay value for device */
2467 : 0 : dv_id = NGBE_DV(tc, tc);
2468 : :
2469 : : /* Loopback switch introduces additional latency */
2470 [ # # ]: 0 : if (pci_dev->max_vfs)
2471 : 0 : dv_id += NGBE_B2BT(tc);
2472 : :
2473 : : /* Delay value is calculated in bit times convert to KB */
2474 : 0 : kb = NGBE_BT2KB(dv_id);
2475 : 0 : rx_pb = rd32(hw, NGBE_PBRXSIZE) >> 10;
2476 : :
2477 : 0 : marker = rx_pb - kb;
2478 : :
2479 : : /* It is possible that the packet buffer is not large enough
2480 : : * to provide required headroom. In this case throw an error
2481 : : * to user and do the best we can.
2482 : : */
2483 [ # # ]: 0 : if (marker < 0) {
2484 : 0 : PMD_DRV_LOG(WARNING, "Packet Buffer can not provide enough headroom to support flow control.");
2485 : 0 : marker = tc + 1;
2486 : : }
2487 : :
2488 : 0 : return marker;
2489 : : }
2490 : :
2491 : : /*
2492 : : * ngbe_fc_lpbthresh_set - calculate low water mark for flow control
2493 : : *
2494 : : * @dv_id: device interface delay
2495 : : */
2496 : : static s32
2497 : : ngbe_fc_lpbthresh_set(struct rte_eth_dev *dev)
2498 : : {
2499 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2500 : : u32 max_frame_size, tc, dv_id;
2501 : : s32 kb;
2502 : :
2503 : : /* Calculate max LAN frame size */
2504 : : max_frame_size = rd32m(hw, NGBE_FRMSZ, NGBE_FRMSZ_MAX_MASK);
2505 : : tc = max_frame_size + NGBE_ETH_FRAMING;
2506 : :
2507 : : /* Calculate delay value for device */
2508 : 0 : dv_id = NGBE_LOW_DV(tc);
2509 : :
2510 : : /* Delay value is calculated in bit times convert to KB */
2511 : 0 : kb = NGBE_BT2KB(dv_id);
2512 : :
2513 : : return kb;
2514 : : }
2515 : :
2516 : : /*
2517 : : * ngbe_pbthresh_setup - calculate and setup high low water marks
2518 : : */
2519 : : static void
2520 : 0 : ngbe_pbthresh_set(struct rte_eth_dev *dev)
2521 : : {
2522 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2523 : :
2524 : 0 : hw->fc.high_water = ngbe_fc_hpbthresh_set(dev);
2525 : 0 : hw->fc.low_water = ngbe_fc_lpbthresh_set(dev);
2526 : :
2527 : : /* Low water marks must not be larger than high water marks */
2528 [ # # ]: 0 : if (hw->fc.low_water > hw->fc.high_water)
2529 : 0 : hw->fc.low_water = 0;
2530 : 0 : }
2531 : :
2532 : : int
2533 : 0 : ngbe_dev_rss_reta_update(struct rte_eth_dev *dev,
2534 : : struct rte_eth_rss_reta_entry64 *reta_conf,
2535 : : uint16_t reta_size)
2536 : : {
2537 : : uint8_t i, j, mask;
2538 : : uint32_t reta;
2539 : : uint16_t idx, shift;
2540 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
2541 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2542 : :
2543 : 0 : PMD_INIT_FUNC_TRACE();
2544 : :
2545 [ # # ]: 0 : if (!hw->is_pf) {
2546 : 0 : PMD_DRV_LOG(ERR, "RSS reta update is not supported on this "
2547 : : "NIC.");
2548 : 0 : return -ENOTSUP;
2549 : : }
2550 : :
2551 [ # # ]: 0 : if (reta_size != RTE_ETH_RSS_RETA_SIZE_128) {
2552 : 0 : PMD_DRV_LOG(ERR, "The size of hash lookup table configured "
2553 : : "(%d) doesn't match the number hardware can supported "
2554 : : "(%d)", reta_size, RTE_ETH_RSS_RETA_SIZE_128);
2555 : 0 : return -EINVAL;
2556 : : }
2557 : :
2558 [ # # ]: 0 : for (i = 0; i < reta_size; i += 4) {
2559 : 0 : idx = i / RTE_ETH_RETA_GROUP_SIZE;
2560 : : shift = i % RTE_ETH_RETA_GROUP_SIZE;
2561 : 0 : mask = (uint8_t)RS64(reta_conf[idx].mask, shift, 0xF);
2562 [ # # ]: 0 : if (!mask)
2563 : 0 : continue;
2564 : :
2565 : 0 : reta = rd32a(hw, NGBE_REG_RSSTBL, i >> 2);
2566 [ # # ]: 0 : for (j = 0; j < 4; j++) {
2567 [ # # ]: 0 : if (RS8(mask, j, 0x1)) {
2568 : 0 : reta &= ~(MS32(8 * j, 0xFF));
2569 : 0 : reta |= LS32(reta_conf[idx].reta[shift + j],
2570 : : 8 * j, 0xFF);
2571 : : }
2572 : : }
2573 : : wr32a(hw, NGBE_REG_RSSTBL, i >> 2, reta);
2574 : : }
2575 : 0 : adapter->rss_reta_updated = 1;
2576 : :
2577 : 0 : return 0;
2578 : : }
2579 : :
2580 : : int
2581 : 0 : ngbe_dev_rss_reta_query(struct rte_eth_dev *dev,
2582 : : struct rte_eth_rss_reta_entry64 *reta_conf,
2583 : : uint16_t reta_size)
2584 : : {
2585 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2586 : : uint8_t i, j, mask;
2587 : : uint32_t reta;
2588 : : uint16_t idx, shift;
2589 : :
2590 : 0 : PMD_INIT_FUNC_TRACE();
2591 : :
2592 [ # # ]: 0 : if (reta_size != RTE_ETH_RSS_RETA_SIZE_128) {
2593 : 0 : PMD_DRV_LOG(ERR, "The size of hash lookup table configured "
2594 : : "(%d) doesn't match the number hardware can supported "
2595 : : "(%d)", reta_size, RTE_ETH_RSS_RETA_SIZE_128);
2596 : 0 : return -EINVAL;
2597 : : }
2598 : :
2599 [ # # ]: 0 : for (i = 0; i < reta_size; i += 4) {
2600 : 0 : idx = i / RTE_ETH_RETA_GROUP_SIZE;
2601 : : shift = i % RTE_ETH_RETA_GROUP_SIZE;
2602 : 0 : mask = (uint8_t)RS64(reta_conf[idx].mask, shift, 0xF);
2603 [ # # ]: 0 : if (!mask)
2604 : 0 : continue;
2605 : :
2606 : 0 : reta = rd32a(hw, NGBE_REG_RSSTBL, i >> 2);
2607 [ # # ]: 0 : for (j = 0; j < 4; j++) {
2608 [ # # ]: 0 : if (RS8(mask, j, 0x1))
2609 : 0 : reta_conf[idx].reta[shift + j] =
2610 : 0 : (uint16_t)RS32(reta, 8 * j, 0xFF);
2611 : : }
2612 : : }
2613 : :
2614 : : return 0;
2615 : : }
2616 : :
2617 : : static int
2618 : 0 : ngbe_add_rar(struct rte_eth_dev *dev, struct rte_ether_addr *mac_addr,
2619 : : uint32_t index, uint32_t pool)
2620 : : {
2621 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2622 : : uint32_t enable_addr = 1;
2623 : :
2624 : 0 : return ngbe_set_rar(hw, index, mac_addr->addr_bytes,
2625 : : pool, enable_addr);
2626 : : }
2627 : :
2628 : : static void
2629 : 0 : ngbe_remove_rar(struct rte_eth_dev *dev, uint32_t index)
2630 : : {
2631 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2632 : :
2633 : 0 : ngbe_clear_rar(hw, index);
2634 : 0 : }
2635 : :
2636 : : static int
2637 : 0 : ngbe_set_default_mac_addr(struct rte_eth_dev *dev, struct rte_ether_addr *addr)
2638 : : {
2639 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2640 : :
2641 : : ngbe_remove_rar(dev, 0);
2642 : 0 : ngbe_add_rar(dev, addr, 0, pci_dev->max_vfs);
2643 : :
2644 : 0 : return 0;
2645 : : }
2646 : :
2647 : : static int
2648 [ # # ]: 0 : ngbe_dev_mtu_set(struct rte_eth_dev *dev, uint16_t mtu)
2649 : : {
2650 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2651 : : uint32_t frame_size = mtu + RTE_ETHER_HDR_LEN + RTE_ETHER_CRC_LEN;
2652 : : struct rte_eth_dev_data *dev_data = dev->data;
2653 : :
2654 : : /* If device is started, refuse mtu that requires the support of
2655 : : * scattered packets when this feature has not been enabled before.
2656 : : */
2657 [ # # ]: 0 : if (dev_data->dev_started && !dev_data->scattered_rx &&
2658 : 0 : (frame_size + 2 * RTE_VLAN_HLEN >
2659 [ # # ]: 0 : dev->data->min_rx_buf_size - RTE_PKTMBUF_HEADROOM)) {
2660 : 0 : PMD_INIT_LOG(ERR, "Stop port first.");
2661 : 0 : return -EINVAL;
2662 : : }
2663 : :
2664 : 0 : wr32m(hw, NGBE_FRMSZ, NGBE_FRMSZ_MAX_MASK,
2665 : 0 : NGBE_FRMSZ_MAX(frame_size));
2666 : :
2667 : 0 : return 0;
2668 : : }
2669 : :
2670 : : static uint32_t
2671 : 0 : ngbe_uta_vector(struct ngbe_hw *hw, struct rte_ether_addr *uc_addr)
2672 : : {
2673 : : uint32_t vector = 0;
2674 : :
2675 [ # # # # : 0 : switch (hw->mac.mc_filter_type) {
# ]
2676 : 0 : case 0: /* use bits [47:36] of the address */
2677 : 0 : vector = ((uc_addr->addr_bytes[4] >> 4) |
2678 : 0 : (((uint16_t)uc_addr->addr_bytes[5]) << 4));
2679 : 0 : break;
2680 : 0 : case 1: /* use bits [46:35] of the address */
2681 : 0 : vector = ((uc_addr->addr_bytes[4] >> 3) |
2682 : 0 : (((uint16_t)uc_addr->addr_bytes[5]) << 5));
2683 : 0 : break;
2684 : 0 : case 2: /* use bits [45:34] of the address */
2685 : 0 : vector = ((uc_addr->addr_bytes[4] >> 2) |
2686 : 0 : (((uint16_t)uc_addr->addr_bytes[5]) << 6));
2687 : 0 : break;
2688 : 0 : case 3: /* use bits [43:32] of the address */
2689 : 0 : vector = ((uc_addr->addr_bytes[4]) |
2690 : 0 : (((uint16_t)uc_addr->addr_bytes[5]) << 8));
2691 : 0 : break;
2692 : : default: /* Invalid mc_filter_type */
2693 : : break;
2694 : : }
2695 : :
2696 : : /* vector can only be 12-bits or boundary will be exceeded */
2697 : 0 : vector &= 0xFFF;
2698 : 0 : return vector;
2699 : : }
2700 : :
2701 : : static int
2702 [ # # ]: 0 : ngbe_uc_hash_table_set(struct rte_eth_dev *dev,
2703 : : struct rte_ether_addr *mac_addr, uint8_t on)
2704 : : {
2705 : : uint32_t vector;
2706 : : uint32_t uta_idx;
2707 : : uint32_t reg_val;
2708 : : uint32_t uta_mask;
2709 : : uint32_t psrctl;
2710 : :
2711 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2712 : : struct ngbe_uta_info *uta_info = NGBE_DEV_UTA_INFO(dev);
2713 : :
2714 : 0 : vector = ngbe_uta_vector(hw, mac_addr);
2715 : 0 : uta_idx = (vector >> 5) & 0x7F;
2716 : 0 : uta_mask = 0x1UL << (vector & 0x1F);
2717 : :
2718 [ # # ]: 0 : if (!!on == !!(uta_info->uta_shadow[uta_idx] & uta_mask))
2719 : : return 0;
2720 : :
2721 : 0 : reg_val = rd32(hw, NGBE_UCADDRTBL(uta_idx));
2722 [ # # ]: 0 : if (on) {
2723 : 0 : uta_info->uta_in_use++;
2724 : 0 : reg_val |= uta_mask;
2725 : 0 : uta_info->uta_shadow[uta_idx] |= uta_mask;
2726 : : } else {
2727 : 0 : uta_info->uta_in_use--;
2728 : 0 : reg_val &= ~uta_mask;
2729 : 0 : uta_info->uta_shadow[uta_idx] &= ~uta_mask;
2730 : : }
2731 : :
2732 : : wr32(hw, NGBE_UCADDRTBL(uta_idx), reg_val);
2733 : :
2734 : : psrctl = rd32(hw, NGBE_PSRCTL);
2735 [ # # ]: 0 : if (uta_info->uta_in_use > 0)
2736 : 0 : psrctl |= NGBE_PSRCTL_UCHFENA;
2737 : : else
2738 : 0 : psrctl &= ~NGBE_PSRCTL_UCHFENA;
2739 : :
2740 : 0 : psrctl &= ~NGBE_PSRCTL_ADHF12_MASK;
2741 : 0 : psrctl |= NGBE_PSRCTL_ADHF12(hw->mac.mc_filter_type);
2742 : : wr32(hw, NGBE_PSRCTL, psrctl);
2743 : :
2744 : 0 : return 0;
2745 : : }
2746 : :
2747 : : static int
2748 [ # # ]: 0 : ngbe_uc_all_hash_table_set(struct rte_eth_dev *dev, uint8_t on)
2749 : : {
2750 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2751 : : struct ngbe_uta_info *uta_info = NGBE_DEV_UTA_INFO(dev);
2752 : : uint32_t psrctl;
2753 : : int i;
2754 : :
2755 [ # # ]: 0 : if (on) {
2756 [ # # ]: 0 : for (i = 0; i < RTE_ETH_VMDQ_NUM_UC_HASH_ARRAY; i++) {
2757 : 0 : uta_info->uta_shadow[i] = ~0;
2758 : 0 : wr32(hw, NGBE_UCADDRTBL(i), ~0);
2759 : : }
2760 : : } else {
2761 [ # # ]: 0 : for (i = 0; i < RTE_ETH_VMDQ_NUM_UC_HASH_ARRAY; i++) {
2762 : 0 : uta_info->uta_shadow[i] = 0;
2763 : 0 : wr32(hw, NGBE_UCADDRTBL(i), 0);
2764 : : }
2765 : : }
2766 : :
2767 : : psrctl = rd32(hw, NGBE_PSRCTL);
2768 [ # # ]: 0 : if (on)
2769 : 0 : psrctl |= NGBE_PSRCTL_UCHFENA;
2770 : : else
2771 : 0 : psrctl &= ~NGBE_PSRCTL_UCHFENA;
2772 : :
2773 : 0 : psrctl &= ~NGBE_PSRCTL_ADHF12_MASK;
2774 : 0 : psrctl |= NGBE_PSRCTL_ADHF12(hw->mac.mc_filter_type);
2775 : : wr32(hw, NGBE_PSRCTL, psrctl);
2776 : :
2777 : 0 : return 0;
2778 : : }
2779 : :
2780 : : static int
2781 : 0 : ngbe_dev_rx_queue_intr_enable(struct rte_eth_dev *dev, uint16_t queue_id)
2782 : : {
2783 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2784 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
2785 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2786 : : uint32_t mask;
2787 : :
2788 : : mask = rd32(hw, NGBE_IMC(0));
2789 : 0 : mask |= (1 << queue_id);
2790 : : wr32(hw, NGBE_IMC(0), mask);
2791 : 0 : rte_intr_enable(intr_handle);
2792 : :
2793 : 0 : return 0;
2794 : : }
2795 : :
2796 : : static int
2797 : 0 : ngbe_dev_rx_queue_intr_disable(struct rte_eth_dev *dev, uint16_t queue_id)
2798 : : {
2799 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2800 : : uint32_t mask;
2801 : :
2802 : : mask = rd32(hw, NGBE_IMS(0));
2803 : 0 : mask |= (1 << queue_id);
2804 : : wr32(hw, NGBE_IMS(0), mask);
2805 : :
2806 : 0 : return 0;
2807 : : }
2808 : :
2809 : : /**
2810 : : * Set the IVAR registers, mapping interrupt causes to vectors
2811 : : * @param hw
2812 : : * pointer to ngbe_hw struct
2813 : : * @direction
2814 : : * 0 for Rx, 1 for Tx, -1 for other causes
2815 : : * @queue
2816 : : * queue to map the corresponding interrupt to
2817 : : * @msix_vector
2818 : : * the vector to map to the corresponding queue
2819 : : */
2820 : : void
2821 : 0 : ngbe_set_ivar_map(struct ngbe_hw *hw, int8_t direction,
2822 : : uint8_t queue, uint8_t msix_vector)
2823 : : {
2824 : : uint32_t tmp, idx;
2825 : :
2826 [ # # ]: 0 : if (direction == -1) {
2827 : : /* other causes */
2828 : 0 : msix_vector |= NGBE_IVARMISC_VLD;
2829 : : idx = 0;
2830 : : tmp = rd32(hw, NGBE_IVARMISC);
2831 : 0 : tmp &= ~(0xFF << idx);
2832 : 0 : tmp |= (msix_vector << idx);
2833 : : wr32(hw, NGBE_IVARMISC, tmp);
2834 : : } else {
2835 : : /* rx or tx causes */
2836 : 0 : msix_vector |= NGBE_IVAR_VLD; /* Workaround for ICR lost */
2837 : 0 : idx = ((16 * (queue & 1)) + (8 * direction));
2838 : 0 : tmp = rd32(hw, NGBE_IVAR(queue >> 1));
2839 : 0 : tmp &= ~(0xFF << idx);
2840 : 0 : tmp |= (msix_vector << idx);
2841 : : wr32(hw, NGBE_IVAR(queue >> 1), tmp);
2842 : : }
2843 : 0 : }
2844 : :
2845 : : /**
2846 : : * Sets up the hardware to properly generate MSI-X interrupts
2847 : : * @hw
2848 : : * board private structure
2849 : : */
2850 : : static void
2851 : 0 : ngbe_configure_msix(struct rte_eth_dev *dev)
2852 : : {
2853 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2854 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
2855 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2856 : : uint32_t queue_id, base = NGBE_MISC_VEC_ID;
2857 : : uint32_t vec = NGBE_MISC_VEC_ID;
2858 : : uint32_t gpie;
2859 : :
2860 : : /*
2861 : : * Won't configure MSI-X register if no mapping is done
2862 : : * between intr vector and event fd
2863 : : * but if MSI-X has been enabled already, need to configure
2864 : : * auto clean, auto mask and throttling.
2865 : : */
2866 : : gpie = rd32(hw, NGBE_GPIE);
2867 [ # # ]: 0 : if (!rte_intr_dp_is_en(intr_handle) &&
2868 [ # # ]: 0 : !(gpie & NGBE_GPIE_MSIX))
2869 : : return;
2870 : :
2871 [ # # ]: 0 : if (rte_intr_allow_others(intr_handle)) {
2872 : : base = NGBE_RX_VEC_START;
2873 : : vec = base;
2874 : : }
2875 : :
2876 : : /* setup GPIE for MSI-X mode */
2877 : : gpie = rd32(hw, NGBE_GPIE);
2878 : 0 : gpie |= NGBE_GPIE_MSIX;
2879 : : wr32(hw, NGBE_GPIE, gpie);
2880 : :
2881 : : /* Populate the IVAR table and set the ITR values to the
2882 : : * corresponding register.
2883 : : */
2884 [ # # ]: 0 : if (rte_intr_dp_is_en(intr_handle)) {
2885 [ # # ]: 0 : for (queue_id = 0; queue_id < dev->data->nb_rx_queues;
2886 : 0 : queue_id++) {
2887 : : /* by default, 1:1 mapping */
2888 : 0 : ngbe_set_ivar_map(hw, 0, queue_id, vec);
2889 : 0 : rte_intr_vec_list_index_set(intr_handle,
2890 : : queue_id, vec);
2891 : 0 : if (vec < base + rte_intr_nb_efd_get(intr_handle)
2892 [ # # ]: 0 : - 1)
2893 : 0 : vec++;
2894 : : }
2895 : :
2896 : 0 : ngbe_set_ivar_map(hw, -1, 1, NGBE_MISC_VEC_ID);
2897 : : }
2898 : : wr32(hw, NGBE_ITR(NGBE_MISC_VEC_ID),
2899 : : NGBE_ITR_IVAL_1G(NGBE_QUEUE_ITR_INTERVAL_DEFAULT)
2900 : : | NGBE_ITR_WRDSA);
2901 : : }
2902 : :
2903 : : static u8 *
2904 : 0 : ngbe_dev_addr_list_itr(__rte_unused struct ngbe_hw *hw,
2905 : : u8 **mc_addr_ptr, u32 *vmdq)
2906 : : {
2907 : : u8 *mc_addr;
2908 : :
2909 : 0 : *vmdq = 0;
2910 : 0 : mc_addr = *mc_addr_ptr;
2911 : 0 : *mc_addr_ptr = (mc_addr + sizeof(struct rte_ether_addr));
2912 : 0 : return mc_addr;
2913 : : }
2914 : :
2915 : : int
2916 : 0 : ngbe_dev_set_mc_addr_list(struct rte_eth_dev *dev,
2917 : : struct rte_ether_addr *mc_addr_set,
2918 : : uint32_t nb_mc_addr)
2919 : : {
2920 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2921 : : u8 *mc_addr_list;
2922 : :
2923 : : mc_addr_list = (u8 *)mc_addr_set;
2924 : 0 : return hw->mac.update_mc_addr_list(hw, mc_addr_list, nb_mc_addr,
2925 : : ngbe_dev_addr_list_itr, TRUE);
2926 : : }
2927 : :
2928 : : static uint64_t
2929 : : ngbe_read_systime_cyclecounter(struct rte_eth_dev *dev)
2930 : : {
2931 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2932 : : uint64_t systime_cycles;
2933 : :
2934 : 0 : systime_cycles = (uint64_t)rd32(hw, NGBE_TSTIMEL);
2935 [ # # ]: 0 : systime_cycles |= (uint64_t)rd32(hw, NGBE_TSTIMEH) << 32;
2936 : :
2937 : : return systime_cycles;
2938 : : }
2939 : :
2940 : : static uint64_t
2941 : : ngbe_read_rx_tstamp_cyclecounter(struct rte_eth_dev *dev)
2942 : : {
2943 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2944 : : uint64_t rx_tstamp_cycles;
2945 : :
2946 : : /* TSRXSTMPL stores ns and TSRXSTMPH stores seconds. */
2947 : 0 : rx_tstamp_cycles = (uint64_t)rd32(hw, NGBE_TSRXSTMPL);
2948 [ # # ]: 0 : rx_tstamp_cycles |= (uint64_t)rd32(hw, NGBE_TSRXSTMPH) << 32;
2949 : :
2950 : : return rx_tstamp_cycles;
2951 : : }
2952 : :
2953 : : static uint64_t
2954 : : ngbe_read_tx_tstamp_cyclecounter(struct rte_eth_dev *dev)
2955 : : {
2956 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2957 : : uint64_t tx_tstamp_cycles;
2958 : :
2959 : : /* TSTXSTMPL stores ns and TSTXSTMPH stores seconds. */
2960 : 0 : tx_tstamp_cycles = (uint64_t)rd32(hw, NGBE_TSTXSTMPL);
2961 [ # # ]: 0 : tx_tstamp_cycles |= (uint64_t)rd32(hw, NGBE_TSTXSTMPH) << 32;
2962 : :
2963 : : return tx_tstamp_cycles;
2964 : : }
2965 : :
2966 : : static void
2967 : 0 : ngbe_start_timecounters(struct rte_eth_dev *dev)
2968 : : {
2969 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2970 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
2971 : : uint32_t incval = 0;
2972 : : uint32_t shift = 0;
2973 : :
2974 : : incval = NGBE_INCVAL_1GB;
2975 : : shift = NGBE_INCVAL_SHIFT_1GB;
2976 : :
2977 : : wr32(hw, NGBE_TSTIMEINC, NGBE_TSTIMEINC_IV(incval));
2978 : :
2979 : 0 : memset(&adapter->systime_tc, 0, sizeof(struct rte_timecounter));
2980 : 0 : memset(&adapter->rx_tstamp_tc, 0, sizeof(struct rte_timecounter));
2981 : 0 : memset(&adapter->tx_tstamp_tc, 0, sizeof(struct rte_timecounter));
2982 : :
2983 : 0 : adapter->systime_tc.cc_mask = NGBE_CYCLECOUNTER_MASK;
2984 : 0 : adapter->systime_tc.cc_shift = shift;
2985 : 0 : adapter->systime_tc.nsec_mask = (1ULL << shift) - 1;
2986 : :
2987 : 0 : adapter->rx_tstamp_tc.cc_mask = NGBE_CYCLECOUNTER_MASK;
2988 : 0 : adapter->rx_tstamp_tc.cc_shift = shift;
2989 : 0 : adapter->rx_tstamp_tc.nsec_mask = (1ULL << shift) - 1;
2990 : :
2991 : 0 : adapter->tx_tstamp_tc.cc_mask = NGBE_CYCLECOUNTER_MASK;
2992 : 0 : adapter->tx_tstamp_tc.cc_shift = shift;
2993 : 0 : adapter->tx_tstamp_tc.nsec_mask = (1ULL << shift) - 1;
2994 : 0 : }
2995 : :
2996 : : static int
2997 : 0 : ngbe_timesync_adjust_time(struct rte_eth_dev *dev, int64_t delta)
2998 : : {
2999 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
3000 : :
3001 : 0 : adapter->systime_tc.nsec += delta;
3002 : 0 : adapter->rx_tstamp_tc.nsec += delta;
3003 : 0 : adapter->tx_tstamp_tc.nsec += delta;
3004 : :
3005 : 0 : return 0;
3006 : : }
3007 : :
3008 : : static int
3009 : 0 : ngbe_timesync_write_time(struct rte_eth_dev *dev, const struct timespec *ts)
3010 : : {
3011 : : uint64_t ns;
3012 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
3013 : :
3014 : : ns = rte_timespec_to_ns(ts);
3015 : : /* Set the timecounters to a new value. */
3016 : 0 : adapter->systime_tc.nsec = ns;
3017 : 0 : adapter->rx_tstamp_tc.nsec = ns;
3018 : 0 : adapter->tx_tstamp_tc.nsec = ns;
3019 : :
3020 : 0 : return 0;
3021 : : }
3022 : :
3023 : : static int
3024 : 0 : ngbe_timesync_read_time(struct rte_eth_dev *dev, struct timespec *ts)
3025 : : {
3026 : : uint64_t ns, systime_cycles;
3027 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
3028 : :
3029 : : systime_cycles = ngbe_read_systime_cyclecounter(dev);
3030 : : ns = rte_timecounter_update(&adapter->systime_tc, systime_cycles);
3031 : 0 : *ts = rte_ns_to_timespec(ns);
3032 : :
3033 : 0 : return 0;
3034 : : }
3035 : :
3036 : : static int
3037 : 0 : ngbe_timesync_enable(struct rte_eth_dev *dev)
3038 : : {
3039 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3040 : : uint32_t tsync_ctl;
3041 : :
3042 : : /* Stop the timesync system time. */
3043 : : wr32(hw, NGBE_TSTIMEINC, 0x0);
3044 : : /* Reset the timesync system time value. */
3045 : : wr32(hw, NGBE_TSTIMEL, 0x0);
3046 : : wr32(hw, NGBE_TSTIMEH, 0x0);
3047 : :
3048 : 0 : ngbe_start_timecounters(dev);
3049 : :
3050 : : /* Enable L2 filtering of IEEE1588/802.1AS Ethernet frame types. */
3051 : : wr32(hw, NGBE_ETFLT(NGBE_ETF_ID_1588),
3052 : : RTE_ETHER_TYPE_1588 | NGBE_ETFLT_ENA | NGBE_ETFLT_1588);
3053 : :
3054 : : /* Enable timestamping of received PTP packets. */
3055 : : tsync_ctl = rd32(hw, NGBE_TSRXCTL);
3056 : 0 : tsync_ctl |= NGBE_TSRXCTL_ENA;
3057 : : wr32(hw, NGBE_TSRXCTL, tsync_ctl);
3058 : :
3059 : : /* Enable timestamping of transmitted PTP packets. */
3060 : : tsync_ctl = rd32(hw, NGBE_TSTXCTL);
3061 : 0 : tsync_ctl |= NGBE_TSTXCTL_ENA;
3062 : : wr32(hw, NGBE_TSTXCTL, tsync_ctl);
3063 : :
3064 : : ngbe_flush(hw);
3065 : :
3066 : 0 : return 0;
3067 : : }
3068 : :
3069 : : static int
3070 : 0 : ngbe_timesync_disable(struct rte_eth_dev *dev)
3071 : : {
3072 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3073 : : uint32_t tsync_ctl;
3074 : :
3075 : : /* Disable timestamping of transmitted PTP packets. */
3076 : : tsync_ctl = rd32(hw, NGBE_TSTXCTL);
3077 : 0 : tsync_ctl &= ~NGBE_TSTXCTL_ENA;
3078 : : wr32(hw, NGBE_TSTXCTL, tsync_ctl);
3079 : :
3080 : : /* Disable timestamping of received PTP packets. */
3081 : : tsync_ctl = rd32(hw, NGBE_TSRXCTL);
3082 : 0 : tsync_ctl &= ~NGBE_TSRXCTL_ENA;
3083 : : wr32(hw, NGBE_TSRXCTL, tsync_ctl);
3084 : :
3085 : : /* Disable L2 filtering of IEEE1588/802.1AS Ethernet frame types. */
3086 : : wr32(hw, NGBE_ETFLT(NGBE_ETF_ID_1588), 0);
3087 : :
3088 : : /* Stop incrementing the System Time registers. */
3089 : : wr32(hw, NGBE_TSTIMEINC, 0);
3090 : :
3091 : 0 : return 0;
3092 : : }
3093 : :
3094 : : static int
3095 : 0 : ngbe_timesync_read_rx_timestamp(struct rte_eth_dev *dev,
3096 : : struct timespec *timestamp,
3097 : : uint32_t flags __rte_unused)
3098 : : {
3099 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3100 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
3101 : : uint32_t tsync_rxctl;
3102 : : uint64_t rx_tstamp_cycles;
3103 : : uint64_t ns;
3104 : :
3105 : : tsync_rxctl = rd32(hw, NGBE_TSRXCTL);
3106 [ # # ]: 0 : if ((tsync_rxctl & NGBE_TSRXCTL_VLD) == 0)
3107 : : return -EINVAL;
3108 : :
3109 : : rx_tstamp_cycles = ngbe_read_rx_tstamp_cyclecounter(dev);
3110 : : ns = rte_timecounter_update(&adapter->rx_tstamp_tc, rx_tstamp_cycles);
3111 : 0 : *timestamp = rte_ns_to_timespec(ns);
3112 : :
3113 : 0 : return 0;
3114 : : }
3115 : :
3116 : : static int
3117 : 0 : ngbe_timesync_read_tx_timestamp(struct rte_eth_dev *dev,
3118 : : struct timespec *timestamp)
3119 : : {
3120 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3121 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
3122 : : uint32_t tsync_txctl;
3123 : : uint64_t tx_tstamp_cycles;
3124 : : uint64_t ns;
3125 : :
3126 : : tsync_txctl = rd32(hw, NGBE_TSTXCTL);
3127 [ # # ]: 0 : if ((tsync_txctl & NGBE_TSTXCTL_VLD) == 0)
3128 : : return -EINVAL;
3129 : :
3130 : : tx_tstamp_cycles = ngbe_read_tx_tstamp_cyclecounter(dev);
3131 : : ns = rte_timecounter_update(&adapter->tx_tstamp_tc, tx_tstamp_cycles);
3132 : 0 : *timestamp = rte_ns_to_timespec(ns);
3133 : :
3134 : 0 : return 0;
3135 : : }
3136 : :
3137 : : static int
3138 : : ngbe_get_reg_length(struct rte_eth_dev *dev __rte_unused)
3139 : : {
3140 : : int count = 0;
3141 : : int g_ind = 0;
3142 : : const struct reg_info *reg_group;
3143 : : const struct reg_info **reg_set = ngbe_regs_others;
3144 : :
3145 [ # # # # ]: 0 : while ((reg_group = reg_set[g_ind++]))
3146 : 0 : count += ngbe_regs_group_count(reg_group);
3147 : :
3148 : : return count;
3149 : : }
3150 : :
3151 : : static int
3152 [ # # ]: 0 : ngbe_get_regs(struct rte_eth_dev *dev,
3153 : : struct rte_dev_reg_info *regs)
3154 : : {
3155 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3156 : 0 : uint32_t *data = regs->data;
3157 : : int g_ind = 0;
3158 : : int count = 0;
3159 : : const struct reg_info *reg_group;
3160 : : const struct reg_info **reg_set = ngbe_regs_others;
3161 : :
3162 [ # # ]: 0 : if (data == NULL) {
3163 : 0 : regs->length = ngbe_get_reg_length(dev);
3164 : 0 : regs->width = sizeof(uint32_t);
3165 : 0 : return 0;
3166 : : }
3167 : :
3168 : : /* Support only full register dump */
3169 [ # # ]: 0 : if (regs->length == 0 ||
3170 [ # # ]: 0 : regs->length == (uint32_t)ngbe_get_reg_length(dev)) {
3171 : 0 : regs->version = hw->mac.type << 24 |
3172 : 0 : hw->revision_id << 16 |
3173 : 0 : hw->device_id;
3174 [ # # ]: 0 : while ((reg_group = reg_set[g_ind++]))
3175 : 0 : count += ngbe_read_regs_group(dev, &data[count],
3176 : : reg_group);
3177 : : return 0;
3178 : : }
3179 : :
3180 : : return -ENOTSUP;
3181 : : }
3182 : :
3183 : : static int
3184 : 0 : ngbe_get_eeprom_length(struct rte_eth_dev *dev)
3185 : : {
3186 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3187 : :
3188 : : /* Return unit is byte count */
3189 : 0 : return hw->rom.word_size * 2;
3190 : : }
3191 : :
3192 : : static int
3193 [ # # ]: 0 : ngbe_get_eeprom(struct rte_eth_dev *dev,
3194 : : struct rte_dev_eeprom_info *in_eeprom)
3195 : : {
3196 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3197 : : struct ngbe_rom_info *eeprom = &hw->rom;
3198 : 0 : uint16_t *data = in_eeprom->data;
3199 : : int first, length;
3200 : :
3201 : 0 : first = in_eeprom->offset >> 1;
3202 : 0 : length = in_eeprom->length >> 1;
3203 [ # # ]: 0 : if (first > hw->rom.word_size ||
3204 [ # # ]: 0 : ((first + length) > hw->rom.word_size))
3205 : : return -EINVAL;
3206 : :
3207 : 0 : in_eeprom->magic = hw->vendor_id | (hw->device_id << 16);
3208 : :
3209 : 0 : return eeprom->readw_buffer(hw, first, length, data);
3210 : : }
3211 : :
3212 : : static int
3213 [ # # ]: 0 : ngbe_set_eeprom(struct rte_eth_dev *dev,
3214 : : struct rte_dev_eeprom_info *in_eeprom)
3215 : : {
3216 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3217 : : struct ngbe_rom_info *eeprom = &hw->rom;
3218 : 0 : uint16_t *data = in_eeprom->data;
3219 : : int first, length;
3220 : :
3221 : 0 : first = in_eeprom->offset >> 1;
3222 : 0 : length = in_eeprom->length >> 1;
3223 [ # # ]: 0 : if (first > hw->rom.word_size ||
3224 [ # # ]: 0 : ((first + length) > hw->rom.word_size))
3225 : : return -EINVAL;
3226 : :
3227 : 0 : in_eeprom->magic = hw->vendor_id | (hw->device_id << 16);
3228 : :
3229 : 0 : return eeprom->writew_buffer(hw, first, length, data);
3230 : : }
3231 : :
3232 : : static const struct eth_dev_ops ngbe_eth_dev_ops = {
3233 : : .dev_configure = ngbe_dev_configure,
3234 : : .dev_infos_get = ngbe_dev_info_get,
3235 : : .dev_start = ngbe_dev_start,
3236 : : .dev_stop = ngbe_dev_stop,
3237 : : .dev_set_link_up = ngbe_dev_set_link_up,
3238 : : .dev_set_link_down = ngbe_dev_set_link_down,
3239 : : .dev_close = ngbe_dev_close,
3240 : : .dev_reset = ngbe_dev_reset,
3241 : : .promiscuous_enable = ngbe_dev_promiscuous_enable,
3242 : : .promiscuous_disable = ngbe_dev_promiscuous_disable,
3243 : : .allmulticast_enable = ngbe_dev_allmulticast_enable,
3244 : : .allmulticast_disable = ngbe_dev_allmulticast_disable,
3245 : : .link_update = ngbe_dev_link_update,
3246 : : .stats_get = ngbe_dev_stats_get,
3247 : : .xstats_get = ngbe_dev_xstats_get,
3248 : : .xstats_get_by_id = ngbe_dev_xstats_get_by_id,
3249 : : .stats_reset = ngbe_dev_stats_reset,
3250 : : .xstats_reset = ngbe_dev_xstats_reset,
3251 : : .xstats_get_names = ngbe_dev_xstats_get_names,
3252 : : .xstats_get_names_by_id = ngbe_dev_xstats_get_names_by_id,
3253 : : .fw_version_get = ngbe_fw_version_get,
3254 : : .dev_supported_ptypes_get = ngbe_dev_supported_ptypes_get,
3255 : : .mtu_set = ngbe_dev_mtu_set,
3256 : : .vlan_filter_set = ngbe_vlan_filter_set,
3257 : : .vlan_tpid_set = ngbe_vlan_tpid_set,
3258 : : .vlan_offload_set = ngbe_vlan_offload_set,
3259 : : .vlan_strip_queue_set = ngbe_vlan_strip_queue_set,
3260 : : .rx_queue_start = ngbe_dev_rx_queue_start,
3261 : : .rx_queue_stop = ngbe_dev_rx_queue_stop,
3262 : : .tx_queue_start = ngbe_dev_tx_queue_start,
3263 : : .tx_queue_stop = ngbe_dev_tx_queue_stop,
3264 : : .rx_queue_setup = ngbe_dev_rx_queue_setup,
3265 : : .rx_queue_release = ngbe_dev_rx_queue_release,
3266 : : .tx_queue_setup = ngbe_dev_tx_queue_setup,
3267 : : .tx_queue_release = ngbe_dev_tx_queue_release,
3268 : : .rx_queue_intr_enable = ngbe_dev_rx_queue_intr_enable,
3269 : : .rx_queue_intr_disable = ngbe_dev_rx_queue_intr_disable,
3270 : : .dev_led_on = ngbe_dev_led_on,
3271 : : .dev_led_off = ngbe_dev_led_off,
3272 : : .flow_ctrl_get = ngbe_flow_ctrl_get,
3273 : : .flow_ctrl_set = ngbe_flow_ctrl_set,
3274 : : .mac_addr_add = ngbe_add_rar,
3275 : : .mac_addr_remove = ngbe_remove_rar,
3276 : : .mac_addr_set = ngbe_set_default_mac_addr,
3277 : : .uc_hash_table_set = ngbe_uc_hash_table_set,
3278 : : .uc_all_hash_table_set = ngbe_uc_all_hash_table_set,
3279 : : .reta_update = ngbe_dev_rss_reta_update,
3280 : : .reta_query = ngbe_dev_rss_reta_query,
3281 : : .rss_hash_update = ngbe_dev_rss_hash_update,
3282 : : .rss_hash_conf_get = ngbe_dev_rss_hash_conf_get,
3283 : : .set_mc_addr_list = ngbe_dev_set_mc_addr_list,
3284 : : .rxq_info_get = ngbe_rxq_info_get,
3285 : : .txq_info_get = ngbe_txq_info_get,
3286 : : .rx_burst_mode_get = ngbe_rx_burst_mode_get,
3287 : : .tx_burst_mode_get = ngbe_tx_burst_mode_get,
3288 : : .timesync_enable = ngbe_timesync_enable,
3289 : : .timesync_disable = ngbe_timesync_disable,
3290 : : .timesync_read_rx_timestamp = ngbe_timesync_read_rx_timestamp,
3291 : : .timesync_read_tx_timestamp = ngbe_timesync_read_tx_timestamp,
3292 : : .get_reg = ngbe_get_regs,
3293 : : .get_eeprom_length = ngbe_get_eeprom_length,
3294 : : .get_eeprom = ngbe_get_eeprom,
3295 : : .set_eeprom = ngbe_set_eeprom,
3296 : : .timesync_adjust_time = ngbe_timesync_adjust_time,
3297 : : .timesync_read_time = ngbe_timesync_read_time,
3298 : : .timesync_write_time = ngbe_timesync_write_time,
3299 : : .tx_done_cleanup = ngbe_dev_tx_done_cleanup,
3300 : : };
3301 : :
3302 : 253 : RTE_PMD_REGISTER_PCI(net_ngbe, rte_ngbe_pmd);
3303 : : RTE_PMD_REGISTER_PCI_TABLE(net_ngbe, pci_id_ngbe_map);
3304 : : RTE_PMD_REGISTER_KMOD_DEP(net_ngbe, "* igb_uio | uio_pci_generic | vfio-pci");
3305 : :
3306 [ - + ]: 253 : RTE_LOG_REGISTER_SUFFIX(ngbe_logtype_init, init, NOTICE);
3307 [ - + ]: 253 : RTE_LOG_REGISTER_SUFFIX(ngbe_logtype_driver, driver, NOTICE);
3308 : :
3309 : : #ifdef RTE_ETHDEV_DEBUG_RX
3310 : : RTE_LOG_REGISTER_SUFFIX(ngbe_logtype_rx, rx, DEBUG);
3311 : : #endif
3312 : : #ifdef RTE_ETHDEV_DEBUG_TX
3313 : : RTE_LOG_REGISTER_SUFFIX(ngbe_logtype_tx, tx, DEBUG);
3314 : : #endif
|