Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright(c) 2018-2021 Beijing WangXun Technology Co., Ltd.
3 : : * Copyright(c) 2010-2017 Intel Corporation
4 : : */
5 : :
6 : : #include <errno.h>
7 : : #include <rte_common.h>
8 : : #include <ethdev_pci.h>
9 : :
10 : : #include <rte_alarm.h>
11 : :
12 : : #include "ngbe_logs.h"
13 : : #include "ngbe.h"
14 : : #include "ngbe_ethdev.h"
15 : : #include "ngbe_rxtx.h"
16 : : #include "ngbe_regs_group.h"
17 : :
18 : : static const struct reg_info ngbe_regs_general[] = {
19 : : {NGBE_RST, 1, 1, "NGBE_RST"},
20 : : {NGBE_STAT, 1, 1, "NGBE_STAT"},
21 : : {NGBE_PORTCTL, 1, 1, "NGBE_PORTCTL"},
22 : : {NGBE_GPIODATA, 1, 1, "NGBE_GPIODATA"},
23 : : {NGBE_GPIOCTL, 1, 1, "NGBE_GPIOCTL"},
24 : : {NGBE_LEDCTL, 1, 1, "NGBE_LEDCTL"},
25 : : {0, 0, 0, ""}
26 : : };
27 : :
28 : : static const struct reg_info ngbe_regs_nvm[] = {
29 : : {0, 0, 0, ""}
30 : : };
31 : :
32 : : static const struct reg_info ngbe_regs_interrupt[] = {
33 : : {0, 0, 0, ""}
34 : : };
35 : :
36 : : static const struct reg_info ngbe_regs_fctl_others[] = {
37 : : {0, 0, 0, ""}
38 : : };
39 : :
40 : : static const struct reg_info ngbe_regs_rxdma[] = {
41 : : {0, 0, 0, ""}
42 : : };
43 : :
44 : : static const struct reg_info ngbe_regs_rx[] = {
45 : : {0, 0, 0, ""}
46 : : };
47 : :
48 : : static struct reg_info ngbe_regs_tx[] = {
49 : : {0, 0, 0, ""}
50 : : };
51 : :
52 : : static const struct reg_info ngbe_regs_wakeup[] = {
53 : : {0, 0, 0, ""}
54 : : };
55 : :
56 : : static const struct reg_info ngbe_regs_mac[] = {
57 : : {0, 0, 0, ""}
58 : : };
59 : :
60 : : static const struct reg_info ngbe_regs_diagnostic[] = {
61 : : {0, 0, 0, ""},
62 : : };
63 : :
64 : : /* PF registers */
65 : : static const struct reg_info *ngbe_regs_others[] = {
66 : : ngbe_regs_general,
67 : : ngbe_regs_nvm,
68 : : ngbe_regs_interrupt,
69 : : ngbe_regs_fctl_others,
70 : : ngbe_regs_rxdma,
71 : : ngbe_regs_rx,
72 : : ngbe_regs_tx,
73 : : ngbe_regs_wakeup,
74 : : ngbe_regs_mac,
75 : : ngbe_regs_diagnostic,
76 : : NULL};
77 : :
78 : : static int ngbe_dev_close(struct rte_eth_dev *dev);
79 : : static int ngbe_dev_link_update(struct rte_eth_dev *dev,
80 : : int wait_to_complete);
81 : : static int ngbe_dev_stats_reset(struct rte_eth_dev *dev);
82 : : static void ngbe_vlan_hw_strip_enable(struct rte_eth_dev *dev, uint16_t queue);
83 : : static void ngbe_vlan_hw_strip_disable(struct rte_eth_dev *dev,
84 : : uint16_t queue);
85 : :
86 : : static void ngbe_dev_link_status_print(struct rte_eth_dev *dev);
87 : : static int ngbe_dev_lsc_interrupt_setup(struct rte_eth_dev *dev, uint8_t on);
88 : : static int ngbe_dev_macsec_interrupt_setup(struct rte_eth_dev *dev);
89 : : static int ngbe_dev_misc_interrupt_setup(struct rte_eth_dev *dev);
90 : : static int ngbe_dev_rxq_interrupt_setup(struct rte_eth_dev *dev);
91 : : static void ngbe_dev_interrupt_handler(void *param);
92 : : static void ngbe_configure_msix(struct rte_eth_dev *dev);
93 : : static void ngbe_pbthresh_set(struct rte_eth_dev *dev);
94 : :
95 : : #define NGBE_SET_HWSTRIP(h, q) do {\
96 : : uint32_t idx = (q) / (sizeof((h)->bitmap[0]) * NBBY); \
97 : : uint32_t bit = (q) % (sizeof((h)->bitmap[0]) * NBBY); \
98 : : (h)->bitmap[idx] |= 1 << bit;\
99 : : } while (0)
100 : :
101 : : #define NGBE_CLEAR_HWSTRIP(h, q) do {\
102 : : uint32_t idx = (q) / (sizeof((h)->bitmap[0]) * NBBY); \
103 : : uint32_t bit = (q) % (sizeof((h)->bitmap[0]) * NBBY); \
104 : : (h)->bitmap[idx] &= ~(1 << bit);\
105 : : } while (0)
106 : :
107 : : #define NGBE_GET_HWSTRIP(h, q, r) do {\
108 : : uint32_t idx = (q) / (sizeof((h)->bitmap[0]) * NBBY); \
109 : : uint32_t bit = (q) % (sizeof((h)->bitmap[0]) * NBBY); \
110 : : (r) = (h)->bitmap[idx] >> bit & 1;\
111 : : } while (0)
112 : :
113 : : /*
114 : : * The set of PCI devices this driver supports
115 : : */
116 : : static const struct rte_pci_id pci_id_ngbe_map[] = {
117 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A2) },
118 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A2S) },
119 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A4) },
120 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A4S) },
121 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860AL2) },
122 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860AL2S) },
123 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860AL4) },
124 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860AL4S) },
125 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860NCSI) },
126 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A1) },
127 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860A1L) },
128 : : { RTE_PCI_DEVICE(PCI_VENDOR_ID_WANGXUN, NGBE_DEV_ID_EM_WX1860AL_W) },
129 : : { .vendor_id = 0, /* sentinel */ },
130 : : };
131 : :
132 : : static const struct rte_eth_desc_lim rx_desc_lim = {
133 : : .nb_max = NGBE_RING_DESC_MAX,
134 : : .nb_min = NGBE_RING_DESC_MIN,
135 : : .nb_align = NGBE_RXD_ALIGN,
136 : : };
137 : :
138 : : static const struct rte_eth_desc_lim tx_desc_lim = {
139 : : .nb_max = NGBE_RING_DESC_MAX,
140 : : .nb_min = NGBE_RING_DESC_MIN,
141 : : .nb_align = NGBE_TXD_ALIGN,
142 : : .nb_seg_max = NGBE_TX_MAX_SEG,
143 : : .nb_mtu_seg_max = NGBE_TX_MAX_SEG,
144 : : };
145 : :
146 : : static const struct eth_dev_ops ngbe_eth_dev_ops;
147 : :
148 : : #define HW_XSTAT(m) {#m, offsetof(struct ngbe_hw_stats, m)}
149 : : #define HW_XSTAT_NAME(m, n) {n, offsetof(struct ngbe_hw_stats, m)}
150 : : static const struct rte_ngbe_xstats_name_off rte_ngbe_stats_strings[] = {
151 : : /* MNG RxTx */
152 : : HW_XSTAT(mng_bmc2host_packets),
153 : : HW_XSTAT(mng_host2bmc_packets),
154 : : /* Basic RxTx */
155 : : HW_XSTAT(rx_packets),
156 : : HW_XSTAT(tx_packets),
157 : : HW_XSTAT(rx_bytes),
158 : : HW_XSTAT(tx_bytes),
159 : : HW_XSTAT(rx_total_bytes),
160 : : HW_XSTAT(rx_total_packets),
161 : : HW_XSTAT(tx_total_packets),
162 : : HW_XSTAT(rx_total_missed_packets),
163 : : HW_XSTAT(rx_broadcast_packets),
164 : : HW_XSTAT(tx_broadcast_packets),
165 : : HW_XSTAT(rx_multicast_packets),
166 : : HW_XSTAT(tx_multicast_packets),
167 : : HW_XSTAT(rx_management_packets),
168 : : HW_XSTAT(tx_management_packets),
169 : : HW_XSTAT(rx_management_dropped),
170 : : HW_XSTAT(rx_dma_drop),
171 : : HW_XSTAT(tx_dma_drop),
172 : : HW_XSTAT(tx_secdrp_packets),
173 : :
174 : : /* Basic Error */
175 : : HW_XSTAT(rx_crc_errors),
176 : : HW_XSTAT(rx_illegal_byte_errors),
177 : : HW_XSTAT(rx_error_bytes),
178 : : HW_XSTAT(rx_mac_short_packet_dropped),
179 : : HW_XSTAT(rx_length_errors),
180 : : HW_XSTAT(rx_undersize_errors),
181 : : HW_XSTAT(rx_fragment_errors),
182 : : HW_XSTAT(rx_oversize_cnt),
183 : : HW_XSTAT(rx_jabber_errors),
184 : : HW_XSTAT(rx_l3_l4_xsum_error),
185 : : HW_XSTAT(mac_local_errors),
186 : : HW_XSTAT(mac_remote_errors),
187 : :
188 : : /* PB Stats */
189 : : HW_XSTAT(rx_up_dropped),
190 : : HW_XSTAT(rdb_pkt_cnt),
191 : : HW_XSTAT(rdb_repli_cnt),
192 : : HW_XSTAT(rdb_drp_cnt),
193 : :
194 : : /* MACSEC */
195 : : HW_XSTAT(tx_macsec_pkts_untagged),
196 : : HW_XSTAT(tx_macsec_pkts_encrypted),
197 : : HW_XSTAT(tx_macsec_pkts_protected),
198 : : HW_XSTAT(tx_macsec_octets_encrypted),
199 : : HW_XSTAT(tx_macsec_octets_protected),
200 : : HW_XSTAT(rx_macsec_pkts_untagged),
201 : : HW_XSTAT(rx_macsec_pkts_badtag),
202 : : HW_XSTAT(rx_macsec_pkts_nosci),
203 : : HW_XSTAT(rx_macsec_pkts_unknownsci),
204 : : HW_XSTAT(rx_macsec_octets_decrypted),
205 : : HW_XSTAT(rx_macsec_octets_validated),
206 : : HW_XSTAT(rx_macsec_sc_pkts_unchecked),
207 : : HW_XSTAT(rx_macsec_sc_pkts_delayed),
208 : : HW_XSTAT(rx_macsec_sc_pkts_late),
209 : : HW_XSTAT(rx_macsec_sa_pkts_ok),
210 : : HW_XSTAT(rx_macsec_sa_pkts_invalid),
211 : : HW_XSTAT(rx_macsec_sa_pkts_notvalid),
212 : : HW_XSTAT(rx_macsec_sa_pkts_unusedsa),
213 : : HW_XSTAT(rx_macsec_sa_pkts_notusingsa),
214 : :
215 : : /* MAC RxTx */
216 : : HW_XSTAT(rx_size_64_packets),
217 : : HW_XSTAT(rx_size_65_to_127_packets),
218 : : HW_XSTAT(rx_size_128_to_255_packets),
219 : : HW_XSTAT(rx_size_256_to_511_packets),
220 : : HW_XSTAT(rx_size_512_to_1023_packets),
221 : : HW_XSTAT(rx_size_1024_to_max_packets),
222 : : HW_XSTAT(tx_size_64_packets),
223 : : HW_XSTAT(tx_size_65_to_127_packets),
224 : : HW_XSTAT(tx_size_128_to_255_packets),
225 : : HW_XSTAT(tx_size_256_to_511_packets),
226 : : HW_XSTAT(tx_size_512_to_1023_packets),
227 : : HW_XSTAT(tx_size_1024_to_max_packets),
228 : :
229 : : /* Flow Control */
230 : : HW_XSTAT(tx_xon_packets),
231 : : HW_XSTAT(rx_xon_packets),
232 : : HW_XSTAT(tx_xoff_packets),
233 : : HW_XSTAT(rx_xoff_packets),
234 : :
235 : : HW_XSTAT_NAME(tx_xon_packets, "tx_flow_control_xon_packets"),
236 : : HW_XSTAT_NAME(rx_xon_packets, "rx_flow_control_xon_packets"),
237 : : HW_XSTAT_NAME(tx_xoff_packets, "tx_flow_control_xoff_packets"),
238 : : HW_XSTAT_NAME(rx_xoff_packets, "rx_flow_control_xoff_packets"),
239 : : };
240 : :
241 : : #define NGBE_NB_HW_STATS (sizeof(rte_ngbe_stats_strings) / \
242 : : sizeof(rte_ngbe_stats_strings[0]))
243 : :
244 : : /* Per-queue statistics */
245 : : #define QP_XSTAT(m) {#m, offsetof(struct ngbe_hw_stats, qp[0].m)}
246 : : static const struct rte_ngbe_xstats_name_off rte_ngbe_qp_strings[] = {
247 : : QP_XSTAT(rx_qp_packets),
248 : : QP_XSTAT(tx_qp_packets),
249 : : QP_XSTAT(rx_qp_bytes),
250 : : QP_XSTAT(tx_qp_bytes),
251 : : QP_XSTAT(rx_qp_mc_packets),
252 : : };
253 : :
254 : : #define NGBE_NB_QP_STATS (sizeof(rte_ngbe_qp_strings) / \
255 : : sizeof(rte_ngbe_qp_strings[0]))
256 : :
257 : : static inline int32_t
258 : : ngbe_pf_reset_hw(struct ngbe_hw *hw)
259 : : {
260 : : uint32_t ctrl_ext;
261 : : int32_t status;
262 : :
263 : 0 : status = hw->mac.reset_hw(hw);
264 : :
265 : : ctrl_ext = rd32(hw, NGBE_PORTCTL);
266 : : /* let hardware know driver is loaded */
267 : : ctrl_ext |= NGBE_PORTCTL_DRVLOAD;
268 : : /* Set PF Reset Done bit so PF/VF Mail Ops can work */
269 : 0 : ctrl_ext |= NGBE_PORTCTL_RSTDONE;
270 : : wr32(hw, NGBE_PORTCTL, ctrl_ext);
271 : : ngbe_flush(hw);
272 : :
273 [ # # ]: 0 : if (status == NGBE_ERR_SFP_NOT_PRESENT)
274 : : status = 0;
275 : : return status;
276 : : }
277 : :
278 : : static inline void
279 : : ngbe_enable_intr(struct rte_eth_dev *dev)
280 : : {
281 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
282 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
283 : :
284 : 0 : wr32(hw, NGBE_IENMISC, intr->mask_misc);
285 : 0 : wr32(hw, NGBE_IMC(0), intr->mask & BIT_MASK32);
286 : : ngbe_flush(hw);
287 : 0 : }
288 : :
289 : : static void
290 : 0 : ngbe_disable_intr(struct ngbe_hw *hw)
291 : : {
292 : 0 : PMD_INIT_FUNC_TRACE();
293 : :
294 : : wr32(hw, NGBE_IMS(0), NGBE_IMS_MASK);
295 : : ngbe_flush(hw);
296 : 0 : }
297 : :
298 : : /*
299 : : * Ensure that all locks are released before first NVM or PHY access
300 : : */
301 : : static void
302 : 0 : ngbe_swfw_lock_reset(struct ngbe_hw *hw)
303 : : {
304 : : uint16_t mask;
305 : :
306 : : /*
307 : : * These ones are more tricky since they are common to all ports; but
308 : : * swfw_sync retries last long enough (1s) to be almost sure that if
309 : : * lock can not be taken it is due to an improper lock of the
310 : : * semaphore.
311 : : */
312 : : mask = NGBE_MNGSEM_SWPHY |
313 : : NGBE_MNGSEM_SWMBX |
314 : : NGBE_MNGSEM_SWFLASH;
315 [ # # ]: 0 : if (hw->mac.acquire_swfw_sync(hw, mask) < 0)
316 : 0 : PMD_DRV_LOG(DEBUG, "SWFW common locks released");
317 : :
318 : 0 : hw->mac.release_swfw_sync(hw, mask);
319 : 0 : }
320 : :
321 : : static int
322 : 0 : eth_ngbe_dev_init(struct rte_eth_dev *eth_dev, void *init_params __rte_unused)
323 : : {
324 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(eth_dev);
325 : : struct ngbe_hw *hw = ngbe_dev_hw(eth_dev);
326 : 0 : struct ngbe_vfta *shadow_vfta = NGBE_DEV_VFTA(eth_dev);
327 : : struct ngbe_hwstrip *hwstrip = NGBE_DEV_HWSTRIP(eth_dev);
328 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
329 : : const struct rte_memzone *mz;
330 : : uint32_t ctrl_ext;
331 : 0 : u32 led_conf = 0;
332 : : int err, ret;
333 : :
334 : 0 : PMD_INIT_FUNC_TRACE();
335 : :
336 : 0 : eth_dev->dev_ops = &ngbe_eth_dev_ops;
337 : 0 : eth_dev->rx_queue_count = ngbe_dev_rx_queue_count;
338 : 0 : eth_dev->rx_descriptor_status = ngbe_dev_rx_descriptor_status;
339 : 0 : eth_dev->tx_descriptor_status = ngbe_dev_tx_descriptor_status;
340 : 0 : eth_dev->rx_pkt_burst = &ngbe_recv_pkts;
341 : 0 : eth_dev->tx_pkt_burst = &ngbe_xmit_pkts;
342 : 0 : eth_dev->tx_pkt_prepare = &ngbe_prep_pkts;
343 : :
344 : : /*
345 : : * For secondary processes, we don't initialise any further as primary
346 : : * has already done this work. Only check we don't need a different
347 : : * Rx and Tx function.
348 : : */
349 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY) {
350 : : struct ngbe_tx_queue *txq;
351 : : /* Tx queue function in primary, set by last queue initialized
352 : : * Tx queue may not initialized by primary process
353 : : */
354 [ # # ]: 0 : if (eth_dev->data->tx_queues) {
355 : 0 : uint16_t nb_tx_queues = eth_dev->data->nb_tx_queues;
356 : 0 : txq = eth_dev->data->tx_queues[nb_tx_queues - 1];
357 : 0 : ngbe_set_tx_function(eth_dev, txq);
358 : : } else {
359 : : /* Use default Tx function if we get here */
360 : 0 : PMD_INIT_LOG(NOTICE,
361 : : "No Tx queues configured yet. Using default Tx function.");
362 : : }
363 : :
364 : 0 : ngbe_set_rx_function(eth_dev);
365 : :
366 : 0 : return 0;
367 : : }
368 : :
369 : 0 : rte_eth_copy_pci_info(eth_dev, pci_dev);
370 : 0 : eth_dev->data->dev_flags |= RTE_ETH_DEV_AUTOFILL_QUEUE_XSTATS;
371 : :
372 : 0 : hw->hw_addr = (void *)pci_dev->mem_resource[0].addr;
373 : :
374 : : /* Vendor and Device ID need to be set before init of shared code */
375 : 0 : hw->back = pci_dev;
376 : 0 : hw->port_id = eth_dev->data->port_id;
377 : 0 : hw->device_id = pci_dev->id.device_id;
378 : 0 : hw->vendor_id = pci_dev->id.vendor_id;
379 [ # # ]: 0 : if (pci_dev->id.subsystem_vendor_id == PCI_VENDOR_ID_WANGXUN) {
380 : 0 : hw->sub_system_id = pci_dev->id.subsystem_device_id;
381 : : } else {
382 : 0 : u32 ssid = 0;
383 : :
384 : 0 : err = ngbe_flash_read_dword(hw, 0xFFFDC, &ssid);
385 [ # # ]: 0 : if (err) {
386 : 0 : PMD_INIT_LOG(ERR,
387 : : "Read of internal subsystem device id failed");
388 : 0 : return -ENODEV;
389 : : }
390 : 0 : hw->sub_system_id = (u16)ssid >> 8 | (u16)ssid << 8;
391 : : }
392 : 0 : ngbe_map_device_id(hw);
393 : :
394 : : /* Reserve memory for interrupt status block */
395 : 0 : mz = rte_eth_dma_zone_reserve(eth_dev, "ngbe_driver", -1,
396 : : NGBE_ISB_SIZE, NGBE_ALIGN, SOCKET_ID_ANY);
397 [ # # ]: 0 : if (mz == NULL)
398 : : return -ENOMEM;
399 : :
400 : 0 : hw->isb_dma = TMZ_PADDR(mz);
401 : 0 : hw->isb_mem = TMZ_VADDR(mz);
402 : :
403 : : /* Initialize the shared code (base driver) */
404 : 0 : err = ngbe_init_shared_code(hw);
405 [ # # ]: 0 : if (err != 0) {
406 : 0 : PMD_INIT_LOG(ERR, "Shared code init failed: %d", err);
407 : 0 : return -EIO;
408 : : }
409 : :
410 : : /* Unlock any pending hardware semaphore */
411 : 0 : ngbe_swfw_lock_reset(hw);
412 : 0 : ngbe_set_ncsi_status(hw);
413 : :
414 : : /* Get Hardware Flow Control setting */
415 : 0 : hw->fc.requested_mode = ngbe_fc_full;
416 : 0 : hw->fc.current_mode = ngbe_fc_full;
417 : 0 : hw->fc.pause_time = NGBE_FC_PAUSE_TIME;
418 : 0 : hw->fc.low_water = NGBE_FC_XON_LOTH;
419 : 0 : hw->fc.high_water = NGBE_FC_XOFF_HITH;
420 : 0 : hw->fc.send_xon = 1;
421 : :
422 : 0 : err = hw->rom.init_params(hw);
423 [ # # ]: 0 : if (err != 0) {
424 : 0 : PMD_INIT_LOG(ERR, "The EEPROM init failed: %d", err);
425 : 0 : return -EIO;
426 : : }
427 : :
428 : : /* Make sure we have a good EEPROM before we read from it */
429 : 0 : err = hw->rom.validate_checksum(hw, NULL);
430 [ # # ]: 0 : if (err != 0) {
431 : 0 : PMD_INIT_LOG(ERR, "The EEPROM checksum is not valid: %d", err);
432 : 0 : return -EIO;
433 : : }
434 : :
435 : 0 : err = hw->phy.led_oem_chk(hw, &led_conf);
436 [ # # ]: 0 : if (err == 0)
437 : 0 : hw->led_conf = led_conf;
438 : : else
439 : 0 : hw->led_conf = 0xFFFF;
440 : :
441 : 0 : err = hw->mac.init_hw(hw);
442 [ # # ]: 0 : if (err != 0) {
443 : 0 : PMD_INIT_LOG(ERR, "Hardware Initialization Failure: %d", err);
444 : 0 : return -EIO;
445 : : }
446 : :
447 : : /* Reset the hw statistics */
448 : 0 : ngbe_dev_stats_reset(eth_dev);
449 : :
450 : : /* disable interrupt */
451 : 0 : ngbe_disable_intr(hw);
452 : :
453 : : /* Allocate memory for storing MAC addresses */
454 : 0 : eth_dev->data->mac_addrs = rte_zmalloc("ngbe", RTE_ETHER_ADDR_LEN *
455 : 0 : hw->mac.num_rar_entries, 0);
456 [ # # ]: 0 : if (eth_dev->data->mac_addrs == NULL) {
457 : 0 : PMD_INIT_LOG(ERR,
458 : : "Failed to allocate %u bytes needed to store MAC addresses",
459 : : RTE_ETHER_ADDR_LEN * hw->mac.num_rar_entries);
460 : 0 : return -ENOMEM;
461 : : }
462 : :
463 : : /* Copy the permanent MAC address */
464 : : rte_ether_addr_copy((struct rte_ether_addr *)hw->mac.perm_addr,
465 : : ð_dev->data->mac_addrs[0]);
466 : :
467 : : /* Allocate memory for storing hash filter MAC addresses */
468 : 0 : eth_dev->data->hash_mac_addrs = rte_zmalloc("ngbe",
469 : : RTE_ETHER_ADDR_LEN * NGBE_VMDQ_NUM_UC_MAC, 0);
470 [ # # ]: 0 : if (eth_dev->data->hash_mac_addrs == NULL) {
471 : 0 : PMD_INIT_LOG(ERR,
472 : : "Failed to allocate %d bytes needed to store MAC addresses",
473 : : RTE_ETHER_ADDR_LEN * NGBE_VMDQ_NUM_UC_MAC);
474 : 0 : rte_free(eth_dev->data->mac_addrs);
475 : 0 : eth_dev->data->mac_addrs = NULL;
476 : 0 : return -ENOMEM;
477 : : }
478 : :
479 : : /* initialize the vfta */
480 : : memset(shadow_vfta, 0, sizeof(*shadow_vfta));
481 : :
482 : : /* initialize the hw strip bitmap*/
483 : : memset(hwstrip, 0, sizeof(*hwstrip));
484 : :
485 : : /* initialize PF if max_vfs not zero */
486 : 0 : ret = ngbe_pf_host_init(eth_dev);
487 [ # # ]: 0 : if (ret) {
488 : 0 : rte_free(eth_dev->data->mac_addrs);
489 : 0 : eth_dev->data->mac_addrs = NULL;
490 : 0 : rte_free(eth_dev->data->hash_mac_addrs);
491 : 0 : eth_dev->data->hash_mac_addrs = NULL;
492 : 0 : return ret;
493 : : }
494 : :
495 : : ctrl_ext = rd32(hw, NGBE_PORTCTL);
496 : : /* let hardware know driver is loaded */
497 : : ctrl_ext |= NGBE_PORTCTL_DRVLOAD;
498 : : /* Set PF Reset Done bit so PF/VF Mail Ops can work */
499 : 0 : ctrl_ext |= NGBE_PORTCTL_RSTDONE;
500 : : wr32(hw, NGBE_PORTCTL, ctrl_ext);
501 : : ngbe_flush(hw);
502 : :
503 : 0 : PMD_INIT_LOG(DEBUG, "MAC: %d, PHY: %d",
504 : : (int)hw->mac.type, (int)hw->phy.type);
505 : :
506 : 0 : PMD_INIT_LOG(DEBUG, "port %d vendorID=0x%x deviceID=0x%x",
507 : : eth_dev->data->port_id, pci_dev->id.vendor_id,
508 : : pci_dev->id.device_id);
509 : :
510 : 0 : rte_intr_callback_register(intr_handle,
511 : : ngbe_dev_interrupt_handler, eth_dev);
512 : :
513 : : /* enable uio/vfio intr/eventfd mapping */
514 : 0 : rte_intr_enable(intr_handle);
515 : :
516 : : /* enable support intr */
517 : : ngbe_enable_intr(eth_dev);
518 : :
519 : 0 : return 0;
520 : : }
521 : :
522 : : static int
523 : 0 : eth_ngbe_dev_uninit(struct rte_eth_dev *eth_dev)
524 : : {
525 : 0 : PMD_INIT_FUNC_TRACE();
526 : :
527 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY)
528 : : return 0;
529 : :
530 : 0 : ngbe_dev_close(eth_dev);
531 : :
532 : 0 : return 0;
533 : : }
534 : :
535 : : static int
536 : 0 : eth_ngbe_pci_probe(struct rte_pci_driver *pci_drv __rte_unused,
537 : : struct rte_pci_device *pci_dev)
538 : : {
539 : 0 : return rte_eth_dev_create(&pci_dev->device, pci_dev->device.name,
540 : : sizeof(struct ngbe_adapter),
541 : : eth_dev_pci_specific_init, pci_dev,
542 : : eth_ngbe_dev_init, NULL);
543 : : }
544 : :
545 : 0 : static int eth_ngbe_pci_remove(struct rte_pci_device *pci_dev)
546 : : {
547 : : struct rte_eth_dev *ethdev;
548 : :
549 : 0 : ethdev = rte_eth_dev_allocated(pci_dev->device.name);
550 [ # # ]: 0 : if (ethdev == NULL)
551 : : return 0;
552 : :
553 : 0 : return rte_eth_dev_pci_generic_remove(pci_dev, eth_ngbe_dev_uninit);
554 : : }
555 : :
556 : : static struct rte_pci_driver rte_ngbe_pmd = {
557 : : .id_table = pci_id_ngbe_map,
558 : : .drv_flags = RTE_PCI_DRV_NEED_MAPPING |
559 : : RTE_PCI_DRV_INTR_LSC,
560 : : .probe = eth_ngbe_pci_probe,
561 : : .remove = eth_ngbe_pci_remove,
562 : : };
563 : :
564 : : static int
565 : 0 : ngbe_vlan_filter_set(struct rte_eth_dev *dev, uint16_t vlan_id, int on)
566 : : {
567 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
568 : : struct ngbe_vfta *shadow_vfta = NGBE_DEV_VFTA(dev);
569 : : uint32_t vfta;
570 : : uint32_t vid_idx;
571 : : uint32_t vid_bit;
572 : :
573 : 0 : vid_idx = (uint32_t)((vlan_id >> 5) & 0x7F);
574 : 0 : vid_bit = (uint32_t)(1 << (vlan_id & 0x1F));
575 : 0 : vfta = rd32(hw, NGBE_VLANTBL(vid_idx));
576 [ # # ]: 0 : if (on)
577 : 0 : vfta |= vid_bit;
578 : : else
579 : 0 : vfta &= ~vid_bit;
580 : : wr32(hw, NGBE_VLANTBL(vid_idx), vfta);
581 : :
582 : : /* update local VFTA copy */
583 : 0 : shadow_vfta->vfta[vid_idx] = vfta;
584 : :
585 : 0 : return 0;
586 : : }
587 : :
588 : : static void
589 : 0 : ngbe_vlan_strip_q_set(struct rte_eth_dev *dev, uint16_t queue, int on)
590 : : {
591 [ # # ]: 0 : if (on)
592 : 0 : ngbe_vlan_hw_strip_enable(dev, queue);
593 : : else
594 : 0 : ngbe_vlan_hw_strip_disable(dev, queue);
595 : 0 : }
596 : :
597 : : static void
598 [ # # ]: 0 : ngbe_vlan_strip_queue_set(struct rte_eth_dev *dev, uint16_t queue, int on)
599 : : {
600 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
601 : :
602 [ # # ]: 0 : if (!hw->adapter_stopped) {
603 : 0 : PMD_DRV_LOG(ERR, "Please stop port first");
604 : 0 : return;
605 : : }
606 : :
607 : 0 : ngbe_vlan_strip_q_set(dev, queue, on);
608 : : }
609 : :
610 : : static int
611 : 0 : ngbe_vlan_tpid_set(struct rte_eth_dev *dev,
612 : : enum rte_vlan_type vlan_type,
613 : : uint16_t tpid)
614 : : {
615 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
616 : : int ret = 0;
617 : : uint32_t portctrl, vlan_ext, qinq;
618 : :
619 : : portctrl = rd32(hw, NGBE_PORTCTL);
620 : :
621 : 0 : vlan_ext = (portctrl & NGBE_PORTCTL_VLANEXT);
622 [ # # # # ]: 0 : qinq = vlan_ext && (portctrl & NGBE_PORTCTL_QINQ);
623 [ # # # ]: 0 : switch (vlan_type) {
624 : 0 : case RTE_ETH_VLAN_TYPE_INNER:
625 [ # # ]: 0 : if (vlan_ext) {
626 : 0 : wr32m(hw, NGBE_VLANCTL,
627 : : NGBE_VLANCTL_TPID_MASK,
628 : : NGBE_VLANCTL_TPID(tpid));
629 : 0 : wr32m(hw, NGBE_DMATXCTRL,
630 : : NGBE_DMATXCTRL_TPID_MASK,
631 : : NGBE_DMATXCTRL_TPID(tpid));
632 : : } else {
633 : : ret = -ENOTSUP;
634 : 0 : PMD_DRV_LOG(ERR,
635 : : "Inner type is not supported by single VLAN");
636 : : }
637 : :
638 [ # # ]: 0 : if (qinq) {
639 : 0 : wr32m(hw, NGBE_TAGTPID(0),
640 : : NGBE_TAGTPID_LSB_MASK,
641 : : NGBE_TAGTPID_LSB(tpid));
642 : : }
643 : : break;
644 : 0 : case RTE_ETH_VLAN_TYPE_OUTER:
645 [ # # ]: 0 : if (vlan_ext) {
646 : : /* Only the high 16-bits is valid */
647 : 0 : wr32m(hw, NGBE_EXTAG,
648 : : NGBE_EXTAG_VLAN_MASK,
649 : 0 : NGBE_EXTAG_VLAN(tpid));
650 : : } else {
651 : 0 : wr32m(hw, NGBE_VLANCTL,
652 : : NGBE_VLANCTL_TPID_MASK,
653 : : NGBE_VLANCTL_TPID(tpid));
654 : 0 : wr32m(hw, NGBE_DMATXCTRL,
655 : : NGBE_DMATXCTRL_TPID_MASK,
656 : : NGBE_DMATXCTRL_TPID(tpid));
657 : : }
658 : :
659 [ # # ]: 0 : if (qinq) {
660 : 0 : wr32m(hw, NGBE_TAGTPID(0),
661 : : NGBE_TAGTPID_MSB_MASK,
662 : 0 : NGBE_TAGTPID_MSB(tpid));
663 : : }
664 : : break;
665 : 0 : default:
666 : 0 : PMD_DRV_LOG(ERR, "Unsupported VLAN type %d", vlan_type);
667 : 0 : return -EINVAL;
668 : : }
669 : :
670 : : return ret;
671 : : }
672 : :
673 : : void
674 : 0 : ngbe_vlan_hw_filter_disable(struct rte_eth_dev *dev)
675 : : {
676 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
677 : : uint32_t vlnctrl;
678 : :
679 : 0 : PMD_INIT_FUNC_TRACE();
680 : :
681 : : /* Filter Table Disable */
682 : : vlnctrl = rd32(hw, NGBE_VLANCTL);
683 : 0 : vlnctrl &= ~NGBE_VLANCTL_VFE;
684 : : wr32(hw, NGBE_VLANCTL, vlnctrl);
685 : 0 : }
686 : :
687 : : void
688 : 0 : ngbe_vlan_hw_filter_enable(struct rte_eth_dev *dev)
689 : : {
690 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
691 : : struct ngbe_vfta *shadow_vfta = NGBE_DEV_VFTA(dev);
692 : : uint32_t vlnctrl;
693 : : uint16_t i;
694 : :
695 : 0 : PMD_INIT_FUNC_TRACE();
696 : :
697 : : /* Filter Table Enable */
698 : : vlnctrl = rd32(hw, NGBE_VLANCTL);
699 : 0 : vlnctrl &= ~NGBE_VLANCTL_CFIENA;
700 : 0 : vlnctrl |= NGBE_VLANCTL_VFE;
701 : : wr32(hw, NGBE_VLANCTL, vlnctrl);
702 : :
703 : : /* write whatever is in local vfta copy */
704 [ # # ]: 0 : for (i = 0; i < NGBE_VFTA_SIZE; i++)
705 : 0 : wr32(hw, NGBE_VLANTBL(i), shadow_vfta->vfta[i]);
706 : 0 : }
707 : :
708 : : void
709 : 0 : ngbe_vlan_hw_strip_bitmap_set(struct rte_eth_dev *dev, uint16_t queue, bool on)
710 : : {
711 : 0 : struct ngbe_hwstrip *hwstrip = NGBE_DEV_HWSTRIP(dev);
712 : : struct ngbe_rx_queue *rxq;
713 : :
714 [ # # ]: 0 : if (queue >= NGBE_MAX_RX_QUEUE_NUM)
715 : : return;
716 : :
717 [ # # ]: 0 : if (on)
718 : 0 : NGBE_SET_HWSTRIP(hwstrip, queue);
719 : : else
720 : 0 : NGBE_CLEAR_HWSTRIP(hwstrip, queue);
721 : :
722 [ # # ]: 0 : if (queue >= dev->data->nb_rx_queues)
723 : : return;
724 : :
725 : 0 : rxq = dev->data->rx_queues[queue];
726 : :
727 [ # # ]: 0 : if (on) {
728 : 0 : rxq->vlan_flags = RTE_MBUF_F_RX_VLAN | RTE_MBUF_F_RX_VLAN_STRIPPED;
729 : 0 : rxq->offloads |= RTE_ETH_RX_OFFLOAD_VLAN_STRIP;
730 : : } else {
731 : 0 : rxq->vlan_flags = RTE_MBUF_F_RX_VLAN;
732 : 0 : rxq->offloads &= ~RTE_ETH_RX_OFFLOAD_VLAN_STRIP;
733 : : }
734 : : }
735 : :
736 : : static void
737 : 0 : ngbe_vlan_hw_strip_disable(struct rte_eth_dev *dev, uint16_t queue)
738 : : {
739 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
740 : : uint32_t ctrl;
741 : :
742 : 0 : PMD_INIT_FUNC_TRACE();
743 : :
744 : 0 : ctrl = rd32(hw, NGBE_RXCFG(queue));
745 : 0 : ctrl &= ~NGBE_RXCFG_VLAN;
746 : : wr32(hw, NGBE_RXCFG(queue), ctrl);
747 : :
748 : : /* record those setting for HW strip per queue */
749 : 0 : ngbe_vlan_hw_strip_bitmap_set(dev, queue, 0);
750 : 0 : }
751 : :
752 : : static void
753 : 0 : ngbe_vlan_hw_strip_enable(struct rte_eth_dev *dev, uint16_t queue)
754 : : {
755 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
756 : : uint32_t ctrl;
757 : :
758 : 0 : PMD_INIT_FUNC_TRACE();
759 : :
760 : 0 : ctrl = rd32(hw, NGBE_RXCFG(queue));
761 : 0 : ctrl |= NGBE_RXCFG_VLAN;
762 : : wr32(hw, NGBE_RXCFG(queue), ctrl);
763 : :
764 : : /* record those setting for HW strip per queue */
765 : 0 : ngbe_vlan_hw_strip_bitmap_set(dev, queue, 1);
766 : 0 : }
767 : :
768 : : static void
769 : 0 : ngbe_vlan_hw_extend_disable(struct rte_eth_dev *dev)
770 : : {
771 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
772 : : uint32_t ctrl;
773 : :
774 : 0 : PMD_INIT_FUNC_TRACE();
775 : :
776 : : ctrl = rd32(hw, NGBE_PORTCTL);
777 : : ctrl &= ~NGBE_PORTCTL_VLANEXT;
778 : 0 : ctrl &= ~NGBE_PORTCTL_QINQ;
779 : : wr32(hw, NGBE_PORTCTL, ctrl);
780 : 0 : }
781 : :
782 : : static void
783 : 0 : ngbe_vlan_hw_extend_enable(struct rte_eth_dev *dev)
784 : : {
785 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
786 : : uint32_t ctrl;
787 : :
788 : 0 : PMD_INIT_FUNC_TRACE();
789 : :
790 : : ctrl = rd32(hw, NGBE_PORTCTL);
791 : 0 : ctrl |= NGBE_PORTCTL_VLANEXT | NGBE_PORTCTL_QINQ;
792 : : wr32(hw, NGBE_PORTCTL, ctrl);
793 : 0 : }
794 : :
795 : : static void
796 : 0 : ngbe_qinq_hw_strip_disable(struct rte_eth_dev *dev)
797 : : {
798 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
799 : : uint32_t ctrl;
800 : :
801 : 0 : PMD_INIT_FUNC_TRACE();
802 : :
803 : : ctrl = rd32(hw, NGBE_PORTCTL);
804 : 0 : ctrl &= ~NGBE_PORTCTL_QINQ;
805 : : wr32(hw, NGBE_PORTCTL, ctrl);
806 : 0 : }
807 : :
808 : : static void
809 : 0 : ngbe_qinq_hw_strip_enable(struct rte_eth_dev *dev)
810 : : {
811 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
812 : : uint32_t ctrl;
813 : :
814 : 0 : PMD_INIT_FUNC_TRACE();
815 : :
816 : : ctrl = rd32(hw, NGBE_PORTCTL);
817 : 0 : ctrl |= NGBE_PORTCTL_QINQ | NGBE_PORTCTL_VLANEXT;
818 : : wr32(hw, NGBE_PORTCTL, ctrl);
819 : 0 : }
820 : :
821 : : void
822 : 0 : ngbe_vlan_hw_strip_config(struct rte_eth_dev *dev)
823 : : {
824 : : struct ngbe_rx_queue *rxq;
825 : : uint16_t i;
826 : :
827 : 0 : PMD_INIT_FUNC_TRACE();
828 : :
829 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
830 : 0 : rxq = dev->data->rx_queues[i];
831 : :
832 [ # # ]: 0 : if (rxq->offloads & RTE_ETH_RX_OFFLOAD_VLAN_STRIP)
833 : 0 : ngbe_vlan_strip_q_set(dev, i, 1);
834 : : else
835 : 0 : ngbe_vlan_strip_q_set(dev, i, 0);
836 : : }
837 : 0 : }
838 : :
839 : : void
840 : 0 : ngbe_config_vlan_strip_on_all_queues(struct rte_eth_dev *dev, int mask)
841 : : {
842 : : uint16_t i;
843 : : struct rte_eth_rxmode *rxmode;
844 : : struct ngbe_rx_queue *rxq;
845 : :
846 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_STRIP_MASK) {
847 : 0 : rxmode = &dev->data->dev_conf.rxmode;
848 [ # # ]: 0 : if (rxmode->offloads & RTE_ETH_RX_OFFLOAD_VLAN_STRIP)
849 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
850 : 0 : rxq = dev->data->rx_queues[i];
851 : 0 : rxq->offloads |= RTE_ETH_RX_OFFLOAD_VLAN_STRIP;
852 : : }
853 : : else
854 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
855 : 0 : rxq = dev->data->rx_queues[i];
856 : 0 : rxq->offloads &= ~RTE_ETH_RX_OFFLOAD_VLAN_STRIP;
857 : : }
858 : : }
859 : 0 : }
860 : :
861 : : static int
862 : 0 : ngbe_vlan_offload_config(struct rte_eth_dev *dev, int mask)
863 : : {
864 : : struct rte_eth_rxmode *rxmode;
865 : 0 : rxmode = &dev->data->dev_conf.rxmode;
866 : :
867 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_STRIP_MASK)
868 : 0 : ngbe_vlan_hw_strip_config(dev);
869 : :
870 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_FILTER_MASK) {
871 [ # # ]: 0 : if (rxmode->offloads & RTE_ETH_RX_OFFLOAD_VLAN_FILTER)
872 : 0 : ngbe_vlan_hw_filter_enable(dev);
873 : : else
874 : 0 : ngbe_vlan_hw_filter_disable(dev);
875 : : }
876 : :
877 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_EXTEND_MASK) {
878 [ # # ]: 0 : if (rxmode->offloads & RTE_ETH_RX_OFFLOAD_VLAN_EXTEND)
879 : 0 : ngbe_vlan_hw_extend_enable(dev);
880 : : else
881 : 0 : ngbe_vlan_hw_extend_disable(dev);
882 : : }
883 : :
884 [ # # ]: 0 : if (mask & RTE_ETH_QINQ_STRIP_MASK) {
885 [ # # ]: 0 : if (rxmode->offloads & RTE_ETH_RX_OFFLOAD_QINQ_STRIP)
886 : 0 : ngbe_qinq_hw_strip_enable(dev);
887 : : else
888 : 0 : ngbe_qinq_hw_strip_disable(dev);
889 : : }
890 : :
891 : 0 : return 0;
892 : : }
893 : :
894 : : static int
895 [ # # ]: 0 : ngbe_vlan_offload_set(struct rte_eth_dev *dev, int mask)
896 : : {
897 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
898 : :
899 [ # # # # ]: 0 : if (!hw->adapter_stopped && (mask & RTE_ETH_VLAN_STRIP_MASK)) {
900 : 0 : PMD_DRV_LOG(ERR, "Please stop port first");
901 : 0 : return -EPERM;
902 : : }
903 : :
904 : 0 : ngbe_config_vlan_strip_on_all_queues(dev, mask);
905 : :
906 : 0 : ngbe_vlan_offload_config(dev, mask);
907 : :
908 : 0 : return 0;
909 : : }
910 : :
911 : : static int
912 : 0 : ngbe_dev_configure(struct rte_eth_dev *dev)
913 : : {
914 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
915 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
916 : :
917 : 0 : PMD_INIT_FUNC_TRACE();
918 : :
919 [ # # ]: 0 : if (dev->data->dev_conf.rxmode.mq_mode & RTE_ETH_MQ_RX_RSS_FLAG)
920 : 0 : dev->data->dev_conf.rxmode.offloads |= RTE_ETH_RX_OFFLOAD_RSS_HASH;
921 : :
922 : : /* set flag to update link status after init */
923 : 0 : intr->flags |= NGBE_FLAG_NEED_LINK_UPDATE;
924 : :
925 : : /*
926 : : * Initialize to TRUE. If any of Rx queues doesn't meet the bulk
927 : : * allocation Rx preconditions we will reset it.
928 : : */
929 : 0 : adapter->rx_bulk_alloc_allowed = true;
930 : 0 : adapter->rx_vec_allowed = true;
931 : :
932 : 0 : return 0;
933 : : }
934 : :
935 : : static void
936 : 0 : ngbe_dev_phy_intr_setup(struct rte_eth_dev *dev)
937 : : {
938 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
939 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
940 : :
941 : : wr32(hw, NGBE_GPIODIR, NGBE_GPIODIR_DDR(1));
942 : : wr32(hw, NGBE_GPIOINTEN, NGBE_GPIOINTEN_INT(3));
943 : : wr32(hw, NGBE_GPIOINTTYPE, NGBE_GPIOINTTYPE_LEVEL(0));
944 [ # # ]: 0 : if (hw->phy.type == ngbe_phy_yt8521s_sfi)
945 : : wr32(hw, NGBE_GPIOINTPOL, NGBE_GPIOINTPOL_ACT(0));
946 : : else
947 : : wr32(hw, NGBE_GPIOINTPOL, NGBE_GPIOINTPOL_ACT(3));
948 : :
949 : 0 : intr->mask_misc |= NGBE_ICRMISC_GPIO | NGBE_ICRMISC_HEAT;
950 : 0 : }
951 : :
952 : : /*
953 : : * Configure device link speed and setup link.
954 : : * It returns 0 on success.
955 : : */
956 : : static int
957 : 0 : ngbe_dev_start(struct rte_eth_dev *dev)
958 : : {
959 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
960 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
961 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
962 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
963 : : uint32_t intr_vector = 0;
964 : : int err;
965 : 0 : bool link_up = false, negotiate = false;
966 : 0 : uint32_t speed = 0;
967 : : uint32_t allowed_speeds = 0;
968 : : int mask = 0;
969 : : int status;
970 : : uint32_t *link_speeds;
971 : :
972 : 0 : PMD_INIT_FUNC_TRACE();
973 : :
974 : : /* disable uio/vfio intr/eventfd mapping */
975 : 0 : rte_intr_disable(intr_handle);
976 : :
977 : : /* stop adapter */
978 : 0 : hw->adapter_stopped = 0;
979 : :
980 : : /* reinitialize adapter, this calls reset and start */
981 : 0 : hw->nb_rx_queues = dev->data->nb_rx_queues;
982 : 0 : hw->nb_tx_queues = dev->data->nb_tx_queues;
983 : : status = ngbe_pf_reset_hw(hw);
984 [ # # ]: 0 : if (status != 0)
985 : : return -1;
986 : 0 : hw->mac.start_hw(hw);
987 : 0 : hw->mac.get_link_status = true;
988 : :
989 : 0 : ngbe_set_pcie_master(hw, true);
990 : :
991 : : /* configure PF module if SRIOV enabled */
992 : 0 : ngbe_pf_host_configure(dev);
993 : :
994 : 0 : ngbe_dev_phy_intr_setup(dev);
995 : :
996 : : /* check and configure queue intr-vector mapping */
997 [ # # ]: 0 : if ((rte_intr_cap_multiple(intr_handle) ||
998 [ # # ]: 0 : !RTE_ETH_DEV_SRIOV(dev).active) &&
999 [ # # ]: 0 : dev->data->dev_conf.intr_conf.rxq != 0) {
1000 : 0 : intr_vector = dev->data->nb_rx_queues;
1001 [ # # ]: 0 : if (rte_intr_efd_enable(intr_handle, intr_vector))
1002 : : return -1;
1003 : : }
1004 : :
1005 [ # # ]: 0 : if (rte_intr_dp_is_en(intr_handle)) {
1006 [ # # ]: 0 : if (rte_intr_vec_list_alloc(intr_handle, "intr_vec",
1007 : 0 : dev->data->nb_rx_queues)) {
1008 : 0 : PMD_INIT_LOG(ERR,
1009 : : "Failed to allocate %d rx_queues intr_vec",
1010 : : dev->data->nb_rx_queues);
1011 : 0 : return -ENOMEM;
1012 : : }
1013 : : }
1014 : :
1015 : : /* configure MSI-X for sleep until Rx interrupt */
1016 : 0 : ngbe_configure_msix(dev);
1017 : :
1018 : : /* initialize transmission unit */
1019 : 0 : ngbe_dev_tx_init(dev);
1020 : :
1021 : : /* This can fail when allocating mbufs for descriptor rings */
1022 : 0 : err = ngbe_dev_rx_init(dev);
1023 [ # # ]: 0 : if (err != 0) {
1024 : 0 : PMD_INIT_LOG(ERR, "Unable to initialize Rx hardware");
1025 : 0 : goto error;
1026 : : }
1027 : :
1028 : : mask = RTE_ETH_VLAN_STRIP_MASK | RTE_ETH_VLAN_FILTER_MASK |
1029 : : RTE_ETH_VLAN_EXTEND_MASK;
1030 : 0 : err = ngbe_vlan_offload_config(dev, mask);
1031 [ # # ]: 0 : if (err != 0) {
1032 : 0 : PMD_INIT_LOG(ERR, "Unable to set VLAN offload");
1033 : 0 : goto error;
1034 : : }
1035 : :
1036 : 0 : hw->mac.setup_pba(hw);
1037 : 0 : ngbe_pbthresh_set(dev);
1038 : 0 : ngbe_configure_port(dev);
1039 : :
1040 : 0 : err = ngbe_dev_rxtx_start(dev);
1041 [ # # ]: 0 : if (err < 0) {
1042 : 0 : PMD_INIT_LOG(ERR, "Unable to start rxtx queues");
1043 : 0 : goto error;
1044 : : }
1045 : :
1046 : : /* Skip link setup if loopback mode is enabled. */
1047 [ # # # # ]: 0 : if (hw->is_pf && dev->data->dev_conf.lpbk_mode)
1048 : 0 : goto skip_link_setup;
1049 : :
1050 : 0 : hw->lsc = dev->data->dev_conf.intr_conf.lsc;
1051 : :
1052 : 0 : err = hw->mac.check_link(hw, &speed, &link_up, 0);
1053 [ # # ]: 0 : if (err != 0)
1054 : 0 : goto error;
1055 : 0 : dev->data->dev_link.link_status = link_up;
1056 : :
1057 : : link_speeds = &dev->data->dev_conf.link_speeds;
1058 [ # # ]: 0 : if (*link_speeds == RTE_ETH_LINK_SPEED_AUTONEG)
1059 : 0 : negotiate = true;
1060 : :
1061 : 0 : err = hw->mac.get_link_capabilities(hw, &speed, &negotiate);
1062 [ # # ]: 0 : if (err != 0)
1063 : 0 : goto error;
1064 : :
1065 : : allowed_speeds = 0;
1066 [ # # ]: 0 : if (hw->mac.default_speeds & NGBE_LINK_SPEED_1GB_FULL)
1067 : : allowed_speeds |= RTE_ETH_LINK_SPEED_1G;
1068 [ # # ]: 0 : if (hw->mac.default_speeds & NGBE_LINK_SPEED_100M_FULL)
1069 : 0 : allowed_speeds |= RTE_ETH_LINK_SPEED_100M;
1070 [ # # ]: 0 : if (hw->mac.default_speeds & NGBE_LINK_SPEED_10M_FULL)
1071 : 0 : allowed_speeds |= RTE_ETH_LINK_SPEED_10M;
1072 : :
1073 [ # # ]: 0 : if (((*link_speeds) >> 1) & ~(allowed_speeds >> 1)) {
1074 : 0 : PMD_INIT_LOG(ERR, "Invalid link setting");
1075 : 0 : goto error;
1076 : : }
1077 : :
1078 : 0 : speed = 0x0;
1079 [ # # ]: 0 : if (*link_speeds == RTE_ETH_LINK_SPEED_AUTONEG) {
1080 : 0 : speed = hw->mac.default_speeds;
1081 : : } else {
1082 [ # # ]: 0 : if (*link_speeds & RTE_ETH_LINK_SPEED_1G)
1083 : 0 : speed |= NGBE_LINK_SPEED_1GB_FULL;
1084 [ # # ]: 0 : if (*link_speeds & RTE_ETH_LINK_SPEED_100M)
1085 : 0 : speed |= NGBE_LINK_SPEED_100M_FULL;
1086 [ # # ]: 0 : if (*link_speeds & RTE_ETH_LINK_SPEED_10M)
1087 : 0 : speed |= NGBE_LINK_SPEED_10M_FULL;
1088 : : }
1089 : :
1090 [ # # ]: 0 : if (!hw->ncsi_enabled) {
1091 : 0 : err = hw->phy.init_hw(hw);
1092 [ # # ]: 0 : if (err != 0) {
1093 : 0 : PMD_INIT_LOG(ERR, "PHY init failed");
1094 : 0 : goto error;
1095 : : }
1096 : : }
1097 : 0 : err = hw->mac.setup_link(hw, speed, link_up);
1098 [ # # ]: 0 : if (err != 0)
1099 : 0 : goto error;
1100 : :
1101 : 0 : skip_link_setup:
1102 : :
1103 [ # # ]: 0 : if (rte_intr_allow_others(intr_handle)) {
1104 : : ngbe_dev_misc_interrupt_setup(dev);
1105 : : /* check if lsc interrupt is enabled */
1106 : 0 : if (dev->data->dev_conf.intr_conf.lsc != 0)
1107 : 0 : ngbe_dev_lsc_interrupt_setup(dev, TRUE);
1108 : : else
1109 : 0 : ngbe_dev_lsc_interrupt_setup(dev, FALSE);
1110 : : ngbe_dev_macsec_interrupt_setup(dev);
1111 : 0 : ngbe_set_ivar_map(hw, -1, 1, NGBE_MISC_VEC_ID);
1112 : : } else {
1113 : 0 : rte_intr_callback_unregister(intr_handle,
1114 : : ngbe_dev_interrupt_handler, dev);
1115 [ # # ]: 0 : if (dev->data->dev_conf.intr_conf.lsc != 0)
1116 : 0 : PMD_INIT_LOG(INFO,
1117 : : "LSC won't enable because of no intr multiplex");
1118 : : }
1119 : :
1120 : : /* check if rxq interrupt is enabled */
1121 [ # # # # ]: 0 : if (dev->data->dev_conf.intr_conf.rxq != 0 &&
1122 : 0 : rte_intr_dp_is_en(intr_handle))
1123 : : ngbe_dev_rxq_interrupt_setup(dev);
1124 : :
1125 : : /* enable UIO/VFIO intr/eventfd mapping */
1126 : 0 : rte_intr_enable(intr_handle);
1127 : :
1128 : : /* resume enabled intr since HW reset */
1129 : : ngbe_enable_intr(dev);
1130 : :
1131 [ # # ]: 0 : if (hw->gpio_ctl) {
1132 : : /* gpio0 is used to power on/off control*/
1133 : : wr32(hw, NGBE_GPIODATA, 0);
1134 : : }
1135 : :
1136 : : /*
1137 : : * Update link status right before return, because it may
1138 : : * start link configuration process in a separate thread.
1139 : : */
1140 : : ngbe_dev_link_update(dev, 0);
1141 : :
1142 : 0 : ngbe_read_stats_registers(hw, hw_stats);
1143 : 0 : hw->offset_loaded = 1;
1144 : :
1145 : 0 : return 0;
1146 : :
1147 : 0 : error:
1148 : 0 : PMD_INIT_LOG(ERR, "failure in dev start: %d", err);
1149 : 0 : ngbe_dev_clear_queues(dev);
1150 : 0 : return -EIO;
1151 : : }
1152 : :
1153 : : /*
1154 : : * Stop device: disable rx and tx functions to allow for reconfiguring.
1155 : : */
1156 : : static int
1157 [ # # ]: 0 : ngbe_dev_stop(struct rte_eth_dev *dev)
1158 : : {
1159 : : struct rte_eth_link link;
1160 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
1161 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1162 : 0 : struct ngbe_vf_info *vfinfo = *NGBE_DEV_VFDATA(dev);
1163 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
1164 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
1165 : : int vf;
1166 : :
1167 [ # # ]: 0 : if (hw->adapter_stopped)
1168 : 0 : goto out;
1169 : :
1170 : 0 : PMD_INIT_FUNC_TRACE();
1171 : :
1172 [ # # ]: 0 : if (hw->gpio_ctl) {
1173 : : /* gpio0 is used to power on/off control*/
1174 : : wr32(hw, NGBE_GPIODATA, NGBE_GPIOBIT_0);
1175 : : }
1176 : :
1177 : : /* disable interrupts */
1178 : 0 : ngbe_disable_intr(hw);
1179 : :
1180 : : /* reset the NIC */
1181 : : ngbe_pf_reset_hw(hw);
1182 : 0 : hw->adapter_stopped = 0;
1183 : :
1184 : : /* stop adapter */
1185 : 0 : ngbe_stop_hw(hw);
1186 : :
1187 [ # # # # ]: 0 : for (vf = 0; vfinfo != NULL && vf < pci_dev->max_vfs; vf++)
1188 : 0 : vfinfo[vf].clear_to_send = false;
1189 : :
1190 : 0 : ngbe_dev_clear_queues(dev);
1191 : :
1192 : : /* Clear stored conf */
1193 : 0 : dev->data->scattered_rx = 0;
1194 : :
1195 : : /* Clear recorded link status */
1196 : : memset(&link, 0, sizeof(link));
1197 : 0 : rte_eth_linkstatus_set(dev, &link);
1198 : :
1199 [ # # ]: 0 : if (!rte_intr_allow_others(intr_handle))
1200 : : /* resume to the default handler */
1201 : 0 : rte_intr_callback_register(intr_handle,
1202 : : ngbe_dev_interrupt_handler,
1203 : : (void *)dev);
1204 : :
1205 : : /* Clean datapath event and queue/vec mapping */
1206 : 0 : rte_intr_efd_disable(intr_handle);
1207 : 0 : rte_intr_vec_list_free(intr_handle);
1208 : :
1209 : 0 : ngbe_set_pcie_master(hw, true);
1210 : :
1211 : 0 : adapter->rss_reta_updated = 0;
1212 : :
1213 : 0 : hw->adapter_stopped = true;
1214 : 0 : dev->data->dev_started = 0;
1215 : :
1216 : 0 : out:
1217 : : /* close phy to prevent reset in dev_close from restarting physical link */
1218 [ # # # # ]: 0 : if (!(hw->wol_enabled || hw->ncsi_enabled))
1219 : 0 : hw->phy.set_phy_power(hw, false);
1220 : :
1221 : 0 : return 0;
1222 : : }
1223 : :
1224 : : /*
1225 : : * Set device link up: power on.
1226 : : */
1227 : : static int
1228 [ # # ]: 0 : ngbe_dev_set_link_up(struct rte_eth_dev *dev)
1229 : : {
1230 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1231 : :
1232 [ # # # # : 0 : if (!(hw->ncsi_enabled || hw->wol_enabled))
# # # # ]
1233 : 0 : hw->phy.set_phy_power(hw, true);
1234 : :
1235 : 0 : return 0;
1236 : : }
1237 : :
1238 : : /*
1239 : : * Set device link down: power off.
1240 : : */
1241 : : static int
1242 [ # # ]: 0 : ngbe_dev_set_link_down(struct rte_eth_dev *dev)
1243 : : {
1244 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1245 : :
1246 [ # # # # : 0 : if (!(hw->ncsi_enabled || hw->wol_enabled))
# # # # ]
1247 : 0 : hw->phy.set_phy_power(hw, false);
1248 : :
1249 : 0 : return 0;
1250 : : }
1251 : :
1252 : : /*
1253 : : * Reset and stop device.
1254 : : */
1255 : : static int
1256 : 0 : ngbe_dev_close(struct rte_eth_dev *dev)
1257 : : {
1258 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1259 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
1260 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
1261 : : int retries = 0;
1262 : : int ret;
1263 : :
1264 : 0 : PMD_INIT_FUNC_TRACE();
1265 : :
1266 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY)
1267 : : return 0;
1268 : :
1269 : : ngbe_pf_reset_hw(hw);
1270 : :
1271 : 0 : ngbe_dev_stop(dev);
1272 : :
1273 : : /* Let firmware take over control of hardware */
1274 : : wr32m(hw, NGBE_PORTCTL, NGBE_PORTCTL_DRVLOAD, 0);
1275 : :
1276 : 0 : ngbe_dev_free_queues(dev);
1277 : :
1278 : 0 : ngbe_set_pcie_master(hw, false);
1279 : :
1280 : : /* reprogram the RAR[0] in case user changed it. */
1281 : 0 : ngbe_set_rar(hw, 0, hw->mac.addr, 0, true);
1282 : :
1283 : : /* Unlock any pending hardware semaphore */
1284 : 0 : ngbe_swfw_lock_reset(hw);
1285 : :
1286 : : /* disable uio intr before callback unregister */
1287 : 0 : rte_intr_disable(intr_handle);
1288 : :
1289 : : do {
1290 : 0 : ret = rte_intr_callback_unregister(intr_handle,
1291 : : ngbe_dev_interrupt_handler, dev);
1292 [ # # ]: 0 : if (ret >= 0 || ret == -ENOENT) {
1293 : : break;
1294 [ # # ]: 0 : } else if (ret != -EAGAIN) {
1295 : 0 : PMD_INIT_LOG(ERR,
1296 : : "intr callback unregister failed: %d",
1297 : : ret);
1298 : : }
1299 : : rte_delay_ms(100);
1300 [ # # ]: 0 : } while (retries++ < (10 + NGBE_LINK_UP_TIME));
1301 : :
1302 : : /* uninitialize PF if max_vfs not zero */
1303 : 0 : ngbe_pf_host_uninit(dev);
1304 : :
1305 : 0 : rte_free(dev->data->mac_addrs);
1306 : 0 : dev->data->mac_addrs = NULL;
1307 : :
1308 : 0 : rte_free(dev->data->hash_mac_addrs);
1309 : 0 : dev->data->hash_mac_addrs = NULL;
1310 : :
1311 : 0 : return ret;
1312 : : }
1313 : :
1314 : : /*
1315 : : * Reset PF device.
1316 : : */
1317 : : static int
1318 : 0 : ngbe_dev_reset(struct rte_eth_dev *dev)
1319 : : {
1320 : : int ret;
1321 : :
1322 : : /* When a DPDK PMD PF begin to reset PF port, it should notify all
1323 : : * its VF to make them align with it. The detailed notification
1324 : : * mechanism is PMD specific. As to ngbe PF, it is rather complex.
1325 : : * To avoid unexpected behavior in VF, currently reset of PF with
1326 : : * SR-IOV activation is not supported. It might be supported later.
1327 : : */
1328 [ # # ]: 0 : if (dev->data->sriov.active)
1329 : : return -ENOTSUP;
1330 : :
1331 : 0 : ret = eth_ngbe_dev_uninit(dev);
1332 [ # # ]: 0 : if (ret != 0)
1333 : : return ret;
1334 : :
1335 : 0 : ret = eth_ngbe_dev_init(dev, NULL);
1336 : :
1337 : 0 : return ret;
1338 : : }
1339 : :
1340 : : #define UPDATE_QP_COUNTER_32bit(reg, last_counter, counter) \
1341 : : { \
1342 : : uint32_t current_counter = rd32(hw, reg); \
1343 : : if (current_counter < last_counter) \
1344 : : current_counter += 0x100000000LL; \
1345 : : if (!hw->offset_loaded) \
1346 : : last_counter = current_counter; \
1347 : : counter = current_counter - last_counter; \
1348 : : counter &= 0xFFFFFFFFLL; \
1349 : : }
1350 : :
1351 : : #define UPDATE_QP_COUNTER_36bit(reg_lsb, reg_msb, last_counter, counter) \
1352 : : { \
1353 : : uint64_t current_counter_lsb = rd32(hw, reg_lsb); \
1354 : : uint64_t current_counter_msb = rd32(hw, reg_msb); \
1355 : : uint64_t current_counter = (current_counter_msb << 32) | \
1356 : : current_counter_lsb; \
1357 : : if (current_counter < last_counter) \
1358 : : current_counter += 0x1000000000LL; \
1359 : : if (!hw->offset_loaded) \
1360 : : last_counter = current_counter; \
1361 : : counter = current_counter - last_counter; \
1362 : : counter &= 0xFFFFFFFFFLL; \
1363 : : }
1364 : :
1365 : : void
1366 : 0 : ngbe_read_stats_registers(struct ngbe_hw *hw,
1367 : : struct ngbe_hw_stats *hw_stats)
1368 : : {
1369 : : unsigned int i;
1370 : :
1371 : : /* QP Stats */
1372 [ # # ]: 0 : for (i = 0; i < hw->nb_rx_queues; i++) {
1373 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPRXPKT(i),
1374 : : hw->qp_last[i].rx_qp_packets,
1375 : : hw_stats->qp[i].rx_qp_packets);
1376 [ # # # # ]: 0 : UPDATE_QP_COUNTER_36bit(NGBE_QPRXOCTL(i), NGBE_QPRXOCTH(i),
1377 : : hw->qp_last[i].rx_qp_bytes,
1378 : : hw_stats->qp[i].rx_qp_bytes);
1379 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPRXMPKT(i),
1380 : : hw->qp_last[i].rx_qp_mc_packets,
1381 : : hw_stats->qp[i].rx_qp_mc_packets);
1382 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPRXBPKT(i),
1383 : : hw->qp_last[i].rx_qp_bc_packets,
1384 : : hw_stats->qp[i].rx_qp_bc_packets);
1385 : : }
1386 : :
1387 [ # # ]: 0 : for (i = 0; i < hw->nb_tx_queues; i++) {
1388 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPTXPKT(i),
1389 : : hw->qp_last[i].tx_qp_packets,
1390 : : hw_stats->qp[i].tx_qp_packets);
1391 [ # # # # ]: 0 : UPDATE_QP_COUNTER_36bit(NGBE_QPTXOCTL(i), NGBE_QPTXOCTH(i),
1392 : : hw->qp_last[i].tx_qp_bytes,
1393 : : hw_stats->qp[i].tx_qp_bytes);
1394 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPTXMPKT(i),
1395 : : hw->qp_last[i].tx_qp_mc_packets,
1396 : : hw_stats->qp[i].tx_qp_mc_packets);
1397 [ # # ]: 0 : UPDATE_QP_COUNTER_32bit(NGBE_QPTXBPKT(i),
1398 : : hw->qp_last[i].tx_qp_bc_packets,
1399 : : hw_stats->qp[i].tx_qp_bc_packets);
1400 : : }
1401 : :
1402 : : /* PB Stats */
1403 : 0 : hw_stats->rx_up_dropped += rd32(hw, NGBE_PBRXMISS);
1404 : 0 : hw_stats->rdb_pkt_cnt += rd32(hw, NGBE_PBRXPKT);
1405 : 0 : hw_stats->rdb_repli_cnt += rd32(hw, NGBE_PBRXREP);
1406 : 0 : hw_stats->rdb_drp_cnt += rd32(hw, NGBE_PBRXDROP);
1407 : 0 : hw_stats->tx_xoff_packets += rd32(hw, NGBE_PBTXLNKXOFF);
1408 : 0 : hw_stats->tx_xon_packets += rd32(hw, NGBE_PBTXLNKXON);
1409 : :
1410 : 0 : hw_stats->rx_xon_packets += rd32(hw, NGBE_PBRXLNKXON);
1411 : 0 : hw_stats->rx_xoff_packets += rd32(hw, NGBE_PBRXLNKXOFF);
1412 : :
1413 : : /* DMA Stats */
1414 : 0 : hw_stats->rx_dma_drop += rd32(hw, NGBE_DMARXDROP);
1415 : 0 : hw_stats->tx_dma_drop += rd32(hw, NGBE_DMATXDROP);
1416 : 0 : hw_stats->tx_secdrp_packets += rd32(hw, NGBE_DMATXSECDROP);
1417 : 0 : hw_stats->rx_packets += rd32(hw, NGBE_DMARXPKT);
1418 : 0 : hw_stats->tx_packets += rd32(hw, NGBE_DMATXPKT);
1419 : 0 : hw_stats->rx_bytes += rd64(hw, NGBE_DMARXOCTL);
1420 : 0 : hw_stats->tx_bytes += rd64(hw, NGBE_DMATXOCTL);
1421 : :
1422 : : /* MAC Stats */
1423 : 0 : hw_stats->rx_crc_errors += rd64(hw, NGBE_MACRXERRCRCL);
1424 : 0 : hw_stats->rx_multicast_packets += rd64(hw, NGBE_MACRXMPKTL);
1425 : 0 : hw_stats->tx_multicast_packets += rd64(hw, NGBE_MACTXMPKTL);
1426 : :
1427 : 0 : hw_stats->rx_total_packets += rd64(hw, NGBE_MACRXPKTL);
1428 : 0 : hw_stats->tx_total_packets += rd64(hw, NGBE_MACTXPKTL);
1429 : 0 : hw_stats->rx_total_bytes += rd64(hw, NGBE_MACRXGBOCTL);
1430 : :
1431 : 0 : hw_stats->rx_broadcast_packets += rd64(hw, NGBE_MACRXOCTL);
1432 : 0 : hw_stats->tx_broadcast_packets += rd64(hw, NGBE_MACTXOCTL);
1433 : :
1434 : 0 : hw_stats->rx_size_64_packets += rd64(hw, NGBE_MACRX1TO64L);
1435 : 0 : hw_stats->rx_size_65_to_127_packets += rd64(hw, NGBE_MACRX65TO127L);
1436 : 0 : hw_stats->rx_size_128_to_255_packets += rd64(hw, NGBE_MACRX128TO255L);
1437 : 0 : hw_stats->rx_size_256_to_511_packets += rd64(hw, NGBE_MACRX256TO511L);
1438 : 0 : hw_stats->rx_size_512_to_1023_packets +=
1439 : : rd64(hw, NGBE_MACRX512TO1023L);
1440 : 0 : hw_stats->rx_size_1024_to_max_packets +=
1441 : : rd64(hw, NGBE_MACRX1024TOMAXL);
1442 : 0 : hw_stats->tx_size_64_packets += rd64(hw, NGBE_MACTX1TO64L);
1443 : 0 : hw_stats->tx_size_65_to_127_packets += rd64(hw, NGBE_MACTX65TO127L);
1444 : 0 : hw_stats->tx_size_128_to_255_packets += rd64(hw, NGBE_MACTX128TO255L);
1445 : 0 : hw_stats->tx_size_256_to_511_packets += rd64(hw, NGBE_MACTX256TO511L);
1446 : 0 : hw_stats->tx_size_512_to_1023_packets +=
1447 : : rd64(hw, NGBE_MACTX512TO1023L);
1448 : 0 : hw_stats->tx_size_1024_to_max_packets +=
1449 : : rd64(hw, NGBE_MACTX1024TOMAXL);
1450 : :
1451 : 0 : hw_stats->rx_length_errors += rd64(hw, NGBE_MACRXERRLENL);
1452 : 0 : hw_stats->rx_undersize_errors += rd32(hw, NGBE_MACRXUNDERSIZE);
1453 : 0 : hw_stats->rx_oversize_cnt += rd32(hw, NGBE_MACRXOVERSIZE);
1454 : 0 : hw_stats->rx_jabber_errors += rd32(hw, NGBE_MACRXJABBER);
1455 : :
1456 : : /* MNG Stats */
1457 : 0 : hw_stats->mng_bmc2host_packets = rd32(hw, NGBE_MNGBMC2OS);
1458 : 0 : hw_stats->mng_host2bmc_packets = rd32(hw, NGBE_MNGOS2BMC);
1459 : 0 : hw_stats->rx_management_packets = rd32(hw, NGBE_DMARXMNG);
1460 : 0 : hw_stats->tx_management_packets = rd32(hw, NGBE_DMATXMNG);
1461 : :
1462 : : /* MACsec Stats */
1463 : 0 : hw_stats->tx_macsec_pkts_untagged += rd32(hw, NGBE_LSECTX_UTPKT);
1464 : 0 : hw_stats->tx_macsec_pkts_encrypted +=
1465 : 0 : rd32(hw, NGBE_LSECTX_ENCPKT);
1466 : 0 : hw_stats->tx_macsec_pkts_protected +=
1467 : 0 : rd32(hw, NGBE_LSECTX_PROTPKT);
1468 : 0 : hw_stats->tx_macsec_octets_encrypted +=
1469 : 0 : rd32(hw, NGBE_LSECTX_ENCOCT);
1470 : 0 : hw_stats->tx_macsec_octets_protected +=
1471 : 0 : rd32(hw, NGBE_LSECTX_PROTOCT);
1472 : 0 : hw_stats->rx_macsec_pkts_untagged += rd32(hw, NGBE_LSECRX_UTPKT);
1473 : 0 : hw_stats->rx_macsec_pkts_badtag += rd32(hw, NGBE_LSECRX_BTPKT);
1474 : 0 : hw_stats->rx_macsec_pkts_nosci += rd32(hw, NGBE_LSECRX_NOSCIPKT);
1475 : 0 : hw_stats->rx_macsec_pkts_unknownsci += rd32(hw, NGBE_LSECRX_UNSCIPKT);
1476 : 0 : hw_stats->rx_macsec_octets_decrypted += rd32(hw, NGBE_LSECRX_DECOCT);
1477 : 0 : hw_stats->rx_macsec_octets_validated += rd32(hw, NGBE_LSECRX_VLDOCT);
1478 : 0 : hw_stats->rx_macsec_sc_pkts_unchecked +=
1479 : 0 : rd32(hw, NGBE_LSECRX_UNCHKPKT);
1480 : 0 : hw_stats->rx_macsec_sc_pkts_delayed += rd32(hw, NGBE_LSECRX_DLYPKT);
1481 : 0 : hw_stats->rx_macsec_sc_pkts_late += rd32(hw, NGBE_LSECRX_LATEPKT);
1482 [ # # ]: 0 : for (i = 0; i < 2; i++) {
1483 : 0 : hw_stats->rx_macsec_sa_pkts_ok +=
1484 : 0 : rd32(hw, NGBE_LSECRX_OKPKT(i));
1485 : 0 : hw_stats->rx_macsec_sa_pkts_invalid +=
1486 : 0 : rd32(hw, NGBE_LSECRX_INVPKT(i));
1487 : 0 : hw_stats->rx_macsec_sa_pkts_notvalid +=
1488 : 0 : rd32(hw, NGBE_LSECRX_BADPKT(i));
1489 : : }
1490 [ # # ]: 0 : for (i = 0; i < 4; i++) {
1491 : 0 : hw_stats->rx_macsec_sa_pkts_unusedsa +=
1492 : 0 : rd32(hw, NGBE_LSECRX_INVSAPKT(i));
1493 : 0 : hw_stats->rx_macsec_sa_pkts_notusingsa +=
1494 : 0 : rd32(hw, NGBE_LSECRX_BADSAPKT(i));
1495 : : }
1496 : 0 : hw_stats->rx_total_missed_packets =
1497 : 0 : hw_stats->rx_up_dropped;
1498 : 0 : }
1499 : :
1500 : : static int
1501 : 0 : ngbe_dev_stats_get(struct rte_eth_dev *dev, struct rte_eth_stats *stats)
1502 : : {
1503 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1504 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1505 : : struct ngbe_stat_mappings *stat_mappings =
1506 : : NGBE_DEV_STAT_MAPPINGS(dev);
1507 : : struct ngbe_tx_queue *txq;
1508 : : uint32_t i, j;
1509 : :
1510 : 0 : ngbe_read_stats_registers(hw, hw_stats);
1511 : :
1512 [ # # ]: 0 : if (stats == NULL)
1513 : : return -EINVAL;
1514 : :
1515 : : /* Fill out the rte_eth_stats statistics structure */
1516 : 0 : stats->ipackets = hw_stats->rx_packets;
1517 : 0 : stats->ibytes = hw_stats->rx_bytes;
1518 : 0 : stats->opackets = hw_stats->tx_packets;
1519 : 0 : stats->obytes = hw_stats->tx_bytes;
1520 : :
1521 : 0 : memset(&stats->q_ipackets, 0, sizeof(stats->q_ipackets));
1522 : 0 : memset(&stats->q_opackets, 0, sizeof(stats->q_opackets));
1523 : 0 : memset(&stats->q_ibytes, 0, sizeof(stats->q_ibytes));
1524 : 0 : memset(&stats->q_obytes, 0, sizeof(stats->q_obytes));
1525 : 0 : memset(&stats->q_errors, 0, sizeof(stats->q_errors));
1526 [ # # ]: 0 : for (i = 0; i < NGBE_MAX_QP; i++) {
1527 : 0 : uint32_t n = i / NB_QMAP_FIELDS_PER_QSM_REG;
1528 : 0 : uint32_t offset = (i % NB_QMAP_FIELDS_PER_QSM_REG) * 8;
1529 : : uint32_t q_map;
1530 : :
1531 : 0 : q_map = (stat_mappings->rqsm[n] >> offset)
1532 : : & QMAP_FIELD_RESERVED_BITS_MASK;
1533 : : j = (q_map < RTE_ETHDEV_QUEUE_STAT_CNTRS
1534 : : ? q_map : q_map % RTE_ETHDEV_QUEUE_STAT_CNTRS);
1535 : 0 : stats->q_ipackets[j] += hw_stats->qp[i].rx_qp_packets;
1536 : 0 : stats->q_ibytes[j] += hw_stats->qp[i].rx_qp_bytes;
1537 : :
1538 : 0 : q_map = (stat_mappings->tqsm[n] >> offset)
1539 : : & QMAP_FIELD_RESERVED_BITS_MASK;
1540 : : j = (q_map < RTE_ETHDEV_QUEUE_STAT_CNTRS
1541 : : ? q_map : q_map % RTE_ETHDEV_QUEUE_STAT_CNTRS);
1542 : 0 : stats->q_opackets[j] += hw_stats->qp[i].tx_qp_packets;
1543 : 0 : stats->q_obytes[j] += hw_stats->qp[i].tx_qp_bytes;
1544 : : }
1545 : :
1546 : : /* Rx Errors */
1547 : 0 : stats->imissed = hw_stats->rx_total_missed_packets +
1548 : 0 : hw_stats->rx_dma_drop;
1549 : 0 : stats->ierrors = hw_stats->rx_crc_errors +
1550 : 0 : hw_stats->rx_mac_short_packet_dropped +
1551 : 0 : hw_stats->rx_length_errors +
1552 : 0 : hw_stats->rx_undersize_errors +
1553 : 0 : hw_stats->rdb_drp_cnt +
1554 : 0 : hw_stats->rx_illegal_byte_errors +
1555 : 0 : hw_stats->rx_error_bytes +
1556 : 0 : hw_stats->rx_fragment_errors;
1557 : :
1558 : : /* Tx Errors */
1559 : 0 : stats->oerrors = 0;
1560 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
1561 : 0 : txq = dev->data->tx_queues[i];
1562 : 0 : stats->oerrors += txq->desc_error;
1563 : : }
1564 : :
1565 : : return 0;
1566 : : }
1567 : :
1568 : : static int
1569 : 0 : ngbe_dev_stats_reset(struct rte_eth_dev *dev)
1570 : : {
1571 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1572 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1573 : : struct ngbe_tx_queue *txq;
1574 : : uint32_t i;
1575 : :
1576 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
1577 : 0 : txq = dev->data->tx_queues[i];
1578 : 0 : txq->desc_error = 0;
1579 : : }
1580 : :
1581 : : /* HW registers are cleared on read */
1582 : 0 : hw->offset_loaded = 0;
1583 : : ngbe_dev_stats_get(dev, NULL);
1584 : 0 : hw->offset_loaded = 1;
1585 : :
1586 : : /* Reset software totals */
1587 : : memset(hw_stats, 0, sizeof(*hw_stats));
1588 : :
1589 : 0 : return 0;
1590 : : }
1591 : :
1592 : : /* This function calculates the number of xstats based on the current config */
1593 : : static unsigned
1594 : : ngbe_xstats_calc_num(struct rte_eth_dev *dev)
1595 : : {
1596 : 0 : int nb_queues = max(dev->data->nb_rx_queues, dev->data->nb_tx_queues);
1597 : 0 : return NGBE_NB_HW_STATS +
1598 : : NGBE_NB_QP_STATS * nb_queues;
1599 : : }
1600 : :
1601 : : static inline int
1602 : 0 : ngbe_get_name_by_id(uint32_t id, char *name, uint32_t size)
1603 : : {
1604 : : int nb, st;
1605 : :
1606 : : /* Extended stats from ngbe_hw_stats */
1607 [ # # ]: 0 : if (id < NGBE_NB_HW_STATS) {
1608 : 0 : snprintf(name, size, "[hw]%s",
1609 : 0 : rte_ngbe_stats_strings[id].name);
1610 : 0 : return 0;
1611 : : }
1612 : 0 : id -= NGBE_NB_HW_STATS;
1613 : :
1614 : : /* Queue Stats */
1615 [ # # ]: 0 : if (id < NGBE_NB_QP_STATS * NGBE_MAX_QP) {
1616 : 0 : nb = id / NGBE_NB_QP_STATS;
1617 : 0 : st = id % NGBE_NB_QP_STATS;
1618 : 0 : snprintf(name, size, "[q%u]%s", nb,
1619 : 0 : rte_ngbe_qp_strings[st].name);
1620 : 0 : return 0;
1621 : : }
1622 : : id -= NGBE_NB_QP_STATS * NGBE_MAX_QP;
1623 : :
1624 : 0 : return -(int)(id + 1);
1625 : : }
1626 : :
1627 : : static inline int
1628 : : ngbe_get_offset_by_id(uint32_t id, uint32_t *offset)
1629 : : {
1630 : : int nb, st;
1631 : :
1632 : : /* Extended stats from ngbe_hw_stats */
1633 [ # # # # ]: 0 : if (id < NGBE_NB_HW_STATS) {
1634 : 0 : *offset = rte_ngbe_stats_strings[id].offset;
1635 : : return 0;
1636 : : }
1637 : 0 : id -= NGBE_NB_HW_STATS;
1638 : :
1639 : : /* Queue Stats */
1640 [ # # # # : 0 : if (id < NGBE_NB_QP_STATS * NGBE_MAX_QP) {
# # ]
1641 : 0 : nb = id / NGBE_NB_QP_STATS;
1642 : 0 : st = id % NGBE_NB_QP_STATS;
1643 : 0 : *offset = rte_ngbe_qp_strings[st].offset +
1644 : : nb * (NGBE_NB_QP_STATS * sizeof(uint64_t));
1645 : : return 0;
1646 : : }
1647 : :
1648 : : return -1;
1649 : : }
1650 : :
1651 : 0 : static int ngbe_dev_xstats_get_names(struct rte_eth_dev *dev,
1652 : : struct rte_eth_xstat_name *xstats_names, unsigned int limit)
1653 : : {
1654 : : unsigned int i, count;
1655 : :
1656 : : count = ngbe_xstats_calc_num(dev);
1657 [ # # ]: 0 : if (xstats_names == NULL)
1658 : 0 : return count;
1659 : :
1660 : : /* Note: limit >= cnt_stats checked upstream
1661 : : * in rte_eth_xstats_names()
1662 : : */
1663 : 0 : limit = min(limit, count);
1664 : :
1665 : : /* Extended stats from ngbe_hw_stats */
1666 [ # # ]: 0 : for (i = 0; i < limit; i++) {
1667 [ # # ]: 0 : if (ngbe_get_name_by_id(i, xstats_names[i].name,
1668 : : sizeof(xstats_names[i].name))) {
1669 : 0 : PMD_INIT_LOG(WARNING, "id value %d isn't valid", i);
1670 : 0 : break;
1671 : : }
1672 : : }
1673 : :
1674 : 0 : return i;
1675 : : }
1676 : :
1677 : 0 : static int ngbe_dev_xstats_get_names_by_id(struct rte_eth_dev *dev,
1678 : : const uint64_t *ids,
1679 : : struct rte_eth_xstat_name *xstats_names,
1680 : : unsigned int limit)
1681 : : {
1682 : : unsigned int i;
1683 : :
1684 [ # # ]: 0 : if (ids == NULL)
1685 : 0 : return ngbe_dev_xstats_get_names(dev, xstats_names, limit);
1686 : :
1687 [ # # ]: 0 : for (i = 0; i < limit; i++) {
1688 [ # # ]: 0 : if (ngbe_get_name_by_id(ids[i], xstats_names[i].name,
1689 : : sizeof(xstats_names[i].name))) {
1690 : 0 : PMD_INIT_LOG(WARNING, "id value %d isn't valid", i);
1691 : 0 : return -1;
1692 : : }
1693 : : }
1694 : :
1695 : 0 : return i;
1696 : : }
1697 : :
1698 : : static int
1699 : 0 : ngbe_dev_xstats_get(struct rte_eth_dev *dev, struct rte_eth_xstat *xstats,
1700 : : unsigned int limit)
1701 : : {
1702 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1703 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1704 : : unsigned int i, count;
1705 : :
1706 : 0 : ngbe_read_stats_registers(hw, hw_stats);
1707 : :
1708 : : /* If this is a reset xstats is NULL, and we have cleared the
1709 : : * registers by reading them.
1710 : : */
1711 : : count = ngbe_xstats_calc_num(dev);
1712 [ # # ]: 0 : if (xstats == NULL)
1713 : 0 : return count;
1714 : :
1715 : 0 : limit = min(limit, ngbe_xstats_calc_num(dev));
1716 : :
1717 : : /* Extended stats from ngbe_hw_stats */
1718 [ # # ]: 0 : for (i = 0; i < limit; i++) {
1719 : : uint32_t offset = 0;
1720 : :
1721 : : if (ngbe_get_offset_by_id(i, &offset)) {
1722 : 0 : PMD_INIT_LOG(WARNING, "id value %d isn't valid", i);
1723 : : break;
1724 : : }
1725 : 0 : xstats[i].value = *(uint64_t *)(((char *)hw_stats) + offset);
1726 : 0 : xstats[i].id = i;
1727 : : }
1728 : :
1729 : 0 : return i;
1730 : : }
1731 : :
1732 : : static int
1733 : 0 : ngbe_dev_xstats_get_(struct rte_eth_dev *dev, uint64_t *values,
1734 : : unsigned int limit)
1735 : : {
1736 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1737 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1738 : : unsigned int i, count;
1739 : :
1740 : 0 : ngbe_read_stats_registers(hw, hw_stats);
1741 : :
1742 : : /* If this is a reset xstats is NULL, and we have cleared the
1743 : : * registers by reading them.
1744 : : */
1745 : : count = ngbe_xstats_calc_num(dev);
1746 [ # # ]: 0 : if (values == NULL)
1747 : 0 : return count;
1748 : :
1749 : 0 : limit = min(limit, ngbe_xstats_calc_num(dev));
1750 : :
1751 : : /* Extended stats from ngbe_hw_stats */
1752 [ # # ]: 0 : for (i = 0; i < limit; i++) {
1753 : : uint32_t offset;
1754 : :
1755 : : if (ngbe_get_offset_by_id(i, &offset)) {
1756 : 0 : PMD_INIT_LOG(WARNING, "id value %d isn't valid", i);
1757 : : break;
1758 : : }
1759 : 0 : values[i] = *(uint64_t *)(((char *)hw_stats) + offset);
1760 : : }
1761 : :
1762 : 0 : return i;
1763 : : }
1764 : :
1765 : : static int
1766 : 0 : ngbe_dev_xstats_get_by_id(struct rte_eth_dev *dev, const uint64_t *ids,
1767 : : uint64_t *values, unsigned int limit)
1768 : : {
1769 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1770 : : unsigned int i;
1771 : :
1772 [ # # ]: 0 : if (ids == NULL)
1773 : 0 : return ngbe_dev_xstats_get_(dev, values, limit);
1774 : :
1775 [ # # ]: 0 : for (i = 0; i < limit; i++) {
1776 : : uint32_t offset;
1777 : :
1778 [ # # ]: 0 : if (ngbe_get_offset_by_id(ids[i], &offset)) {
1779 : 0 : PMD_INIT_LOG(WARNING, "id value %d isn't valid", i);
1780 : : break;
1781 : : }
1782 : 0 : values[i] = *(uint64_t *)(((char *)hw_stats) + offset);
1783 : : }
1784 : :
1785 : 0 : return i;
1786 : : }
1787 : :
1788 : : static int
1789 : 0 : ngbe_dev_xstats_reset(struct rte_eth_dev *dev)
1790 : : {
1791 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1792 : 0 : struct ngbe_hw_stats *hw_stats = NGBE_DEV_STATS(dev);
1793 : :
1794 : : /* HW registers are cleared on read */
1795 : 0 : hw->offset_loaded = 0;
1796 : 0 : ngbe_read_stats_registers(hw, hw_stats);
1797 : 0 : hw->offset_loaded = 1;
1798 : :
1799 : : /* Reset software totals */
1800 : : memset(hw_stats, 0, sizeof(*hw_stats));
1801 : :
1802 : 0 : return 0;
1803 : : }
1804 : :
1805 : : static int
1806 [ # # ]: 0 : ngbe_fw_version_get(struct rte_eth_dev *dev, char *fw_version, size_t fw_size)
1807 : : {
1808 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1809 : : int ret;
1810 : :
1811 [ # # ]: 0 : ret = snprintf(fw_version, fw_size, "0x%08x", hw->eeprom_id);
1812 : :
1813 [ # # ]: 0 : if (ret < 0)
1814 : : return -EINVAL;
1815 : :
1816 : 0 : ret += 1; /* add the size of '\0' */
1817 [ # # ]: 0 : if (fw_size < (size_t)ret)
1818 : 0 : return ret;
1819 : :
1820 : : return 0;
1821 : : }
1822 : :
1823 : : static int
1824 : 0 : ngbe_dev_info_get(struct rte_eth_dev *dev, struct rte_eth_dev_info *dev_info)
1825 : : {
1826 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
1827 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1828 : :
1829 : 0 : dev_info->max_rx_queues = (uint16_t)hw->mac.max_rx_queues;
1830 : 0 : dev_info->max_tx_queues = (uint16_t)hw->mac.max_tx_queues;
1831 : 0 : dev_info->min_rx_bufsize = 1024;
1832 : 0 : dev_info->max_rx_pktlen = NGBE_MAX_MTU + NGBE_ETH_OVERHEAD;
1833 : 0 : dev_info->min_mtu = RTE_ETHER_MIN_MTU;
1834 : 0 : dev_info->max_mtu = NGBE_MAX_MTU;
1835 : 0 : dev_info->max_mac_addrs = hw->mac.num_rar_entries;
1836 : 0 : dev_info->max_hash_mac_addrs = NGBE_VMDQ_NUM_UC_MAC;
1837 : 0 : dev_info->max_vfs = pci_dev->max_vfs;
1838 : 0 : dev_info->rx_queue_offload_capa = ngbe_get_rx_queue_offloads(dev);
1839 : 0 : dev_info->rx_offload_capa = (ngbe_get_rx_port_offloads(dev) |
1840 : 0 : dev_info->rx_queue_offload_capa);
1841 : 0 : dev_info->tx_queue_offload_capa = 0;
1842 : 0 : dev_info->tx_offload_capa = ngbe_get_tx_port_offloads(dev);
1843 : :
1844 : 0 : dev_info->default_rxconf = (struct rte_eth_rxconf) {
1845 : : .rx_thresh = {
1846 : : .pthresh = NGBE_DEFAULT_RX_PTHRESH,
1847 : : .hthresh = NGBE_DEFAULT_RX_HTHRESH,
1848 : : .wthresh = NGBE_DEFAULT_RX_WTHRESH,
1849 : : },
1850 : : .rx_free_thresh = NGBE_DEFAULT_RX_FREE_THRESH,
1851 : : .rx_drop_en = 0,
1852 : : .offloads = 0,
1853 : : };
1854 : :
1855 : 0 : dev_info->default_txconf = (struct rte_eth_txconf) {
1856 : : .tx_thresh = {
1857 : : .pthresh = NGBE_DEFAULT_TX_PTHRESH,
1858 : : .hthresh = NGBE_DEFAULT_TX_HTHRESH,
1859 : : .wthresh = NGBE_DEFAULT_TX_WTHRESH,
1860 : : },
1861 : : .tx_free_thresh = NGBE_DEFAULT_TX_FREE_THRESH,
1862 : : .offloads = 0,
1863 : : };
1864 : :
1865 : 0 : dev_info->rx_desc_lim = rx_desc_lim;
1866 : 0 : dev_info->tx_desc_lim = tx_desc_lim;
1867 : :
1868 : 0 : dev_info->hash_key_size = NGBE_HKEY_MAX_INDEX * sizeof(uint32_t);
1869 : 0 : dev_info->reta_size = RTE_ETH_RSS_RETA_SIZE_128;
1870 : 0 : dev_info->flow_type_rss_offloads = NGBE_RSS_OFFLOAD_ALL;
1871 : :
1872 : 0 : dev_info->speed_capa = RTE_ETH_LINK_SPEED_1G | RTE_ETH_LINK_SPEED_100M |
1873 : : RTE_ETH_LINK_SPEED_10M;
1874 : :
1875 : : /* Driver-preferred Rx/Tx parameters */
1876 : 0 : dev_info->default_rxportconf.burst_size = 32;
1877 : 0 : dev_info->default_txportconf.burst_size = 32;
1878 : 0 : dev_info->default_rxportconf.nb_queues = 1;
1879 : 0 : dev_info->default_txportconf.nb_queues = 1;
1880 : 0 : dev_info->default_rxportconf.ring_size = 256;
1881 : 0 : dev_info->default_txportconf.ring_size = 256;
1882 : :
1883 : 0 : return 0;
1884 : : }
1885 : :
1886 : : const uint32_t *
1887 : 0 : ngbe_dev_supported_ptypes_get(struct rte_eth_dev *dev, size_t *no_of_elements)
1888 : : {
1889 [ # # # # ]: 0 : if (dev->rx_pkt_burst == ngbe_recv_pkts ||
1890 : : #if defined(RTE_ARCH_X86) || defined(RTE_ARCH_ARM)
1891 [ # # ]: 0 : dev->rx_pkt_burst == ngbe_recv_pkts_vec ||
1892 [ # # ]: 0 : dev->rx_pkt_burst == ngbe_recv_scattered_pkts_vec ||
1893 : : #endif
1894 [ # # ]: 0 : dev->rx_pkt_burst == ngbe_recv_pkts_sc_single_alloc ||
1895 [ # # ]: 0 : dev->rx_pkt_burst == ngbe_recv_pkts_sc_bulk_alloc ||
1896 : : dev->rx_pkt_burst == ngbe_recv_pkts_bulk_alloc)
1897 : 0 : return ngbe_get_supported_ptypes(no_of_elements);
1898 : :
1899 : : return NULL;
1900 : : }
1901 : :
1902 : : static void
1903 : 0 : ngbe_dev_overheat(struct rte_eth_dev *dev)
1904 : : {
1905 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1906 : : s32 temp_state;
1907 : :
1908 : 0 : temp_state = hw->mac.check_overtemp(hw);
1909 [ # # ]: 0 : if (!temp_state)
1910 : : return;
1911 : :
1912 [ # # ]: 0 : if (temp_state == NGBE_ERR_UNDERTEMP) {
1913 : 0 : PMD_DRV_LOG(CRIT, "Network adapter has been started again, "
1914 : : "since the temperature has been back to normal state.");
1915 : : wr32m(hw, NGBE_PBRXCTL, NGBE_PBRXCTL_ENA, NGBE_PBRXCTL_ENA);
1916 : : ngbe_dev_set_link_up(dev);
1917 [ # # ]: 0 : } else if (temp_state == NGBE_ERR_OVERTEMP) {
1918 : 0 : PMD_DRV_LOG(CRIT, "Network adapter has been stopped because it has over heated.");
1919 : : wr32m(hw, NGBE_PBRXCTL, NGBE_PBRXCTL_ENA, 0);
1920 : : ngbe_dev_set_link_down(dev);
1921 : : }
1922 : : }
1923 : :
1924 : : /* return 0 means link status changed, -1 means not changed */
1925 : : int
1926 [ # # ]: 0 : ngbe_dev_link_update_share(struct rte_eth_dev *dev,
1927 : : int wait_to_complete)
1928 : : {
1929 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
1930 : : struct rte_eth_link link;
1931 [ # # ]: 0 : u32 link_speed = NGBE_LINK_SPEED_UNKNOWN;
1932 : : u32 lan_speed = 0;
1933 : : bool link_up;
1934 : : int err;
1935 : : int wait = 1;
1936 : : u32 reg;
1937 : :
1938 : : memset(&link, 0, sizeof(link));
1939 : : link.link_status = RTE_ETH_LINK_DOWN;
1940 : : link.link_speed = RTE_ETH_SPEED_NUM_NONE;
1941 : : link.link_duplex = RTE_ETH_LINK_HALF_DUPLEX;
1942 : 0 : link.link_autoneg = !(dev->data->dev_conf.link_speeds &
1943 : : ~RTE_ETH_LINK_SPEED_AUTONEG);
1944 : :
1945 : 0 : hw->mac.get_link_status = true;
1946 : :
1947 : : /* check if it needs to wait to complete, if lsc interrupt is enabled */
1948 [ # # # # ]: 0 : if (wait_to_complete == 0 || dev->data->dev_conf.intr_conf.lsc != 0)
1949 : : wait = 0;
1950 : :
1951 : 0 : err = hw->mac.check_link(hw, &link_speed, &link_up, wait);
1952 [ # # ]: 0 : if (err != 0) {
1953 : : link.link_speed = RTE_ETH_SPEED_NUM_NONE;
1954 [ # # ]: 0 : link.link_duplex = RTE_ETH_LINK_FULL_DUPLEX;
1955 : 0 : return rte_eth_linkstatus_set(dev, &link);
1956 : : }
1957 : :
1958 [ # # ]: 0 : if (!link_up)
1959 : 0 : return rte_eth_linkstatus_set(dev, &link);
1960 : :
1961 : 0 : link.link_status = RTE_ETH_LINK_UP;
1962 : 0 : link.link_duplex = RTE_ETH_LINK_FULL_DUPLEX;
1963 : :
1964 [ # # # # ]: 0 : switch (link_speed) {
1965 : : default:
1966 : : case NGBE_LINK_SPEED_UNKNOWN:
1967 : : link.link_speed = RTE_ETH_SPEED_NUM_NONE;
1968 : : break;
1969 : :
1970 : 0 : case NGBE_LINK_SPEED_10M_FULL:
1971 : 0 : link.link_speed = RTE_ETH_SPEED_NUM_10M;
1972 : : lan_speed = 0;
1973 : 0 : break;
1974 : :
1975 : 0 : case NGBE_LINK_SPEED_100M_FULL:
1976 : 0 : link.link_speed = RTE_ETH_SPEED_NUM_100M;
1977 : : lan_speed = 1;
1978 : 0 : break;
1979 : :
1980 : 0 : case NGBE_LINK_SPEED_1GB_FULL:
1981 : 0 : link.link_speed = RTE_ETH_SPEED_NUM_1G;
1982 : : lan_speed = 2;
1983 : 0 : break;
1984 : : }
1985 : :
1986 [ # # ]: 0 : if (hw->is_pf) {
1987 : : wr32m(hw, NGBE_LAN_SPEED, NGBE_LAN_SPEED_MASK, lan_speed);
1988 [ # # ]: 0 : if (link_speed & (NGBE_LINK_SPEED_1GB_FULL |
1989 : : NGBE_LINK_SPEED_100M_FULL |
1990 : : NGBE_LINK_SPEED_10M_FULL)) {
1991 : : wr32m(hw, NGBE_MACTXCFG, NGBE_MACTXCFG_SPEED_MASK,
1992 : : NGBE_MACTXCFG_SPEED_1G | NGBE_MACTXCFG_TE);
1993 : : }
1994 : : /* Re configure MAC RX */
1995 : : reg = rd32(hw, NGBE_MACRXCFG);
1996 : : wr32(hw, NGBE_MACRXCFG, reg);
1997 : : wr32m(hw, NGBE_MACRXFLT, NGBE_MACRXFLT_PROMISC,
1998 : : NGBE_MACRXFLT_PROMISC);
1999 : : reg = rd32(hw, NGBE_MAC_WDG_TIMEOUT);
2000 : : wr32(hw, NGBE_MAC_WDG_TIMEOUT, reg);
2001 : : }
2002 : :
2003 : : return rte_eth_linkstatus_set(dev, &link);
2004 : : }
2005 : :
2006 : : static int
2007 : 0 : ngbe_dev_link_update(struct rte_eth_dev *dev, int wait_to_complete)
2008 : : {
2009 : 0 : return ngbe_dev_link_update_share(dev, wait_to_complete);
2010 : : }
2011 : :
2012 : : static int
2013 : 0 : ngbe_dev_promiscuous_enable(struct rte_eth_dev *dev)
2014 : : {
2015 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2016 : : uint32_t fctrl;
2017 : :
2018 : : fctrl = rd32(hw, NGBE_PSRCTL);
2019 : 0 : fctrl |= (NGBE_PSRCTL_UCP | NGBE_PSRCTL_MCP);
2020 : : wr32(hw, NGBE_PSRCTL, fctrl);
2021 : :
2022 : 0 : return 0;
2023 : : }
2024 : :
2025 : : static int
2026 : 0 : ngbe_dev_promiscuous_disable(struct rte_eth_dev *dev)
2027 : : {
2028 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2029 : : uint32_t fctrl;
2030 : :
2031 : : fctrl = rd32(hw, NGBE_PSRCTL);
2032 : 0 : fctrl &= (~NGBE_PSRCTL_UCP);
2033 [ # # ]: 0 : if (dev->data->all_multicast == 1)
2034 : 0 : fctrl |= NGBE_PSRCTL_MCP;
2035 : : else
2036 : 0 : fctrl &= (~NGBE_PSRCTL_MCP);
2037 : : wr32(hw, NGBE_PSRCTL, fctrl);
2038 : :
2039 : 0 : return 0;
2040 : : }
2041 : :
2042 : : static int
2043 : 0 : ngbe_dev_allmulticast_enable(struct rte_eth_dev *dev)
2044 : : {
2045 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2046 : : uint32_t fctrl;
2047 : :
2048 : : fctrl = rd32(hw, NGBE_PSRCTL);
2049 : 0 : fctrl |= NGBE_PSRCTL_MCP;
2050 : : wr32(hw, NGBE_PSRCTL, fctrl);
2051 : :
2052 : 0 : return 0;
2053 : : }
2054 : :
2055 : : static int
2056 [ # # ]: 0 : ngbe_dev_allmulticast_disable(struct rte_eth_dev *dev)
2057 : : {
2058 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2059 : : uint32_t fctrl;
2060 : :
2061 [ # # ]: 0 : if (dev->data->promiscuous == 1)
2062 : : return 0; /* must remain in all_multicast mode */
2063 : :
2064 : : fctrl = rd32(hw, NGBE_PSRCTL);
2065 : 0 : fctrl &= (~NGBE_PSRCTL_MCP);
2066 : : wr32(hw, NGBE_PSRCTL, fctrl);
2067 : :
2068 : 0 : return 0;
2069 : : }
2070 : :
2071 : : /**
2072 : : * It clears the interrupt causes and enables the interrupt.
2073 : : * It will be called once only during NIC initialized.
2074 : : *
2075 : : * @param dev
2076 : : * Pointer to struct rte_eth_dev.
2077 : : * @param on
2078 : : * Enable or Disable.
2079 : : *
2080 : : * @return
2081 : : * - On success, zero.
2082 : : * - On failure, a negative value.
2083 : : */
2084 : : static int
2085 : 0 : ngbe_dev_lsc_interrupt_setup(struct rte_eth_dev *dev, uint8_t on)
2086 : : {
2087 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2088 : :
2089 : 0 : ngbe_dev_link_status_print(dev);
2090 [ # # ]: 0 : if (on != 0) {
2091 : 0 : intr->mask_misc |= NGBE_ICRMISC_PHY;
2092 : 0 : intr->mask_misc |= NGBE_ICRMISC_GPIO;
2093 : : } else {
2094 : 0 : intr->mask_misc &= ~NGBE_ICRMISC_PHY;
2095 : 0 : intr->mask_misc &= ~NGBE_ICRMISC_GPIO;
2096 : : }
2097 : :
2098 : 0 : return 0;
2099 : : }
2100 : :
2101 : : /**
2102 : : * It clears the interrupt causes and enables the interrupt.
2103 : : * It will be called once only during NIC initialized.
2104 : : *
2105 : : * @param dev
2106 : : * Pointer to struct rte_eth_dev.
2107 : : *
2108 : : * @return
2109 : : * - On success, zero.
2110 : : * - On failure, a negative value.
2111 : : */
2112 : : static int
2113 : : ngbe_dev_misc_interrupt_setup(struct rte_eth_dev *dev)
2114 : : {
2115 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2116 : : u64 mask;
2117 : :
2118 : : mask = NGBE_ICR_MASK;
2119 : : mask &= (1ULL << NGBE_MISC_VEC_ID);
2120 : 0 : intr->mask |= mask;
2121 [ # # ]: 0 : intr->mask_misc |= NGBE_ICRMISC_GPIO;
2122 : :
2123 : : return 0;
2124 : : }
2125 : :
2126 : : /**
2127 : : * It clears the interrupt causes and enables the interrupt.
2128 : : * It will be called once only during NIC initialized.
2129 : : *
2130 : : * @param dev
2131 : : * Pointer to struct rte_eth_dev.
2132 : : *
2133 : : * @return
2134 : : * - On success, zero.
2135 : : * - On failure, a negative value.
2136 : : */
2137 : : static int
2138 : : ngbe_dev_rxq_interrupt_setup(struct rte_eth_dev *dev)
2139 : : {
2140 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2141 : : u64 mask;
2142 : :
2143 : : mask = NGBE_ICR_MASK;
2144 : : mask &= ~((1ULL << NGBE_RX_VEC_START) - 1);
2145 : 0 : intr->mask |= mask;
2146 : :
2147 : 0 : return 0;
2148 : : }
2149 : :
2150 : : /**
2151 : : * It clears the interrupt causes and enables the interrupt.
2152 : : * It will be called once only during NIC initialized.
2153 : : *
2154 : : * @param dev
2155 : : * Pointer to struct rte_eth_dev.
2156 : : *
2157 : : * @return
2158 : : * - On success, zero.
2159 : : * - On failure, a negative value.
2160 : : */
2161 : : static int
2162 : : ngbe_dev_macsec_interrupt_setup(struct rte_eth_dev *dev)
2163 : : {
2164 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2165 : :
2166 : 0 : intr->mask_misc |= NGBE_ICRMISC_LNKSEC;
2167 : :
2168 : : return 0;
2169 : : }
2170 : :
2171 : : /*
2172 : : * It reads ICR and sets flag for the link_update.
2173 : : *
2174 : : * @param dev
2175 : : * Pointer to struct rte_eth_dev.
2176 : : *
2177 : : * @return
2178 : : * - On success, zero.
2179 : : * - On failure, a negative value.
2180 : : */
2181 : : static int
2182 [ # # ]: 0 : ngbe_dev_interrupt_get_status(struct rte_eth_dev *dev)
2183 : : {
2184 : : uint32_t eicr;
2185 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2186 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2187 : :
2188 : 0 : eicr = ((u32 *)hw->isb_mem)[NGBE_ISB_VEC0];
2189 [ # # ]: 0 : if (!eicr) {
2190 : : /*
2191 : : * shared interrupt alert!
2192 : : * make sure interrupts are enabled because the read will
2193 : : * have disabled interrupts.
2194 : : */
2195 [ # # ]: 0 : if (!hw->adapter_stopped)
2196 : : ngbe_enable_intr(dev);
2197 : 0 : return 0;
2198 : : }
2199 : 0 : ((u32 *)hw->isb_mem)[NGBE_ISB_VEC0] = 0;
2200 : :
2201 : : /* read-on-clear nic registers here */
2202 : 0 : eicr = ((u32 *)hw->isb_mem)[NGBE_ISB_MISC];
2203 : 0 : PMD_DRV_LOG(DEBUG, "eicr %x", eicr);
2204 : :
2205 : 0 : intr->flags = 0;
2206 : :
2207 : : /* set flag for async link update */
2208 [ # # ]: 0 : if (eicr & NGBE_ICRMISC_PHY)
2209 : 0 : intr->flags |= NGBE_FLAG_NEED_LINK_UPDATE;
2210 : :
2211 [ # # ]: 0 : if (eicr & NGBE_ICRMISC_VFMBX)
2212 : 0 : intr->flags |= NGBE_FLAG_MAILBOX;
2213 : :
2214 [ # # ]: 0 : if (eicr & NGBE_ICRMISC_LNKSEC)
2215 : 0 : intr->flags |= NGBE_FLAG_MACSEC;
2216 : :
2217 [ # # ]: 0 : if (eicr & NGBE_ICRMISC_GPIO)
2218 : 0 : intr->flags |= NGBE_FLAG_NEED_LINK_UPDATE;
2219 : :
2220 [ # # ]: 0 : if (eicr & NGBE_ICRMISC_HEAT)
2221 : 0 : intr->flags |= NGBE_FLAG_OVERHEAT;
2222 : :
2223 : 0 : ((u32 *)hw->isb_mem)[NGBE_ISB_MISC] = 0;
2224 : :
2225 : 0 : return 0;
2226 : : }
2227 : :
2228 : : /**
2229 : : * It gets and then prints the link status.
2230 : : *
2231 : : * @param dev
2232 : : * Pointer to struct rte_eth_dev.
2233 : : *
2234 : : * @return
2235 : : * - On success, zero.
2236 : : * - On failure, a negative value.
2237 : : */
2238 : : static void
2239 : 0 : ngbe_dev_link_status_print(struct rte_eth_dev *dev)
2240 : : {
2241 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2242 : : struct rte_eth_link link;
2243 : :
2244 : 0 : rte_eth_linkstatus_get(dev, &link);
2245 : :
2246 [ # # ]: 0 : if (link.link_status == RTE_ETH_LINK_UP) {
2247 [ # # ]: 0 : PMD_INIT_LOG(INFO, "Port %d: Link Up - speed %u Mbps - %s",
2248 : : (int)(dev->data->port_id),
2249 : : (unsigned int)link.link_speed,
2250 : : link.link_duplex == RTE_ETH_LINK_FULL_DUPLEX ?
2251 : : "full-duplex" : "half-duplex");
2252 : : } else {
2253 : 0 : PMD_INIT_LOG(INFO, " Port %d: Link Down",
2254 : : (int)(dev->data->port_id));
2255 : : }
2256 : 0 : PMD_INIT_LOG(DEBUG, "PCI Address: " PCI_PRI_FMT,
2257 : : pci_dev->addr.domain,
2258 : : pci_dev->addr.bus,
2259 : : pci_dev->addr.devid,
2260 : : pci_dev->addr.function);
2261 : 0 : }
2262 : :
2263 : : /*
2264 : : * It executes link_update after knowing an interrupt occurred.
2265 : : *
2266 : : * @param dev
2267 : : * Pointer to struct rte_eth_dev.
2268 : : *
2269 : : * @return
2270 : : * - On success, zero.
2271 : : * - On failure, a negative value.
2272 : : */
2273 : : static int
2274 : 0 : ngbe_dev_interrupt_action(struct rte_eth_dev *dev)
2275 : : {
2276 : : struct ngbe_interrupt *intr = ngbe_dev_intr(dev);
2277 : :
2278 : 0 : PMD_DRV_LOG(DEBUG, "intr action type %d", intr->flags);
2279 : :
2280 [ # # ]: 0 : if (intr->flags & NGBE_FLAG_MAILBOX) {
2281 : 0 : ngbe_pf_mbx_process(dev);
2282 : 0 : intr->flags &= ~NGBE_FLAG_MAILBOX;
2283 : : }
2284 : :
2285 [ # # ]: 0 : if (intr->flags & NGBE_FLAG_NEED_LINK_UPDATE) {
2286 : : struct rte_eth_link link;
2287 : :
2288 : : /*get the link status before link update, for predicting later*/
2289 : 0 : rte_eth_linkstatus_get(dev, &link);
2290 : :
2291 : : ngbe_dev_link_update(dev, 0);
2292 : 0 : intr->flags &= ~NGBE_FLAG_NEED_LINK_UPDATE;
2293 : 0 : ngbe_dev_link_status_print(dev);
2294 [ # # ]: 0 : if (dev->data->dev_link.link_speed != link.link_speed)
2295 : 0 : rte_eth_dev_callback_process(dev,
2296 : : RTE_ETH_EVENT_INTR_LSC, NULL);
2297 : : }
2298 : :
2299 [ # # ]: 0 : if (intr->flags & NGBE_FLAG_OVERHEAT) {
2300 : 0 : ngbe_dev_overheat(dev);
2301 : 0 : intr->flags &= ~NGBE_FLAG_OVERHEAT;
2302 : : }
2303 : :
2304 : 0 : PMD_DRV_LOG(DEBUG, "enable intr immediately");
2305 : : ngbe_enable_intr(dev);
2306 : :
2307 : 0 : return 0;
2308 : : }
2309 : :
2310 : : /**
2311 : : * Interrupt handler triggered by NIC for handling
2312 : : * specific interrupt.
2313 : : *
2314 : : * @param param
2315 : : * The address of parameter (struct rte_eth_dev *) registered before.
2316 : : */
2317 : : static void
2318 : 0 : ngbe_dev_interrupt_handler(void *param)
2319 : : {
2320 : : struct rte_eth_dev *dev = (struct rte_eth_dev *)param;
2321 : :
2322 : 0 : ngbe_dev_interrupt_get_status(dev);
2323 : 0 : ngbe_dev_interrupt_action(dev);
2324 : 0 : }
2325 : :
2326 : : static int
2327 : 0 : ngbe_dev_led_on(struct rte_eth_dev *dev)
2328 : : {
2329 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2330 [ # # ]: 0 : return hw->mac.led_on(hw, 0) == 0 ? 0 : -ENOTSUP;
2331 : : }
2332 : :
2333 : : static int
2334 : 0 : ngbe_dev_led_off(struct rte_eth_dev *dev)
2335 : : {
2336 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2337 [ # # ]: 0 : return hw->mac.led_off(hw, 0) == 0 ? 0 : -ENOTSUP;
2338 : : }
2339 : :
2340 : : static int
2341 : 0 : ngbe_flow_ctrl_get(struct rte_eth_dev *dev, struct rte_eth_fc_conf *fc_conf)
2342 : : {
2343 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2344 : : uint32_t mflcn_reg;
2345 : : uint32_t fccfg_reg;
2346 : : int rx_pause;
2347 : : int tx_pause;
2348 : :
2349 : 0 : fc_conf->pause_time = hw->fc.pause_time;
2350 : 0 : fc_conf->high_water = hw->fc.high_water;
2351 : 0 : fc_conf->low_water = hw->fc.low_water;
2352 : 0 : fc_conf->send_xon = hw->fc.send_xon;
2353 : 0 : fc_conf->autoneg = !hw->fc.disable_fc_autoneg;
2354 : :
2355 : : /*
2356 : : * Return rx_pause status according to actual setting of
2357 : : * RXFCCFG register.
2358 : : */
2359 : : mflcn_reg = rd32(hw, NGBE_RXFCCFG);
2360 [ # # ]: 0 : if (mflcn_reg & NGBE_RXFCCFG_FC)
2361 : : rx_pause = 1;
2362 : : else
2363 : : rx_pause = 0;
2364 : :
2365 : : /*
2366 : : * Return tx_pause status according to actual setting of
2367 : : * TXFCCFG register.
2368 : : */
2369 : : fccfg_reg = rd32(hw, NGBE_TXFCCFG);
2370 [ # # ]: 0 : if (fccfg_reg & NGBE_TXFCCFG_FC)
2371 : : tx_pause = 1;
2372 : : else
2373 : : tx_pause = 0;
2374 : :
2375 [ # # ]: 0 : if (rx_pause && tx_pause)
2376 : 0 : fc_conf->mode = RTE_ETH_FC_FULL;
2377 [ # # ]: 0 : else if (rx_pause)
2378 : 0 : fc_conf->mode = RTE_ETH_FC_RX_PAUSE;
2379 [ # # ]: 0 : else if (tx_pause)
2380 : 0 : fc_conf->mode = RTE_ETH_FC_TX_PAUSE;
2381 : : else
2382 : 0 : fc_conf->mode = RTE_ETH_FC_NONE;
2383 : :
2384 : 0 : return 0;
2385 : : }
2386 : :
2387 : : static int
2388 : 0 : ngbe_flow_ctrl_set(struct rte_eth_dev *dev, struct rte_eth_fc_conf *fc_conf)
2389 : : {
2390 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2391 : : int err;
2392 : : uint32_t rx_buf_size;
2393 : : uint32_t max_high_water;
2394 : 0 : enum ngbe_fc_mode rte_fcmode_2_ngbe_fcmode[] = {
2395 : : ngbe_fc_none,
2396 : : ngbe_fc_rx_pause,
2397 : : ngbe_fc_tx_pause,
2398 : : ngbe_fc_full
2399 : : };
2400 : :
2401 : 0 : PMD_INIT_FUNC_TRACE();
2402 : :
2403 : : rx_buf_size = rd32(hw, NGBE_PBRXSIZE);
2404 : 0 : PMD_INIT_LOG(DEBUG, "Rx packet buffer size = 0x%x", rx_buf_size);
2405 : :
2406 : : /*
2407 : : * At least reserve one Ethernet frame for watermark
2408 : : * high_water/low_water in kilo bytes for ngbe
2409 : : */
2410 : 0 : max_high_water = (rx_buf_size - RTE_ETHER_MAX_LEN) >> 10;
2411 [ # # ]: 0 : if (fc_conf->high_water > max_high_water ||
2412 [ # # ]: 0 : fc_conf->high_water < fc_conf->low_water) {
2413 : 0 : PMD_INIT_LOG(ERR, "Invalid high/low water setup value in KB");
2414 : 0 : PMD_INIT_LOG(ERR, "High_water must <= 0x%x", max_high_water);
2415 : 0 : return -EINVAL;
2416 : : }
2417 : :
2418 : 0 : hw->fc.requested_mode = rte_fcmode_2_ngbe_fcmode[fc_conf->mode];
2419 : 0 : hw->fc.pause_time = fc_conf->pause_time;
2420 : 0 : hw->fc.high_water = fc_conf->high_water;
2421 : 0 : hw->fc.low_water = fc_conf->low_water;
2422 : 0 : hw->fc.send_xon = fc_conf->send_xon;
2423 : 0 : hw->fc.disable_fc_autoneg = !fc_conf->autoneg;
2424 : 0 : hw->fc.mac_ctrl_frame_fwd = fc_conf->mac_ctrl_frame_fwd;
2425 : :
2426 : 0 : err = hw->mac.fc_enable(hw);
2427 : :
2428 : : /* Not negotiated is not an error case */
2429 [ # # ]: 0 : if (err == 0 || err == NGBE_ERR_FC_NOT_NEGOTIATED) {
2430 : 0 : wr32m(hw, NGBE_MACRXFLT, NGBE_MACRXFLT_CTL_MASK,
2431 [ # # ]: 0 : (fc_conf->mac_ctrl_frame_fwd
2432 : : ? NGBE_MACRXFLT_CTL_NOPS : NGBE_MACRXFLT_CTL_DROP));
2433 : : ngbe_flush(hw);
2434 : :
2435 : 0 : return 0;
2436 : : }
2437 : :
2438 : 0 : PMD_INIT_LOG(ERR, "ngbe_fc_enable = 0x%x", err);
2439 : 0 : return -EIO;
2440 : : }
2441 : :
2442 : : /* Additional bittime to account for NGBE framing */
2443 : : #define NGBE_ETH_FRAMING 20
2444 : :
2445 : : /*
2446 : : * ngbe_fc_hpbthresh_set - calculate high water mark for flow control
2447 : : *
2448 : : * @dv_id: device interface delay
2449 : : * @pb: packet buffer to calculate
2450 : : */
2451 : : static s32
2452 : 0 : ngbe_fc_hpbthresh_set(struct rte_eth_dev *dev)
2453 : : {
2454 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2455 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2456 : : u32 max_frame_size, tc, dv_id, rx_pb;
2457 : : s32 kb, marker;
2458 : :
2459 : : /* Calculate max LAN frame size */
2460 : : max_frame_size = rd32m(hw, NGBE_FRMSZ, NGBE_FRMSZ_MAX_MASK);
2461 : 0 : tc = max_frame_size + NGBE_ETH_FRAMING;
2462 : :
2463 : : /* Calculate delay value for device */
2464 : 0 : dv_id = NGBE_DV(tc, tc);
2465 : :
2466 : : /* Loopback switch introduces additional latency */
2467 [ # # ]: 0 : if (pci_dev->max_vfs)
2468 : 0 : dv_id += NGBE_B2BT(tc);
2469 : :
2470 : : /* Delay value is calculated in bit times convert to KB */
2471 : 0 : kb = NGBE_BT2KB(dv_id);
2472 : 0 : rx_pb = rd32(hw, NGBE_PBRXSIZE) >> 10;
2473 : :
2474 : 0 : marker = rx_pb - kb;
2475 : :
2476 : : /* It is possible that the packet buffer is not large enough
2477 : : * to provide required headroom. In this case throw an error
2478 : : * to user and do the best we can.
2479 : : */
2480 [ # # ]: 0 : if (marker < 0) {
2481 : 0 : PMD_DRV_LOG(WARNING, "Packet Buffer can not provide enough headroom to support flow control.");
2482 : 0 : marker = tc + 1;
2483 : : }
2484 : :
2485 : 0 : return marker;
2486 : : }
2487 : :
2488 : : /*
2489 : : * ngbe_fc_lpbthresh_set - calculate low water mark for flow control
2490 : : *
2491 : : * @dv_id: device interface delay
2492 : : */
2493 : : static s32
2494 : : ngbe_fc_lpbthresh_set(struct rte_eth_dev *dev)
2495 : : {
2496 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2497 : : u32 max_frame_size, tc, dv_id;
2498 : : s32 kb;
2499 : :
2500 : : /* Calculate max LAN frame size */
2501 : : max_frame_size = rd32m(hw, NGBE_FRMSZ, NGBE_FRMSZ_MAX_MASK);
2502 : : tc = max_frame_size + NGBE_ETH_FRAMING;
2503 : :
2504 : : /* Calculate delay value for device */
2505 : 0 : dv_id = NGBE_LOW_DV(tc);
2506 : :
2507 : : /* Delay value is calculated in bit times convert to KB */
2508 : 0 : kb = NGBE_BT2KB(dv_id);
2509 : :
2510 : : return kb;
2511 : : }
2512 : :
2513 : : /*
2514 : : * ngbe_pbthresh_setup - calculate and setup high low water marks
2515 : : */
2516 : : static void
2517 : 0 : ngbe_pbthresh_set(struct rte_eth_dev *dev)
2518 : : {
2519 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2520 : :
2521 : 0 : hw->fc.high_water = ngbe_fc_hpbthresh_set(dev);
2522 : 0 : hw->fc.low_water = ngbe_fc_lpbthresh_set(dev);
2523 : :
2524 : : /* Low water marks must not be larger than high water marks */
2525 [ # # ]: 0 : if (hw->fc.low_water > hw->fc.high_water)
2526 : 0 : hw->fc.low_water = 0;
2527 : 0 : }
2528 : :
2529 : : int
2530 : 0 : ngbe_dev_rss_reta_update(struct rte_eth_dev *dev,
2531 : : struct rte_eth_rss_reta_entry64 *reta_conf,
2532 : : uint16_t reta_size)
2533 : : {
2534 : : uint8_t i, j, mask;
2535 : : uint32_t reta;
2536 : : uint16_t idx, shift;
2537 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
2538 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2539 : :
2540 : 0 : PMD_INIT_FUNC_TRACE();
2541 : :
2542 [ # # ]: 0 : if (!hw->is_pf) {
2543 : 0 : PMD_DRV_LOG(ERR, "RSS reta update is not supported on this "
2544 : : "NIC.");
2545 : 0 : return -ENOTSUP;
2546 : : }
2547 : :
2548 [ # # ]: 0 : if (reta_size != RTE_ETH_RSS_RETA_SIZE_128) {
2549 : 0 : PMD_DRV_LOG(ERR, "The size of hash lookup table configured "
2550 : : "(%d) doesn't match the number hardware can supported "
2551 : : "(%d)", reta_size, RTE_ETH_RSS_RETA_SIZE_128);
2552 : 0 : return -EINVAL;
2553 : : }
2554 : :
2555 [ # # ]: 0 : for (i = 0; i < reta_size; i += 4) {
2556 : 0 : idx = i / RTE_ETH_RETA_GROUP_SIZE;
2557 : : shift = i % RTE_ETH_RETA_GROUP_SIZE;
2558 : 0 : mask = (uint8_t)RS64(reta_conf[idx].mask, shift, 0xF);
2559 [ # # ]: 0 : if (!mask)
2560 : 0 : continue;
2561 : :
2562 : 0 : reta = rd32a(hw, NGBE_REG_RSSTBL, i >> 2);
2563 [ # # ]: 0 : for (j = 0; j < 4; j++) {
2564 [ # # ]: 0 : if (RS8(mask, j, 0x1)) {
2565 : 0 : reta &= ~(MS32(8 * j, 0xFF));
2566 : 0 : reta |= LS32(reta_conf[idx].reta[shift + j],
2567 : : 8 * j, 0xFF);
2568 : : }
2569 : : }
2570 : : wr32a(hw, NGBE_REG_RSSTBL, i >> 2, reta);
2571 : : }
2572 : 0 : adapter->rss_reta_updated = 1;
2573 : :
2574 : 0 : return 0;
2575 : : }
2576 : :
2577 : : int
2578 : 0 : ngbe_dev_rss_reta_query(struct rte_eth_dev *dev,
2579 : : struct rte_eth_rss_reta_entry64 *reta_conf,
2580 : : uint16_t reta_size)
2581 : : {
2582 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2583 : : uint8_t i, j, mask;
2584 : : uint32_t reta;
2585 : : uint16_t idx, shift;
2586 : :
2587 : 0 : PMD_INIT_FUNC_TRACE();
2588 : :
2589 [ # # ]: 0 : if (reta_size != RTE_ETH_RSS_RETA_SIZE_128) {
2590 : 0 : PMD_DRV_LOG(ERR, "The size of hash lookup table configured "
2591 : : "(%d) doesn't match the number hardware can supported "
2592 : : "(%d)", reta_size, RTE_ETH_RSS_RETA_SIZE_128);
2593 : 0 : return -EINVAL;
2594 : : }
2595 : :
2596 [ # # ]: 0 : for (i = 0; i < reta_size; i += 4) {
2597 : 0 : idx = i / RTE_ETH_RETA_GROUP_SIZE;
2598 : : shift = i % RTE_ETH_RETA_GROUP_SIZE;
2599 : 0 : mask = (uint8_t)RS64(reta_conf[idx].mask, shift, 0xF);
2600 [ # # ]: 0 : if (!mask)
2601 : 0 : continue;
2602 : :
2603 : 0 : reta = rd32a(hw, NGBE_REG_RSSTBL, i >> 2);
2604 [ # # ]: 0 : for (j = 0; j < 4; j++) {
2605 [ # # ]: 0 : if (RS8(mask, j, 0x1))
2606 : 0 : reta_conf[idx].reta[shift + j] =
2607 : 0 : (uint16_t)RS32(reta, 8 * j, 0xFF);
2608 : : }
2609 : : }
2610 : :
2611 : : return 0;
2612 : : }
2613 : :
2614 : : static int
2615 : 0 : ngbe_add_rar(struct rte_eth_dev *dev, struct rte_ether_addr *mac_addr,
2616 : : uint32_t index, uint32_t pool)
2617 : : {
2618 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2619 : : uint32_t enable_addr = 1;
2620 : :
2621 : 0 : return ngbe_set_rar(hw, index, mac_addr->addr_bytes,
2622 : : pool, enable_addr);
2623 : : }
2624 : :
2625 : : static void
2626 : 0 : ngbe_remove_rar(struct rte_eth_dev *dev, uint32_t index)
2627 : : {
2628 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2629 : :
2630 : 0 : ngbe_clear_rar(hw, index);
2631 : 0 : }
2632 : :
2633 : : static int
2634 : 0 : ngbe_set_default_mac_addr(struct rte_eth_dev *dev, struct rte_ether_addr *addr)
2635 : : {
2636 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2637 : :
2638 : : ngbe_remove_rar(dev, 0);
2639 : 0 : ngbe_add_rar(dev, addr, 0, pci_dev->max_vfs);
2640 : :
2641 : 0 : return 0;
2642 : : }
2643 : :
2644 : : static int
2645 [ # # ]: 0 : ngbe_dev_mtu_set(struct rte_eth_dev *dev, uint16_t mtu)
2646 : : {
2647 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2648 : : uint32_t frame_size = mtu + RTE_ETHER_HDR_LEN + RTE_ETHER_CRC_LEN;
2649 : : struct rte_eth_dev_data *dev_data = dev->data;
2650 : :
2651 : : /* If device is started, refuse mtu that requires the support of
2652 : : * scattered packets when this feature has not been enabled before.
2653 : : */
2654 [ # # ]: 0 : if (dev_data->dev_started && !dev_data->scattered_rx &&
2655 : 0 : (frame_size + 2 * RTE_VLAN_HLEN >
2656 [ # # ]: 0 : dev->data->min_rx_buf_size - RTE_PKTMBUF_HEADROOM)) {
2657 : 0 : PMD_INIT_LOG(ERR, "Stop port first.");
2658 : 0 : return -EINVAL;
2659 : : }
2660 : :
2661 : 0 : wr32m(hw, NGBE_FRMSZ, NGBE_FRMSZ_MAX_MASK,
2662 : 0 : NGBE_FRMSZ_MAX(frame_size));
2663 : :
2664 : 0 : return 0;
2665 : : }
2666 : :
2667 : : static uint32_t
2668 : 0 : ngbe_uta_vector(struct ngbe_hw *hw, struct rte_ether_addr *uc_addr)
2669 : : {
2670 : : uint32_t vector = 0;
2671 : :
2672 [ # # # # : 0 : switch (hw->mac.mc_filter_type) {
# ]
2673 : 0 : case 0: /* use bits [47:36] of the address */
2674 : 0 : vector = ((uc_addr->addr_bytes[4] >> 4) |
2675 : 0 : (((uint16_t)uc_addr->addr_bytes[5]) << 4));
2676 : 0 : break;
2677 : 0 : case 1: /* use bits [46:35] of the address */
2678 : 0 : vector = ((uc_addr->addr_bytes[4] >> 3) |
2679 : 0 : (((uint16_t)uc_addr->addr_bytes[5]) << 5));
2680 : 0 : break;
2681 : 0 : case 2: /* use bits [45:34] of the address */
2682 : 0 : vector = ((uc_addr->addr_bytes[4] >> 2) |
2683 : 0 : (((uint16_t)uc_addr->addr_bytes[5]) << 6));
2684 : 0 : break;
2685 : 0 : case 3: /* use bits [43:32] of the address */
2686 : 0 : vector = ((uc_addr->addr_bytes[4]) |
2687 : 0 : (((uint16_t)uc_addr->addr_bytes[5]) << 8));
2688 : 0 : break;
2689 : : default: /* Invalid mc_filter_type */
2690 : : break;
2691 : : }
2692 : :
2693 : : /* vector can only be 12-bits or boundary will be exceeded */
2694 : 0 : vector &= 0xFFF;
2695 : 0 : return vector;
2696 : : }
2697 : :
2698 : : static int
2699 [ # # ]: 0 : ngbe_uc_hash_table_set(struct rte_eth_dev *dev,
2700 : : struct rte_ether_addr *mac_addr, uint8_t on)
2701 : : {
2702 : : uint32_t vector;
2703 : : uint32_t uta_idx;
2704 : : uint32_t reg_val;
2705 : : uint32_t uta_mask;
2706 : : uint32_t psrctl;
2707 : :
2708 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2709 : : struct ngbe_uta_info *uta_info = NGBE_DEV_UTA_INFO(dev);
2710 : :
2711 : 0 : vector = ngbe_uta_vector(hw, mac_addr);
2712 : 0 : uta_idx = (vector >> 5) & 0x7F;
2713 : 0 : uta_mask = 0x1UL << (vector & 0x1F);
2714 : :
2715 [ # # ]: 0 : if (!!on == !!(uta_info->uta_shadow[uta_idx] & uta_mask))
2716 : : return 0;
2717 : :
2718 : 0 : reg_val = rd32(hw, NGBE_UCADDRTBL(uta_idx));
2719 [ # # ]: 0 : if (on) {
2720 : 0 : uta_info->uta_in_use++;
2721 : 0 : reg_val |= uta_mask;
2722 : 0 : uta_info->uta_shadow[uta_idx] |= uta_mask;
2723 : : } else {
2724 : 0 : uta_info->uta_in_use--;
2725 : 0 : reg_val &= ~uta_mask;
2726 : 0 : uta_info->uta_shadow[uta_idx] &= ~uta_mask;
2727 : : }
2728 : :
2729 : : wr32(hw, NGBE_UCADDRTBL(uta_idx), reg_val);
2730 : :
2731 : : psrctl = rd32(hw, NGBE_PSRCTL);
2732 [ # # ]: 0 : if (uta_info->uta_in_use > 0)
2733 : 0 : psrctl |= NGBE_PSRCTL_UCHFENA;
2734 : : else
2735 : 0 : psrctl &= ~NGBE_PSRCTL_UCHFENA;
2736 : :
2737 : 0 : psrctl &= ~NGBE_PSRCTL_ADHF12_MASK;
2738 : 0 : psrctl |= NGBE_PSRCTL_ADHF12(hw->mac.mc_filter_type);
2739 : : wr32(hw, NGBE_PSRCTL, psrctl);
2740 : :
2741 : 0 : return 0;
2742 : : }
2743 : :
2744 : : static int
2745 [ # # ]: 0 : ngbe_uc_all_hash_table_set(struct rte_eth_dev *dev, uint8_t on)
2746 : : {
2747 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2748 : : struct ngbe_uta_info *uta_info = NGBE_DEV_UTA_INFO(dev);
2749 : : uint32_t psrctl;
2750 : : int i;
2751 : :
2752 [ # # ]: 0 : if (on) {
2753 [ # # ]: 0 : for (i = 0; i < RTE_ETH_VMDQ_NUM_UC_HASH_ARRAY; i++) {
2754 : 0 : uta_info->uta_shadow[i] = ~0;
2755 : 0 : wr32(hw, NGBE_UCADDRTBL(i), ~0);
2756 : : }
2757 : : } else {
2758 [ # # ]: 0 : for (i = 0; i < RTE_ETH_VMDQ_NUM_UC_HASH_ARRAY; i++) {
2759 : 0 : uta_info->uta_shadow[i] = 0;
2760 : 0 : wr32(hw, NGBE_UCADDRTBL(i), 0);
2761 : : }
2762 : : }
2763 : :
2764 : : psrctl = rd32(hw, NGBE_PSRCTL);
2765 [ # # ]: 0 : if (on)
2766 : 0 : psrctl |= NGBE_PSRCTL_UCHFENA;
2767 : : else
2768 : 0 : psrctl &= ~NGBE_PSRCTL_UCHFENA;
2769 : :
2770 : 0 : psrctl &= ~NGBE_PSRCTL_ADHF12_MASK;
2771 : 0 : psrctl |= NGBE_PSRCTL_ADHF12(hw->mac.mc_filter_type);
2772 : : wr32(hw, NGBE_PSRCTL, psrctl);
2773 : :
2774 : 0 : return 0;
2775 : : }
2776 : :
2777 : : static int
2778 : 0 : ngbe_dev_rx_queue_intr_enable(struct rte_eth_dev *dev, uint16_t queue_id)
2779 : : {
2780 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2781 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
2782 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2783 : : uint32_t mask;
2784 : :
2785 : : mask = rd32(hw, NGBE_IMC(0));
2786 : 0 : mask |= (1 << queue_id);
2787 : : wr32(hw, NGBE_IMC(0), mask);
2788 : 0 : rte_intr_enable(intr_handle);
2789 : :
2790 : 0 : return 0;
2791 : : }
2792 : :
2793 : : static int
2794 : 0 : ngbe_dev_rx_queue_intr_disable(struct rte_eth_dev *dev, uint16_t queue_id)
2795 : : {
2796 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2797 : : uint32_t mask;
2798 : :
2799 : : mask = rd32(hw, NGBE_IMS(0));
2800 : 0 : mask |= (1 << queue_id);
2801 : : wr32(hw, NGBE_IMS(0), mask);
2802 : :
2803 : 0 : return 0;
2804 : : }
2805 : :
2806 : : /**
2807 : : * Set the IVAR registers, mapping interrupt causes to vectors
2808 : : * @param hw
2809 : : * pointer to ngbe_hw struct
2810 : : * @direction
2811 : : * 0 for Rx, 1 for Tx, -1 for other causes
2812 : : * @queue
2813 : : * queue to map the corresponding interrupt to
2814 : : * @msix_vector
2815 : : * the vector to map to the corresponding queue
2816 : : */
2817 : : void
2818 : 0 : ngbe_set_ivar_map(struct ngbe_hw *hw, int8_t direction,
2819 : : uint8_t queue, uint8_t msix_vector)
2820 : : {
2821 : : uint32_t tmp, idx;
2822 : :
2823 [ # # ]: 0 : if (direction == -1) {
2824 : : /* other causes */
2825 : 0 : msix_vector |= NGBE_IVARMISC_VLD;
2826 : : idx = 0;
2827 : : tmp = rd32(hw, NGBE_IVARMISC);
2828 : 0 : tmp &= ~(0xFF << idx);
2829 : 0 : tmp |= (msix_vector << idx);
2830 : : wr32(hw, NGBE_IVARMISC, tmp);
2831 : : } else {
2832 : : /* rx or tx causes */
2833 : 0 : msix_vector |= NGBE_IVAR_VLD; /* Workaround for ICR lost */
2834 : 0 : idx = ((16 * (queue & 1)) + (8 * direction));
2835 : 0 : tmp = rd32(hw, NGBE_IVAR(queue >> 1));
2836 : 0 : tmp &= ~(0xFF << idx);
2837 : 0 : tmp |= (msix_vector << idx);
2838 : : wr32(hw, NGBE_IVAR(queue >> 1), tmp);
2839 : : }
2840 : 0 : }
2841 : :
2842 : : /**
2843 : : * Sets up the hardware to properly generate MSI-X interrupts
2844 : : * @hw
2845 : : * board private structure
2846 : : */
2847 : : static void
2848 : 0 : ngbe_configure_msix(struct rte_eth_dev *dev)
2849 : : {
2850 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2851 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
2852 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2853 : : uint32_t queue_id, base = NGBE_MISC_VEC_ID;
2854 : : uint32_t vec = NGBE_MISC_VEC_ID;
2855 : : uint32_t gpie;
2856 : :
2857 : : /*
2858 : : * Won't configure MSI-X register if no mapping is done
2859 : : * between intr vector and event fd
2860 : : * but if MSI-X has been enabled already, need to configure
2861 : : * auto clean, auto mask and throttling.
2862 : : */
2863 : : gpie = rd32(hw, NGBE_GPIE);
2864 [ # # ]: 0 : if (!rte_intr_dp_is_en(intr_handle) &&
2865 [ # # ]: 0 : !(gpie & NGBE_GPIE_MSIX))
2866 : : return;
2867 : :
2868 [ # # ]: 0 : if (rte_intr_allow_others(intr_handle)) {
2869 : : base = NGBE_RX_VEC_START;
2870 : : vec = base;
2871 : : }
2872 : :
2873 : : /* setup GPIE for MSI-X mode */
2874 : : gpie = rd32(hw, NGBE_GPIE);
2875 : 0 : gpie |= NGBE_GPIE_MSIX;
2876 : : wr32(hw, NGBE_GPIE, gpie);
2877 : :
2878 : : /* Populate the IVAR table and set the ITR values to the
2879 : : * corresponding register.
2880 : : */
2881 [ # # ]: 0 : if (rte_intr_dp_is_en(intr_handle)) {
2882 [ # # ]: 0 : for (queue_id = 0; queue_id < dev->data->nb_rx_queues;
2883 : 0 : queue_id++) {
2884 : : /* by default, 1:1 mapping */
2885 : 0 : ngbe_set_ivar_map(hw, 0, queue_id, vec);
2886 : 0 : rte_intr_vec_list_index_set(intr_handle,
2887 : : queue_id, vec);
2888 : 0 : if (vec < base + rte_intr_nb_efd_get(intr_handle)
2889 [ # # ]: 0 : - 1)
2890 : 0 : vec++;
2891 : : }
2892 : :
2893 : 0 : ngbe_set_ivar_map(hw, -1, 1, NGBE_MISC_VEC_ID);
2894 : : }
2895 : : wr32(hw, NGBE_ITR(NGBE_MISC_VEC_ID),
2896 : : NGBE_ITR_IVAL_1G(NGBE_QUEUE_ITR_INTERVAL_DEFAULT)
2897 : : | NGBE_ITR_WRDSA);
2898 : : }
2899 : :
2900 : : static u8 *
2901 : 0 : ngbe_dev_addr_list_itr(__rte_unused struct ngbe_hw *hw,
2902 : : u8 **mc_addr_ptr, u32 *vmdq)
2903 : : {
2904 : : u8 *mc_addr;
2905 : :
2906 : 0 : *vmdq = 0;
2907 : 0 : mc_addr = *mc_addr_ptr;
2908 : 0 : *mc_addr_ptr = (mc_addr + sizeof(struct rte_ether_addr));
2909 : 0 : return mc_addr;
2910 : : }
2911 : :
2912 : : int
2913 : 0 : ngbe_dev_set_mc_addr_list(struct rte_eth_dev *dev,
2914 : : struct rte_ether_addr *mc_addr_set,
2915 : : uint32_t nb_mc_addr)
2916 : : {
2917 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2918 : : u8 *mc_addr_list;
2919 : :
2920 : : mc_addr_list = (u8 *)mc_addr_set;
2921 : 0 : return hw->mac.update_mc_addr_list(hw, mc_addr_list, nb_mc_addr,
2922 : : ngbe_dev_addr_list_itr, TRUE);
2923 : : }
2924 : :
2925 : : static uint64_t
2926 : : ngbe_read_systime_cyclecounter(struct rte_eth_dev *dev)
2927 : : {
2928 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2929 : : uint64_t systime_cycles;
2930 : :
2931 : 0 : systime_cycles = (uint64_t)rd32(hw, NGBE_TSTIMEL);
2932 [ # # ]: 0 : systime_cycles |= (uint64_t)rd32(hw, NGBE_TSTIMEH) << 32;
2933 : :
2934 : : return systime_cycles;
2935 : : }
2936 : :
2937 : : static uint64_t
2938 : : ngbe_read_rx_tstamp_cyclecounter(struct rte_eth_dev *dev)
2939 : : {
2940 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2941 : : uint64_t rx_tstamp_cycles;
2942 : :
2943 : : /* TSRXSTMPL stores ns and TSRXSTMPH stores seconds. */
2944 : 0 : rx_tstamp_cycles = (uint64_t)rd32(hw, NGBE_TSRXSTMPL);
2945 [ # # ]: 0 : rx_tstamp_cycles |= (uint64_t)rd32(hw, NGBE_TSRXSTMPH) << 32;
2946 : :
2947 : : return rx_tstamp_cycles;
2948 : : }
2949 : :
2950 : : static uint64_t
2951 : : ngbe_read_tx_tstamp_cyclecounter(struct rte_eth_dev *dev)
2952 : : {
2953 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2954 : : uint64_t tx_tstamp_cycles;
2955 : :
2956 : : /* TSTXSTMPL stores ns and TSTXSTMPH stores seconds. */
2957 : 0 : tx_tstamp_cycles = (uint64_t)rd32(hw, NGBE_TSTXSTMPL);
2958 [ # # ]: 0 : tx_tstamp_cycles |= (uint64_t)rd32(hw, NGBE_TSTXSTMPH) << 32;
2959 : :
2960 : : return tx_tstamp_cycles;
2961 : : }
2962 : :
2963 : : static void
2964 : 0 : ngbe_start_timecounters(struct rte_eth_dev *dev)
2965 : : {
2966 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
2967 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
2968 : : uint32_t incval = 0;
2969 : : uint32_t shift = 0;
2970 : :
2971 : : incval = NGBE_INCVAL_1GB;
2972 : : shift = NGBE_INCVAL_SHIFT_1GB;
2973 : :
2974 : : wr32(hw, NGBE_TSTIMEINC, NGBE_TSTIMEINC_IV(incval));
2975 : :
2976 : 0 : memset(&adapter->systime_tc, 0, sizeof(struct rte_timecounter));
2977 : 0 : memset(&adapter->rx_tstamp_tc, 0, sizeof(struct rte_timecounter));
2978 : 0 : memset(&adapter->tx_tstamp_tc, 0, sizeof(struct rte_timecounter));
2979 : :
2980 : 0 : adapter->systime_tc.cc_mask = NGBE_CYCLECOUNTER_MASK;
2981 : 0 : adapter->systime_tc.cc_shift = shift;
2982 : 0 : adapter->systime_tc.nsec_mask = (1ULL << shift) - 1;
2983 : :
2984 : 0 : adapter->rx_tstamp_tc.cc_mask = NGBE_CYCLECOUNTER_MASK;
2985 : 0 : adapter->rx_tstamp_tc.cc_shift = shift;
2986 : 0 : adapter->rx_tstamp_tc.nsec_mask = (1ULL << shift) - 1;
2987 : :
2988 : 0 : adapter->tx_tstamp_tc.cc_mask = NGBE_CYCLECOUNTER_MASK;
2989 : 0 : adapter->tx_tstamp_tc.cc_shift = shift;
2990 : 0 : adapter->tx_tstamp_tc.nsec_mask = (1ULL << shift) - 1;
2991 : 0 : }
2992 : :
2993 : : static int
2994 : 0 : ngbe_timesync_adjust_time(struct rte_eth_dev *dev, int64_t delta)
2995 : : {
2996 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
2997 : :
2998 : 0 : adapter->systime_tc.nsec += delta;
2999 : 0 : adapter->rx_tstamp_tc.nsec += delta;
3000 : 0 : adapter->tx_tstamp_tc.nsec += delta;
3001 : :
3002 : 0 : return 0;
3003 : : }
3004 : :
3005 : : static int
3006 : 0 : ngbe_timesync_write_time(struct rte_eth_dev *dev, const struct timespec *ts)
3007 : : {
3008 : : uint64_t ns;
3009 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
3010 : :
3011 : : ns = rte_timespec_to_ns(ts);
3012 : : /* Set the timecounters to a new value. */
3013 : 0 : adapter->systime_tc.nsec = ns;
3014 : 0 : adapter->rx_tstamp_tc.nsec = ns;
3015 : 0 : adapter->tx_tstamp_tc.nsec = ns;
3016 : :
3017 : 0 : return 0;
3018 : : }
3019 : :
3020 : : static int
3021 : 0 : ngbe_timesync_read_time(struct rte_eth_dev *dev, struct timespec *ts)
3022 : : {
3023 : : uint64_t ns, systime_cycles;
3024 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
3025 : :
3026 : : systime_cycles = ngbe_read_systime_cyclecounter(dev);
3027 : : ns = rte_timecounter_update(&adapter->systime_tc, systime_cycles);
3028 : 0 : *ts = rte_ns_to_timespec(ns);
3029 : :
3030 : 0 : return 0;
3031 : : }
3032 : :
3033 : : static int
3034 : 0 : ngbe_timesync_enable(struct rte_eth_dev *dev)
3035 : : {
3036 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3037 : : uint32_t tsync_ctl;
3038 : :
3039 : : /* Stop the timesync system time. */
3040 : : wr32(hw, NGBE_TSTIMEINC, 0x0);
3041 : : /* Reset the timesync system time value. */
3042 : : wr32(hw, NGBE_TSTIMEL, 0x0);
3043 : : wr32(hw, NGBE_TSTIMEH, 0x0);
3044 : :
3045 : 0 : ngbe_start_timecounters(dev);
3046 : :
3047 : : /* Enable L2 filtering of IEEE1588/802.1AS Ethernet frame types. */
3048 : : wr32(hw, NGBE_ETFLT(NGBE_ETF_ID_1588),
3049 : : RTE_ETHER_TYPE_1588 | NGBE_ETFLT_ENA | NGBE_ETFLT_1588);
3050 : :
3051 : : /* Enable timestamping of received PTP packets. */
3052 : : tsync_ctl = rd32(hw, NGBE_TSRXCTL);
3053 : 0 : tsync_ctl |= NGBE_TSRXCTL_ENA;
3054 : : wr32(hw, NGBE_TSRXCTL, tsync_ctl);
3055 : :
3056 : : /* Enable timestamping of transmitted PTP packets. */
3057 : : tsync_ctl = rd32(hw, NGBE_TSTXCTL);
3058 : 0 : tsync_ctl |= NGBE_TSTXCTL_ENA;
3059 : : wr32(hw, NGBE_TSTXCTL, tsync_ctl);
3060 : :
3061 : : ngbe_flush(hw);
3062 : :
3063 : 0 : return 0;
3064 : : }
3065 : :
3066 : : static int
3067 : 0 : ngbe_timesync_disable(struct rte_eth_dev *dev)
3068 : : {
3069 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3070 : : uint32_t tsync_ctl;
3071 : :
3072 : : /* Disable timestamping of transmitted PTP packets. */
3073 : : tsync_ctl = rd32(hw, NGBE_TSTXCTL);
3074 : 0 : tsync_ctl &= ~NGBE_TSTXCTL_ENA;
3075 : : wr32(hw, NGBE_TSTXCTL, tsync_ctl);
3076 : :
3077 : : /* Disable timestamping of received PTP packets. */
3078 : : tsync_ctl = rd32(hw, NGBE_TSRXCTL);
3079 : 0 : tsync_ctl &= ~NGBE_TSRXCTL_ENA;
3080 : : wr32(hw, NGBE_TSRXCTL, tsync_ctl);
3081 : :
3082 : : /* Disable L2 filtering of IEEE1588/802.1AS Ethernet frame types. */
3083 : : wr32(hw, NGBE_ETFLT(NGBE_ETF_ID_1588), 0);
3084 : :
3085 : : /* Stop incrementing the System Time registers. */
3086 : : wr32(hw, NGBE_TSTIMEINC, 0);
3087 : :
3088 : 0 : return 0;
3089 : : }
3090 : :
3091 : : static int
3092 : 0 : ngbe_timesync_read_rx_timestamp(struct rte_eth_dev *dev,
3093 : : struct timespec *timestamp,
3094 : : uint32_t flags __rte_unused)
3095 : : {
3096 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3097 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
3098 : : uint32_t tsync_rxctl;
3099 : : uint64_t rx_tstamp_cycles;
3100 : : uint64_t ns;
3101 : :
3102 : : tsync_rxctl = rd32(hw, NGBE_TSRXCTL);
3103 [ # # ]: 0 : if ((tsync_rxctl & NGBE_TSRXCTL_VLD) == 0)
3104 : : return -EINVAL;
3105 : :
3106 : : rx_tstamp_cycles = ngbe_read_rx_tstamp_cyclecounter(dev);
3107 : : ns = rte_timecounter_update(&adapter->rx_tstamp_tc, rx_tstamp_cycles);
3108 : 0 : *timestamp = rte_ns_to_timespec(ns);
3109 : :
3110 : 0 : return 0;
3111 : : }
3112 : :
3113 : : static int
3114 : 0 : ngbe_timesync_read_tx_timestamp(struct rte_eth_dev *dev,
3115 : : struct timespec *timestamp)
3116 : : {
3117 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3118 : : struct ngbe_adapter *adapter = ngbe_dev_adapter(dev);
3119 : : uint32_t tsync_txctl;
3120 : : uint64_t tx_tstamp_cycles;
3121 : : uint64_t ns;
3122 : :
3123 : : tsync_txctl = rd32(hw, NGBE_TSTXCTL);
3124 [ # # ]: 0 : if ((tsync_txctl & NGBE_TSTXCTL_VLD) == 0)
3125 : : return -EINVAL;
3126 : :
3127 : : tx_tstamp_cycles = ngbe_read_tx_tstamp_cyclecounter(dev);
3128 : : ns = rte_timecounter_update(&adapter->tx_tstamp_tc, tx_tstamp_cycles);
3129 : 0 : *timestamp = rte_ns_to_timespec(ns);
3130 : :
3131 : 0 : return 0;
3132 : : }
3133 : :
3134 : : static int
3135 : : ngbe_get_reg_length(struct rte_eth_dev *dev __rte_unused)
3136 : : {
3137 : : int count = 0;
3138 : : int g_ind = 0;
3139 : : const struct reg_info *reg_group;
3140 : : const struct reg_info **reg_set = ngbe_regs_others;
3141 : :
3142 [ # # # # ]: 0 : while ((reg_group = reg_set[g_ind++]))
3143 : 0 : count += ngbe_regs_group_count(reg_group);
3144 : :
3145 : : return count;
3146 : : }
3147 : :
3148 : : static int
3149 [ # # ]: 0 : ngbe_get_regs(struct rte_eth_dev *dev,
3150 : : struct rte_dev_reg_info *regs)
3151 : : {
3152 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3153 : 0 : uint32_t *data = regs->data;
3154 : : int g_ind = 0;
3155 : : int count = 0;
3156 : : const struct reg_info *reg_group;
3157 : : const struct reg_info **reg_set = ngbe_regs_others;
3158 : :
3159 [ # # ]: 0 : if (data == NULL) {
3160 : 0 : regs->length = ngbe_get_reg_length(dev);
3161 : 0 : regs->width = sizeof(uint32_t);
3162 : 0 : return 0;
3163 : : }
3164 : :
3165 : : /* Support only full register dump */
3166 [ # # ]: 0 : if (regs->length == 0 ||
3167 [ # # ]: 0 : regs->length == (uint32_t)ngbe_get_reg_length(dev)) {
3168 : 0 : regs->version = hw->mac.type << 24 |
3169 : 0 : hw->revision_id << 16 |
3170 : 0 : hw->device_id;
3171 [ # # ]: 0 : while ((reg_group = reg_set[g_ind++]))
3172 : 0 : count += ngbe_read_regs_group(dev, &data[count],
3173 : : reg_group);
3174 : : return 0;
3175 : : }
3176 : :
3177 : : return -ENOTSUP;
3178 : : }
3179 : :
3180 : : static int
3181 : 0 : ngbe_get_eeprom_length(struct rte_eth_dev *dev)
3182 : : {
3183 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3184 : :
3185 : : /* Return unit is byte count */
3186 : 0 : return hw->rom.word_size * 2;
3187 : : }
3188 : :
3189 : : static int
3190 [ # # ]: 0 : ngbe_get_eeprom(struct rte_eth_dev *dev,
3191 : : struct rte_dev_eeprom_info *in_eeprom)
3192 : : {
3193 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3194 : : struct ngbe_rom_info *eeprom = &hw->rom;
3195 : 0 : uint16_t *data = in_eeprom->data;
3196 : : int first, length;
3197 : :
3198 : 0 : first = in_eeprom->offset >> 1;
3199 : 0 : length = in_eeprom->length >> 1;
3200 [ # # ]: 0 : if (first > hw->rom.word_size ||
3201 [ # # ]: 0 : ((first + length) > hw->rom.word_size))
3202 : : return -EINVAL;
3203 : :
3204 : 0 : in_eeprom->magic = hw->vendor_id | (hw->device_id << 16);
3205 : :
3206 : 0 : return eeprom->readw_buffer(hw, first, length, data);
3207 : : }
3208 : :
3209 : : static int
3210 [ # # ]: 0 : ngbe_set_eeprom(struct rte_eth_dev *dev,
3211 : : struct rte_dev_eeprom_info *in_eeprom)
3212 : : {
3213 : : struct ngbe_hw *hw = ngbe_dev_hw(dev);
3214 : : struct ngbe_rom_info *eeprom = &hw->rom;
3215 : 0 : uint16_t *data = in_eeprom->data;
3216 : : int first, length;
3217 : :
3218 : 0 : first = in_eeprom->offset >> 1;
3219 : 0 : length = in_eeprom->length >> 1;
3220 [ # # ]: 0 : if (first > hw->rom.word_size ||
3221 [ # # ]: 0 : ((first + length) > hw->rom.word_size))
3222 : : return -EINVAL;
3223 : :
3224 : 0 : in_eeprom->magic = hw->vendor_id | (hw->device_id << 16);
3225 : :
3226 : 0 : return eeprom->writew_buffer(hw, first, length, data);
3227 : : }
3228 : :
3229 : : static const struct eth_dev_ops ngbe_eth_dev_ops = {
3230 : : .dev_configure = ngbe_dev_configure,
3231 : : .dev_infos_get = ngbe_dev_info_get,
3232 : : .dev_start = ngbe_dev_start,
3233 : : .dev_stop = ngbe_dev_stop,
3234 : : .dev_set_link_up = ngbe_dev_set_link_up,
3235 : : .dev_set_link_down = ngbe_dev_set_link_down,
3236 : : .dev_close = ngbe_dev_close,
3237 : : .dev_reset = ngbe_dev_reset,
3238 : : .promiscuous_enable = ngbe_dev_promiscuous_enable,
3239 : : .promiscuous_disable = ngbe_dev_promiscuous_disable,
3240 : : .allmulticast_enable = ngbe_dev_allmulticast_enable,
3241 : : .allmulticast_disable = ngbe_dev_allmulticast_disable,
3242 : : .link_update = ngbe_dev_link_update,
3243 : : .stats_get = ngbe_dev_stats_get,
3244 : : .xstats_get = ngbe_dev_xstats_get,
3245 : : .xstats_get_by_id = ngbe_dev_xstats_get_by_id,
3246 : : .stats_reset = ngbe_dev_stats_reset,
3247 : : .xstats_reset = ngbe_dev_xstats_reset,
3248 : : .xstats_get_names = ngbe_dev_xstats_get_names,
3249 : : .xstats_get_names_by_id = ngbe_dev_xstats_get_names_by_id,
3250 : : .fw_version_get = ngbe_fw_version_get,
3251 : : .dev_supported_ptypes_get = ngbe_dev_supported_ptypes_get,
3252 : : .mtu_set = ngbe_dev_mtu_set,
3253 : : .vlan_filter_set = ngbe_vlan_filter_set,
3254 : : .vlan_tpid_set = ngbe_vlan_tpid_set,
3255 : : .vlan_offload_set = ngbe_vlan_offload_set,
3256 : : .vlan_strip_queue_set = ngbe_vlan_strip_queue_set,
3257 : : .rx_queue_start = ngbe_dev_rx_queue_start,
3258 : : .rx_queue_stop = ngbe_dev_rx_queue_stop,
3259 : : .tx_queue_start = ngbe_dev_tx_queue_start,
3260 : : .tx_queue_stop = ngbe_dev_tx_queue_stop,
3261 : : .rx_queue_setup = ngbe_dev_rx_queue_setup,
3262 : : .rx_queue_release = ngbe_dev_rx_queue_release,
3263 : : .tx_queue_setup = ngbe_dev_tx_queue_setup,
3264 : : .tx_queue_release = ngbe_dev_tx_queue_release,
3265 : : .rx_queue_intr_enable = ngbe_dev_rx_queue_intr_enable,
3266 : : .rx_queue_intr_disable = ngbe_dev_rx_queue_intr_disable,
3267 : : .dev_led_on = ngbe_dev_led_on,
3268 : : .dev_led_off = ngbe_dev_led_off,
3269 : : .flow_ctrl_get = ngbe_flow_ctrl_get,
3270 : : .flow_ctrl_set = ngbe_flow_ctrl_set,
3271 : : .mac_addr_add = ngbe_add_rar,
3272 : : .mac_addr_remove = ngbe_remove_rar,
3273 : : .mac_addr_set = ngbe_set_default_mac_addr,
3274 : : .uc_hash_table_set = ngbe_uc_hash_table_set,
3275 : : .uc_all_hash_table_set = ngbe_uc_all_hash_table_set,
3276 : : .reta_update = ngbe_dev_rss_reta_update,
3277 : : .reta_query = ngbe_dev_rss_reta_query,
3278 : : .rss_hash_update = ngbe_dev_rss_hash_update,
3279 : : .rss_hash_conf_get = ngbe_dev_rss_hash_conf_get,
3280 : : .set_mc_addr_list = ngbe_dev_set_mc_addr_list,
3281 : : .rxq_info_get = ngbe_rxq_info_get,
3282 : : .txq_info_get = ngbe_txq_info_get,
3283 : : .rx_burst_mode_get = ngbe_rx_burst_mode_get,
3284 : : .tx_burst_mode_get = ngbe_tx_burst_mode_get,
3285 : : .timesync_enable = ngbe_timesync_enable,
3286 : : .timesync_disable = ngbe_timesync_disable,
3287 : : .timesync_read_rx_timestamp = ngbe_timesync_read_rx_timestamp,
3288 : : .timesync_read_tx_timestamp = ngbe_timesync_read_tx_timestamp,
3289 : : .get_reg = ngbe_get_regs,
3290 : : .get_eeprom_length = ngbe_get_eeprom_length,
3291 : : .get_eeprom = ngbe_get_eeprom,
3292 : : .set_eeprom = ngbe_set_eeprom,
3293 : : .timesync_adjust_time = ngbe_timesync_adjust_time,
3294 : : .timesync_read_time = ngbe_timesync_read_time,
3295 : : .timesync_write_time = ngbe_timesync_write_time,
3296 : : .tx_done_cleanup = ngbe_dev_tx_done_cleanup,
3297 : : };
3298 : :
3299 : 253 : RTE_PMD_REGISTER_PCI(net_ngbe, rte_ngbe_pmd);
3300 : : RTE_PMD_REGISTER_PCI_TABLE(net_ngbe, pci_id_ngbe_map);
3301 : : RTE_PMD_REGISTER_KMOD_DEP(net_ngbe, "* igb_uio | uio_pci_generic | vfio-pci");
3302 : :
3303 [ - + ]: 253 : RTE_LOG_REGISTER_SUFFIX(ngbe_logtype_init, init, NOTICE);
3304 [ - + ]: 253 : RTE_LOG_REGISTER_SUFFIX(ngbe_logtype_driver, driver, NOTICE);
3305 : :
3306 : : #ifdef RTE_ETHDEV_DEBUG_RX
3307 : : RTE_LOG_REGISTER_SUFFIX(ngbe_logtype_rx, rx, DEBUG);
3308 : : #endif
3309 : : #ifdef RTE_ETHDEV_DEBUG_TX
3310 : : RTE_LOG_REGISTER_SUFFIX(ngbe_logtype_tx, tx, DEBUG);
3311 : : #endif
|