Branch data Line data Source code
1 : : /*
2 : : * SPDX-License-Identifier: BSD-3-Clause
3 : : * Copyright(c) 2023 Napatech A/S
4 : : */
5 : :
6 : : #include <stdint.h>
7 : : #include <stdarg.h>
8 : :
9 : : #include <rte_eal.h>
10 : : #include <rte_dev.h>
11 : : #include <rte_vfio.h>
12 : : #include <rte_ethdev.h>
13 : : #include <rte_bus_pci.h>
14 : : #include <ethdev_pci.h>
15 : : #include <rte_kvargs.h>
16 : :
17 : : #include <sys/queue.h>
18 : :
19 : : #include "rte_spinlock.h"
20 : : #include "ntlog.h"
21 : : #include "ntdrv_4ga.h"
22 : : #include "ntos_drv.h"
23 : : #include "ntos_system.h"
24 : : #include "nthw_fpga_instances.h"
25 : : #include "ntnic_vfio.h"
26 : : #include "ntnic_mod_reg.h"
27 : : #include "nt_util.h"
28 : : #include "flow_hsh_cfg.h"
29 : : #include "profile_inline/flm_age_queue.h"
30 : : #include "profile_inline/flm_evt_queue.h"
31 : : #include "rte_pmd_ntnic.h"
32 : : #include "nt_service.h"
33 : :
34 : : #define HW_MAX_PKT_LEN (10000)
35 : : #define MAX_MTU (HW_MAX_PKT_LEN - RTE_ETHER_HDR_LEN - RTE_ETHER_CRC_LEN)
36 : : #define MIN_MTU_INLINE 512
37 : :
38 : : #define EXCEPTION_PATH_HID 0
39 : :
40 : : #define MAX_TOTAL_QUEUES 128
41 : :
42 : : #define SG_NB_HW_RX_DESCRIPTORS 1024
43 : : #define SG_NB_HW_TX_DESCRIPTORS 1024
44 : : #define SG_HW_RX_PKT_BUFFER_SIZE (1024 << 1)
45 : : #define SG_HW_TX_PKT_BUFFER_SIZE (1024 << 1)
46 : :
47 : : #define NUM_VQ_SEGS(_data_size_) \
48 : : ({ \
49 : : size_t _size = (_data_size_); \
50 : : size_t _segment_count = ((_size + SG_HDR_SIZE) > SG_HW_TX_PKT_BUFFER_SIZE) \
51 : : ? (((_size + SG_HDR_SIZE) + SG_HW_TX_PKT_BUFFER_SIZE - 1) / \
52 : : SG_HW_TX_PKT_BUFFER_SIZE) \
53 : : : 1; \
54 : : _segment_count; \
55 : : })
56 : :
57 : : #define VIRTQ_DESCR_IDX(_tx_pkt_idx_) \
58 : : (((_tx_pkt_idx_) + first_vq_descr_idx) % SG_NB_HW_TX_DESCRIPTORS)
59 : :
60 : : #define VIRTQ_DESCR_IDX_NEXT(_vq_descr_idx_) (((_vq_descr_idx_) + 1) % SG_NB_HW_TX_DESCRIPTORS)
61 : :
62 : : #define ONE_G_SIZE 0x40000000
63 : : #define ONE_G_MASK (ONE_G_SIZE - 1)
64 : :
65 : : #define MAX_RX_PACKETS 128
66 : : #define MAX_TX_PACKETS 128
67 : :
68 : : #define MTUINITVAL 1500
69 : :
70 : : uint64_t nthw_tsc_freq;
71 : :
72 : :
73 : : #define ETH_DEV_NTNIC_HELP_ARG "help"
74 : : #define ETH_DEV_NTHW_RXQUEUES_ARG "rxqs"
75 : : #define ETH_DEV_NTHW_TXQUEUES_ARG "txqs"
76 : : #define ETH_DEV_NTHW_EXCEPTION_PATH_ARG "exception_path"
77 : :
78 : : static const char *const valid_arguments[] = {
79 : : ETH_DEV_NTNIC_HELP_ARG,
80 : : ETH_DEV_NTHW_RXQUEUES_ARG,
81 : : ETH_DEV_NTHW_TXQUEUES_ARG,
82 : : ETH_DEV_NTHW_EXCEPTION_PATH_ARG,
83 : : NULL,
84 : : };
85 : :
86 : :
87 : : static const struct rte_pci_id nthw_pci_id_map[] = {
88 : : { RTE_PCI_DEVICE(NT_HW_PCI_VENDOR_ID, NT_HW_PCI_DEVICE_ID_NT200A02) },
89 : : { RTE_PCI_DEVICE(NT_HW_PCI_VENDOR_ID, NT_HW_PCI_DEVICE_ID_NT400D11) },
90 : : { RTE_PCI_DEVICE(NT_HW_PCI_VENDOR_ID, NT_HW_PCI_DEVICE_ID_NT400D13) },
91 : : {
92 : : .vendor_id = 0,
93 : : }, /* sentinel */
94 : : };
95 : :
96 : : static const struct sg_ops_s *sg_ops;
97 : :
98 : : rte_spinlock_t nthw_lock = RTE_SPINLOCK_INITIALIZER;
99 : :
100 : : /*
101 : : * Store and get adapter info
102 : : */
103 : :
104 : : static struct drv_s *_g_p_drv[NUM_ADAPTER_MAX] = { NULL };
105 : :
106 : : static void
107 : 0 : store_pdrv(struct drv_s *p_drv)
108 : : {
109 [ # # ]: 0 : if (p_drv->adapter_no >= NUM_ADAPTER_MAX) {
110 : 0 : NT_LOG(ERR, NTNIC,
111 : : "Internal error adapter number %u out of range. Max number of adapters: %u",
112 : : p_drv->adapter_no, NUM_ADAPTER_MAX);
113 : 0 : return;
114 : : }
115 : :
116 [ # # ]: 0 : if (_g_p_drv[p_drv->adapter_no] != 0) {
117 : 0 : NT_LOG(WRN, NTNIC,
118 : : "Overwriting adapter structure for PCI " PCIIDENT_PRINT_STR
119 : : " with adapter structure for PCI " PCIIDENT_PRINT_STR,
120 : : PCIIDENT_TO_DOMAIN(_g_p_drv[p_drv->adapter_no]->ntdrv.pciident),
121 : : PCIIDENT_TO_BUSNR(_g_p_drv[p_drv->adapter_no]->ntdrv.pciident),
122 : : PCIIDENT_TO_DEVNR(_g_p_drv[p_drv->adapter_no]->ntdrv.pciident),
123 : : PCIIDENT_TO_FUNCNR(_g_p_drv[p_drv->adapter_no]->ntdrv.pciident),
124 : : PCIIDENT_TO_DOMAIN(p_drv->ntdrv.pciident),
125 : : PCIIDENT_TO_BUSNR(p_drv->ntdrv.pciident),
126 : : PCIIDENT_TO_DEVNR(p_drv->ntdrv.pciident),
127 : : PCIIDENT_TO_FUNCNR(p_drv->ntdrv.pciident));
128 : : }
129 : :
130 : : rte_spinlock_lock(&nthw_lock);
131 : 0 : _g_p_drv[p_drv->adapter_no] = p_drv;
132 : : rte_spinlock_unlock(&nthw_lock);
133 : : }
134 : :
135 : 0 : static void clear_pdrv(struct drv_s *p_drv)
136 : : {
137 [ # # ]: 0 : if (p_drv->adapter_no >= NUM_ADAPTER_MAX)
138 : : return;
139 : :
140 : : rte_spinlock_lock(&nthw_lock);
141 : 0 : _g_p_drv[p_drv->adapter_no] = NULL;
142 : : rte_spinlock_unlock(&nthw_lock);
143 : : }
144 : :
145 : : static struct drv_s *
146 : 0 : get_pdrv_from_pci(struct rte_pci_addr addr)
147 : : {
148 : : int i;
149 : : struct drv_s *p_drv = NULL;
150 : : rte_spinlock_lock(&nthw_lock);
151 : :
152 [ # # ]: 0 : for (i = 0; i < NUM_ADAPTER_MAX; i++) {
153 [ # # ]: 0 : if (_g_p_drv[i]) {
154 [ # # ]: 0 : if (PCIIDENT_TO_DOMAIN(_g_p_drv[i]->ntdrv.pciident) == addr.domain &&
155 [ # # ]: 0 : PCIIDENT_TO_BUSNR(_g_p_drv[i]->ntdrv.pciident) == addr.bus) {
156 : : p_drv = _g_p_drv[i];
157 : : break;
158 : : }
159 : : }
160 : : }
161 : :
162 : : rte_spinlock_unlock(&nthw_lock);
163 : 0 : return p_drv;
164 : : }
165 : :
166 : 0 : static int dpdk_stats_collect(struct pmd_internals *internals, struct rte_eth_stats *stats,
167 : : struct eth_queue_stats *qstats)
168 : : {
169 : 0 : const struct ntnic_filter_ops *ntnic_filter_ops = nthw_get_filter_ops();
170 : :
171 [ # # ]: 0 : if (ntnic_filter_ops == NULL) {
172 : 0 : NT_LOG_DBGX(ERR, NTNIC, "ntnic_filter_ops uninitialized");
173 : 0 : return -1;
174 : : }
175 : :
176 : : unsigned int i;
177 : 0 : struct drv_s *p_drv = internals->p_drv;
178 : : struct ntdrv_4ga_s *p_nt_drv = &p_drv->ntdrv;
179 : : nt4ga_stat_t *p_nt4ga_stat = &p_nt_drv->adapter_info.nt4ga_stat;
180 : 0 : nthw_stat_t *p_nthw_stat = p_nt4ga_stat->mp_nthw_stat;
181 : 0 : const int n_intf_no = internals->n_intf_no;
182 : : uint64_t rx_total = 0;
183 : : uint64_t rx_total_b = 0;
184 : : uint64_t tx_total = 0;
185 : : uint64_t tx_total_b = 0;
186 : : uint64_t tx_err_total = 0;
187 : :
188 [ # # # # : 0 : if (!p_nthw_stat || !p_nt4ga_stat || !stats || n_intf_no < 0 ||
# # ]
189 : : n_intf_no > NUM_ADAPTER_PORTS_MAX) {
190 : 0 : NT_LOG_DBGX(WRN, NTNIC, "error exit");
191 : 0 : return -1;
192 : : }
193 : :
194 : : /*
195 : : * Pull the latest port statistic numbers (Rx/Tx pkts and bytes)
196 : : * Return values are in the "internals->rxq_scg[]" and "internals->txq_scg[]" arrays
197 : : */
198 : 0 : ntnic_filter_ops->poll_statistics(internals);
199 : :
200 [ # # ]: 0 : for (i = 0; i < internals->nb_rx_queues; i++) {
201 [ # # ]: 0 : if (qstats != NULL && i < RTE_ETHDEV_QUEUE_STAT_CNTRS) {
202 : 0 : qstats->q_ipackets[i] = internals->rxq_scg[i].rx_pkts;
203 : 0 : qstats->q_ibytes[i] = internals->rxq_scg[i].rx_bytes;
204 : : }
205 : 0 : rx_total += internals->rxq_scg[i].rx_pkts;
206 : 0 : rx_total_b += internals->rxq_scg[i].rx_bytes;
207 : : }
208 : :
209 [ # # ]: 0 : for (i = 0; i < internals->nb_tx_queues; i++) {
210 [ # # ]: 0 : if (qstats != NULL && i < RTE_ETHDEV_QUEUE_STAT_CNTRS) {
211 : 0 : qstats->q_opackets[i] = internals->txq_scg[i].tx_pkts;
212 : 0 : qstats->q_obytes[i] = internals->txq_scg[i].tx_bytes;
213 : 0 : qstats->q_errors[i] = internals->txq_scg[i].err_pkts;
214 : : }
215 : 0 : tx_total += internals->txq_scg[i].tx_pkts;
216 : 0 : tx_total_b += internals->txq_scg[i].tx_bytes;
217 : 0 : tx_err_total += internals->txq_scg[i].err_pkts;
218 : : }
219 : :
220 : 0 : stats->imissed = internals->rx_missed;
221 : 0 : stats->ipackets = rx_total;
222 : 0 : stats->ibytes = rx_total_b;
223 : 0 : stats->opackets = tx_total;
224 : 0 : stats->obytes = tx_total_b;
225 : 0 : stats->oerrors = tx_err_total;
226 : :
227 : 0 : return 0;
228 : : }
229 : :
230 : 0 : static int dpdk_stats_reset(struct pmd_internals *internals, struct ntdrv_4ga_s *p_nt_drv,
231 : : int n_intf_no)
232 : : {
233 : : nt4ga_stat_t *p_nt4ga_stat = &p_nt_drv->adapter_info.nt4ga_stat;
234 : 0 : nthw_stat_t *p_nthw_stat = p_nt4ga_stat->mp_nthw_stat;
235 : : unsigned int i;
236 : :
237 [ # # # # ]: 0 : if (!p_nthw_stat || !p_nt4ga_stat || n_intf_no < 0 || n_intf_no > NUM_ADAPTER_PORTS_MAX)
238 : : return -1;
239 : :
240 : 0 : rte_spinlock_lock(&p_nt_drv->stat_lck);
241 : :
242 : : /* Rx */
243 [ # # ]: 0 : for (i = 0; i < internals->nb_rx_queues; i++) {
244 : 0 : internals->rxq_scg[i].rx_pkts = 0;
245 : 0 : internals->rxq_scg[i].rx_bytes = 0;
246 : 0 : internals->rxq_scg[i].err_pkts = 0;
247 : : }
248 : :
249 : 0 : internals->rx_missed = 0;
250 : :
251 : : /* Tx */
252 [ # # ]: 0 : for (i = 0; i < internals->nb_tx_queues; i++) {
253 : 0 : internals->txq_scg[i].tx_pkts = 0;
254 : 0 : internals->txq_scg[i].tx_bytes = 0;
255 : 0 : internals->txq_scg[i].err_pkts = 0;
256 : : }
257 : :
258 : 0 : p_nt4ga_stat->n_totals_reset_timestamp = time(NULL);
259 : :
260 : : rte_spinlock_unlock(&p_nt_drv->stat_lck);
261 : :
262 : 0 : return 0;
263 : : }
264 : :
265 : : static int
266 : 0 : eth_link_update(struct rte_eth_dev *eth_dev, int wait_to_complete __rte_unused)
267 : : {
268 : 0 : const struct port_ops *port_ops = nthw_get_port_ops();
269 : :
270 [ # # ]: 0 : if (port_ops == NULL) {
271 : 0 : NT_LOG(ERR, NTNIC, "Link management module uninitialized");
272 : 0 : return -1;
273 : : }
274 : :
275 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
276 : :
277 : 0 : const int n_intf_no = internals->n_intf_no;
278 : 0 : struct adapter_info_s *p_adapter_info = &internals->p_drv->ntdrv.adapter_info;
279 : :
280 [ # # ]: 0 : if (eth_dev->data->dev_started) {
281 : 0 : const bool port_link_status = port_ops->get_link_status(p_adapter_info, n_intf_no);
282 : 0 : eth_dev->data->dev_link.link_status =
283 : : port_link_status ? RTE_ETH_LINK_UP : RTE_ETH_LINK_DOWN;
284 : :
285 : : nt_link_speed_t port_link_speed =
286 : 0 : port_ops->get_link_speed(p_adapter_info, n_intf_no);
287 : 0 : eth_dev->data->dev_link.link_speed =
288 : 0 : nthw_link_speed_to_eth_speed_num(port_link_speed);
289 : :
290 : : nt_link_duplex_t nt_link_duplex =
291 : 0 : port_ops->get_link_duplex(p_adapter_info, n_intf_no);
292 : 0 : eth_dev->data->dev_link.link_duplex =
293 : 0 : nthw_link_duplex_to_eth_duplex(nt_link_duplex);
294 : :
295 : : } else {
296 : 0 : eth_dev->data->dev_link.link_status = RTE_ETH_LINK_DOWN;
297 : 0 : eth_dev->data->dev_link.link_speed = RTE_ETH_SPEED_NUM_NONE;
298 : 0 : eth_dev->data->dev_link.link_duplex = RTE_ETH_LINK_FULL_DUPLEX;
299 : : }
300 : :
301 : : return 0;
302 : : }
303 : :
304 : 0 : static int eth_stats_get(struct rte_eth_dev *eth_dev, struct rte_eth_stats *stats,
305 : : struct eth_queue_stats *qstats)
306 : : {
307 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
308 : 0 : dpdk_stats_collect(internals, stats, qstats);
309 : 0 : return 0;
310 : : }
311 : :
312 : 0 : static int eth_stats_reset(struct rte_eth_dev *eth_dev)
313 : : {
314 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
315 : 0 : struct drv_s *p_drv = internals->p_drv;
316 : 0 : struct ntdrv_4ga_s *p_nt_drv = &p_drv->ntdrv;
317 : 0 : const int n_intf_no = internals->n_intf_no;
318 : 0 : dpdk_stats_reset(internals, p_nt_drv, n_intf_no);
319 : 0 : return 0;
320 : : }
321 : :
322 : : static int
323 : 0 : eth_dev_infos_get(struct rte_eth_dev *eth_dev, struct rte_eth_dev_info *dev_info)
324 : : {
325 : 0 : const struct port_ops *port_ops = nthw_get_port_ops();
326 : :
327 [ # # ]: 0 : if (port_ops == NULL) {
328 : 0 : NT_LOG(ERR, NTNIC, "Link management module uninitialized");
329 : 0 : return -1;
330 : : }
331 : :
332 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
333 : :
334 [ # # ]: 0 : if (internals == NULL) {
335 : 0 : NT_LOG(ERR, NTNIC, "PMD-specific private data not initialized");
336 : 0 : return -1;
337 : : }
338 : :
339 : 0 : const int n_intf_no = internals->n_intf_no;
340 : 0 : struct adapter_info_s *p_adapter_info = &internals->p_drv->ntdrv.adapter_info;
341 : :
342 : 0 : dev_info->driver_name = internals->name;
343 : 0 : dev_info->max_mac_addrs = NUM_MAC_ADDRS_PER_PORT;
344 : 0 : dev_info->max_rx_pktlen = HW_MAX_PKT_LEN;
345 : 0 : dev_info->max_mtu = MAX_MTU;
346 : :
347 [ # # ]: 0 : if (p_adapter_info->fpga_info.profile == FPGA_INFO_PROFILE_INLINE) {
348 : 0 : dev_info->min_mtu = MIN_MTU_INLINE;
349 : 0 : dev_info->flow_type_rss_offloads = NT_ETH_RSS_OFFLOAD_MASK;
350 : 0 : dev_info->hash_key_size = MAX_RSS_KEY_LEN;
351 : :
352 : 0 : dev_info->rss_algo_capa = RTE_ETH_HASH_ALGO_CAPA_MASK(DEFAULT) |
353 : : RTE_ETH_HASH_ALGO_CAPA_MASK(TOEPLITZ);
354 : : }
355 : :
356 : : if (internals->p_drv) {
357 : 0 : dev_info->max_rx_queues = internals->nb_rx_queues;
358 : 0 : dev_info->max_tx_queues = internals->nb_tx_queues;
359 : :
360 : 0 : dev_info->min_rx_bufsize = 64;
361 : :
362 : : const uint32_t nt_port_speed_capa =
363 : 0 : port_ops->get_link_speed_capabilities(p_adapter_info, n_intf_no);
364 : 0 : dev_info->speed_capa = nthw_link_speed_capa_to_eth_speed_capa(nt_port_speed_capa);
365 : : }
366 : :
367 : 0 : return 0;
368 : : }
369 : :
370 : : static __rte_always_inline int copy_virtqueue_to_mbuf(struct rte_mbuf *mbuf,
371 : : struct rte_mempool *mb_pool,
372 : : struct nthw_received_packets *hw_recv,
373 : : int max_segs,
374 : : uint16_t data_len)
375 : : {
376 : : int src_pkt = 0;
377 : : /*
378 : : * 1. virtqueue packets may be segmented
379 : : * 2. the mbuf size may be too small and may need to be segmented
380 : : */
381 : 0 : char *data = (char *)hw_recv[src_pkt].addr + SG_HDR_SIZE;
382 : 0 : char *dst = (char *)mbuf->buf_addr + RTE_PKTMBUF_HEADROOM;
383 : :
384 : : /* set packet length */
385 : 0 : mbuf->pkt_len = data_len - SG_HDR_SIZE;
386 : :
387 : : int remain = mbuf->pkt_len;
388 : : /* First cpy_size is without header */
389 : : int cpy_size = (data_len > SG_HW_RX_PKT_BUFFER_SIZE)
390 : : ? SG_HW_RX_PKT_BUFFER_SIZE - SG_HDR_SIZE
391 : 0 : : remain;
392 : :
393 : : struct rte_mbuf *m = mbuf; /* if mbuf segmentation is needed */
394 : :
395 [ # # ]: 0 : while (++src_pkt <= max_segs) {
396 : : /* keep track of space in dst */
397 : 0 : int cpto_size = rte_pktmbuf_tailroom(m);
398 : :
399 [ # # ]: 0 : if (cpy_size > cpto_size) {
400 : : int new_cpy_size = cpto_size;
401 : :
402 [ # # ]: 0 : rte_memcpy((void *)dst, (void *)data, new_cpy_size);
403 : 0 : m->data_len += new_cpy_size;
404 : 0 : remain -= new_cpy_size;
405 : 0 : cpy_size -= new_cpy_size;
406 : :
407 : 0 : data += new_cpy_size;
408 : :
409 : : /*
410 : : * loop if remaining data from this virtqueue seg
411 : : * cannot fit in one extra mbuf
412 : : */
413 : : do {
414 : 0 : m->next = rte_pktmbuf_alloc(mb_pool);
415 : :
416 [ # # ]: 0 : if (unlikely(!m->next))
417 : : return -1;
418 : :
419 : : m = m->next;
420 : :
421 : : /* Headroom is not needed in chained mbufs */
422 : 0 : rte_pktmbuf_prepend(m, rte_pktmbuf_headroom(m));
423 : 0 : dst = (char *)m->buf_addr;
424 : 0 : m->data_len = 0;
425 [ # # ]: 0 : m->pkt_len = 0;
426 : :
427 : 0 : cpto_size = rte_pktmbuf_tailroom(m);
428 : :
429 : 0 : int actual_cpy_size =
430 : : (cpy_size > cpto_size) ? cpto_size : cpy_size;
431 : :
432 [ # # ]: 0 : rte_memcpy((void *)dst, (void *)data, actual_cpy_size);
433 : 0 : m->pkt_len += actual_cpy_size;
434 : 0 : m->data_len += actual_cpy_size;
435 : :
436 : 0 : remain -= actual_cpy_size;
437 : 0 : cpy_size -= actual_cpy_size;
438 : :
439 : 0 : data += actual_cpy_size;
440 : :
441 : 0 : mbuf->nb_segs++;
442 : :
443 [ # # ]: 0 : } while (cpy_size && remain);
444 : :
445 : : } else {
446 : : /* all data from this virtqueue segment can fit in current mbuf */
447 [ # # ]: 0 : rte_memcpy((void *)dst, (void *)data, cpy_size);
448 : 0 : m->data_len += cpy_size;
449 : :
450 [ # # ]: 0 : if (mbuf->nb_segs > 1)
451 : 0 : m->pkt_len += cpy_size;
452 : :
453 : 0 : remain -= cpy_size;
454 : : }
455 : :
456 : : /* packet complete - all data from current virtqueue packet has been copied */
457 [ # # ]: 0 : if (remain == 0)
458 : : break;
459 : :
460 : : /* increment dst to data end */
461 : 0 : dst = rte_pktmbuf_mtod_offset(m, char *, m->data_len);
462 : : /* prepare for next virtqueue segment */
463 : 0 : data = (char *)hw_recv[src_pkt].addr; /* following packets are full data */
464 : :
465 : 0 : cpy_size = (remain > SG_HW_RX_PKT_BUFFER_SIZE) ? SG_HW_RX_PKT_BUFFER_SIZE : remain;
466 : : };
467 : :
468 [ # # ]: 0 : if (src_pkt > max_segs) {
469 : 0 : NT_LOG(ERR, NTNIC,
470 : : "Did not receive correct number of segment for a whole packet");
471 : : return -1;
472 : : }
473 : :
474 : : return src_pkt;
475 : : }
476 : :
477 : 0 : static uint16_t eth_dev_rx_scg(void *queue, struct rte_mbuf **bufs, uint16_t nb_pkts)
478 : : {
479 : : unsigned int i;
480 : : struct rte_mbuf *mbuf;
481 : : struct ntnic_rx_queue *rx_q = queue;
482 : : uint16_t num_rx = 0;
483 : :
484 : : struct nthw_received_packets hw_recv[MAX_RX_PACKETS];
485 : :
486 [ # # ]: 0 : if (unlikely(nb_pkts == 0))
487 : : return 0;
488 : :
489 : : if (nb_pkts > MAX_RX_PACKETS)
490 : : nb_pkts = MAX_RX_PACKETS;
491 : :
492 : 0 : uint16_t whole_pkts = 0;
493 : : uint16_t hw_recv_pkt_segs = 0;
494 : :
495 [ # # ]: 0 : if (sg_ops != NULL) {
496 : : hw_recv_pkt_segs =
497 : 0 : sg_ops->nthw_get_rx_packets(rx_q->vq, nb_pkts, hw_recv, &whole_pkts);
498 : :
499 [ # # ]: 0 : if (!hw_recv_pkt_segs)
500 : : return 0;
501 : : }
502 : :
503 : 0 : nb_pkts = whole_pkts;
504 : :
505 : : int src_pkt = 0;/* from 0 to hw_recv_pkt_segs */
506 : :
507 [ # # ]: 0 : for (i = 0; i < nb_pkts; i++) {
508 : 0 : bufs[i] = rte_pktmbuf_alloc(rx_q->mb_pool);
509 : :
510 [ # # ]: 0 : if (!bufs[i]) {
511 : 0 : NT_LOG(ERR, NTNIC, "ERROR - no more buffers mbuf in mempool");
512 : 0 : goto err_exit;
513 : : }
514 : :
515 : : mbuf = bufs[i];
516 : :
517 : 0 : struct _pkt_hdr_rx *phdr = (struct _pkt_hdr_rx *)hw_recv[src_pkt].addr;
518 : :
519 [ # # ]: 0 : if (phdr->cap_len < SG_HDR_SIZE) {
520 : 0 : NT_LOG(ERR, NTNIC,
521 : : "Pkt len of zero received. No header!! - dropping packets");
522 : 0 : rte_pktmbuf_free(mbuf);
523 : 0 : goto err_exit;
524 : : }
525 : :
526 : : {
527 [ # # # # ]: 0 : if (phdr->cap_len <= SG_HW_RX_PKT_BUFFER_SIZE &&
528 [ # # ]: 0 : (phdr->cap_len - SG_HDR_SIZE) <= rte_pktmbuf_tailroom(mbuf)) {
529 : 0 : mbuf->data_len = phdr->cap_len - SG_HDR_SIZE;
530 [ # # ]: 0 : rte_memcpy(rte_pktmbuf_mtod(mbuf, char *),
531 : : (char *)hw_recv[src_pkt].addr + SG_HDR_SIZE,
532 : : mbuf->data_len);
533 : :
534 : 0 : mbuf->pkt_len = mbuf->data_len;
535 : 0 : src_pkt++;
536 : :
537 : : } else {
538 [ # # ]: 0 : int cpy_segs = copy_virtqueue_to_mbuf(mbuf, rx_q->mb_pool,
539 : : &hw_recv[src_pkt],
540 : : hw_recv_pkt_segs - src_pkt,
541 : : phdr->cap_len);
542 : :
543 [ # # ]: 0 : if (cpy_segs < 0) {
544 : : /* Error */
545 : 0 : rte_pktmbuf_free(mbuf);
546 : 0 : goto err_exit;
547 : : }
548 : :
549 : 0 : src_pkt += cpy_segs;
550 : : }
551 : :
552 : 0 : num_rx++;
553 : :
554 : 0 : mbuf->ol_flags &= ~(RTE_MBUF_F_RX_FDIR_ID | RTE_MBUF_F_RX_FDIR);
555 : 0 : mbuf->port = (uint16_t)-1;
556 : : }
557 : : }
558 : :
559 : 0 : err_exit:
560 : :
561 [ # # ]: 0 : if (sg_ops != NULL)
562 : 0 : sg_ops->nthw_release_rx_packets(rx_q->vq, hw_recv_pkt_segs);
563 : :
564 : : return num_rx;
565 : : }
566 : :
567 : 0 : static int copy_mbuf_to_virtqueue(struct nthw_cvirtq_desc *cvq_desc,
568 : : uint16_t vq_descr_idx,
569 : : struct nthw_memory_descriptor *vq_bufs,
570 : : int max_segs,
571 : : struct rte_mbuf *mbuf)
572 : : {
573 : : /*
574 : : * 1. mbuf packet may be segmented
575 : : * 2. the virtqueue buffer size may be too small and may need to be segmented
576 : : */
577 : :
578 : 0 : char *data = rte_pktmbuf_mtod(mbuf, char *);
579 : 0 : char *dst = (char *)vq_bufs[vq_descr_idx].virt_addr + SG_HDR_SIZE;
580 : :
581 : 0 : int remain = mbuf->pkt_len;
582 : 0 : int cpy_size = mbuf->data_len;
583 : :
584 : : struct rte_mbuf *m = mbuf;
585 : : int cpto_size = SG_HW_TX_PKT_BUFFER_SIZE - SG_HDR_SIZE;
586 : :
587 : 0 : cvq_desc->b[vq_descr_idx].len = SG_HDR_SIZE;
588 : :
589 : : int cur_seg_num = 0; /* start from 0 */
590 : :
591 [ # # ]: 0 : while (m) {
592 : : /* Can all data in current src segment be in current dest segment */
593 [ # # ]: 0 : if (cpy_size > cpto_size) {
594 : : int new_cpy_size = cpto_size;
595 : :
596 [ # # ]: 0 : rte_memcpy((void *)dst, (void *)data, new_cpy_size);
597 : :
598 : 0 : cvq_desc->b[vq_descr_idx].len += new_cpy_size;
599 : :
600 : 0 : remain -= new_cpy_size;
601 : 0 : cpy_size -= new_cpy_size;
602 : :
603 : 0 : data += new_cpy_size;
604 : :
605 : : /*
606 : : * Loop if remaining data from this virtqueue seg cannot fit in one extra
607 : : * mbuf
608 : : */
609 : : do {
610 [ # # # # ]: 0 : vq_add_flags(cvq_desc, vq_descr_idx, VIRTQ_DESC_F_NEXT);
611 : :
612 : 0 : int next_vq_descr_idx = VIRTQ_DESCR_IDX_NEXT(vq_descr_idx);
613 : :
614 [ # # ]: 0 : vq_set_next(cvq_desc, vq_descr_idx, next_vq_descr_idx);
615 : :
616 : 0 : vq_descr_idx = next_vq_descr_idx;
617 : :
618 [ # # # # ]: 0 : vq_set_flags(cvq_desc, vq_descr_idx, 0);
619 [ # # ]: 0 : vq_set_next(cvq_desc, vq_descr_idx, 0);
620 : :
621 [ # # ]: 0 : if (++cur_seg_num > max_segs)
622 : : break;
623 : :
624 : 0 : dst = (char *)vq_bufs[vq_descr_idx].virt_addr;
625 : : cpto_size = SG_HW_TX_PKT_BUFFER_SIZE;
626 : :
627 : 0 : int actual_cpy_size =
628 : : (cpy_size > cpto_size) ? cpto_size : cpy_size;
629 [ # # ]: 0 : rte_memcpy((void *)dst, (void *)data, actual_cpy_size);
630 : :
631 : 0 : cvq_desc->b[vq_descr_idx].len = actual_cpy_size;
632 : :
633 : 0 : remain -= actual_cpy_size;
634 : 0 : cpy_size -= actual_cpy_size;
635 : 0 : cpto_size -= actual_cpy_size;
636 : :
637 : 0 : data += actual_cpy_size;
638 : :
639 [ # # ]: 0 : } while (cpy_size && remain);
640 : :
641 : : } else {
642 : : /* All data from this segment can fit in current virtqueue buffer */
643 [ # # ]: 0 : rte_memcpy((void *)dst, (void *)data, cpy_size);
644 : :
645 : 0 : cvq_desc->b[vq_descr_idx].len += cpy_size;
646 : :
647 : 0 : remain -= cpy_size;
648 : 0 : cpto_size -= cpy_size;
649 : : }
650 : :
651 : : /* Packet complete - all segments from current mbuf has been copied */
652 [ # # ]: 0 : if (remain == 0)
653 : : break;
654 : :
655 : : /* increment dst to data end */
656 : 0 : dst = (char *)vq_bufs[vq_descr_idx].virt_addr + cvq_desc->b[vq_descr_idx].len;
657 : :
658 : 0 : m = m->next;
659 : :
660 [ # # ]: 0 : if (!m) {
661 : 0 : NT_LOG(ERR, NTNIC, "ERROR: invalid packet size");
662 : 0 : break;
663 : : }
664 : :
665 : : /* Prepare for next mbuf segment */
666 : 0 : data = rte_pktmbuf_mtod(m, char *);
667 : 0 : cpy_size = m->data_len;
668 : : };
669 : :
670 : 0 : cur_seg_num++;
671 : :
672 [ # # ]: 0 : if (cur_seg_num > max_segs) {
673 : 0 : NT_LOG(ERR, NTNIC,
674 : : "Did not receive correct number of segment for a whole packet");
675 : 0 : return -1;
676 : : }
677 : :
678 : : return cur_seg_num;
679 : : }
680 : :
681 : 0 : static uint16_t eth_dev_tx_scg(void *queue, struct rte_mbuf **bufs, uint16_t nb_pkts)
682 : : {
683 : : uint16_t pkt;
684 : 0 : uint16_t first_vq_descr_idx = 0;
685 : :
686 : : struct nthw_cvirtq_desc cvq_desc;
687 : :
688 : : struct nthw_memory_descriptor *vq_bufs;
689 : :
690 : : struct ntnic_tx_queue *tx_q = queue;
691 : :
692 : : int nb_segs = 0, i;
693 : : int pkts_sent = 0;
694 : : uint16_t nb_segs_arr[MAX_TX_PACKETS];
695 : :
696 : : if (nb_pkts > MAX_TX_PACKETS)
697 : : nb_pkts = MAX_TX_PACKETS;
698 : :
699 : : /*
700 : : * count all segments needed to contain all packets in vq buffers
701 : : */
702 [ # # ]: 0 : for (i = 0; i < nb_pkts; i++) {
703 : : /* build the num segments array for segmentation control and release function */
704 [ # # ]: 0 : int vq_segs = NUM_VQ_SEGS(bufs[i]->pkt_len);
705 : 0 : nb_segs_arr[i] = vq_segs;
706 : 0 : nb_segs += vq_segs;
707 : : }
708 : :
709 [ # # ]: 0 : if (!nb_segs)
710 : 0 : goto exit_out;
711 : :
712 [ # # ]: 0 : if (sg_ops == NULL)
713 : 0 : goto exit_out;
714 : :
715 : 0 : int got_nb_segs = sg_ops->nthw_get_tx_packets(tx_q->vq, nb_segs, &first_vq_descr_idx,
716 : : &cvq_desc /*&vq_descr,*/, &vq_bufs);
717 : :
718 [ # # ]: 0 : if (!got_nb_segs)
719 : 0 : goto exit_out;
720 : :
721 : : /*
722 : : * we may get less vq buffers than we have asked for
723 : : * calculate last whole packet that can fit into what
724 : : * we have got
725 : : */
726 [ # # ]: 0 : while (got_nb_segs < nb_segs) {
727 [ # # ]: 0 : if (!--nb_pkts)
728 : 0 : goto exit_out;
729 : :
730 [ # # ]: 0 : nb_segs -= NUM_VQ_SEGS(bufs[nb_pkts]->pkt_len);
731 : :
732 [ # # ]: 0 : if (nb_segs <= 0)
733 : 0 : goto exit_out;
734 : : }
735 : :
736 : : /*
737 : : * nb_pkts & nb_segs, got it all, ready to copy
738 : : */
739 : : int seg_idx = 0;
740 : : int last_seg_idx = seg_idx;
741 : :
742 [ # # ]: 0 : for (pkt = 0; pkt < nb_pkts; ++pkt) {
743 : 0 : uint16_t vq_descr_idx = VIRTQ_DESCR_IDX(seg_idx);
744 : :
745 [ # # # # ]: 0 : vq_set_flags(&cvq_desc, vq_descr_idx, 0);
746 [ # # ]: 0 : vq_set_next(&cvq_desc, vq_descr_idx, 0);
747 : :
748 [ # # # # ]: 0 : if (bufs[pkt]->nb_segs == 1 && nb_segs_arr[pkt] == 1) {
749 : 0 : rte_memcpy((void *)((char *)vq_bufs[vq_descr_idx].virt_addr + SG_HDR_SIZE),
750 [ # # ]: 0 : rte_pktmbuf_mtod(bufs[pkt], void *), bufs[pkt]->pkt_len);
751 : :
752 : 0 : cvq_desc.b[vq_descr_idx].len = bufs[pkt]->pkt_len + SG_HDR_SIZE;
753 : :
754 : 0 : seg_idx++;
755 : :
756 : : } else {
757 : 0 : int cpy_segs = copy_mbuf_to_virtqueue(&cvq_desc, vq_descr_idx, vq_bufs,
758 : : nb_segs - last_seg_idx, bufs[pkt]);
759 : :
760 [ # # ]: 0 : if (cpy_segs < 0)
761 : : break;
762 : :
763 : 0 : seg_idx += cpy_segs;
764 : : }
765 : :
766 : : last_seg_idx = seg_idx;
767 : 0 : rte_pktmbuf_free(bufs[pkt]);
768 : 0 : pkts_sent++;
769 : : }
770 : :
771 : 0 : exit_out:
772 : :
773 [ # # ]: 0 : if (sg_ops != NULL) {
774 [ # # ]: 0 : if (pkts_sent)
775 : 0 : sg_ops->nthw_release_tx_packets(tx_q->vq, pkts_sent, nb_segs_arr);
776 : : }
777 : :
778 : 0 : return pkts_sent;
779 : : }
780 : :
781 : 0 : static int allocate_hw_virtio_queues(struct rte_eth_dev *eth_dev, int vf_num, struct hwq_s *hwq,
782 : : int num_descr, int buf_size)
783 : : {
784 : : int i, res;
785 : : uint32_t size;
786 : : uint64_t iova_addr;
787 : :
788 : 0 : NT_LOG(DBG, NTNIC, "***** Configure IOMMU for HW queues on VF %i *****", vf_num);
789 : :
790 : : /* Just allocate 1MB to hold all combined descr rings */
791 : 0 : uint64_t tot_alloc_size = 0x100000 + (uint64_t)buf_size * (uint64_t)num_descr;
792 : :
793 : : void *virt =
794 : 0 : rte_malloc_socket("VirtQDescr", tot_alloc_size,
795 : 0 : nthw_util_align_size(tot_alloc_size),
796 : 0 : eth_dev->data->numa_node);
797 : :
798 [ # # ]: 0 : if (!virt)
799 : : return -1;
800 : :
801 : 0 : uint64_t gp_offset = (uint64_t)virt & ONE_G_MASK;
802 : 0 : rte_iova_t hpa = rte_malloc_virt2iova(virt);
803 : :
804 : 0 : NT_LOG(DBG, NTNIC, "Allocated virtio descr rings : virt "
805 : : "%p [0x%" PRIX64 "],hpa %" PRIX64 " [0x%" PRIX64 "]",
806 : : virt, gp_offset, hpa, hpa & ONE_G_MASK);
807 : :
808 : : /*
809 : : * Same offset on both HPA and IOVA
810 : : * Make sure 1G boundary is never crossed
811 : : */
812 [ # # ]: 0 : if (((hpa & ONE_G_MASK) != gp_offset) ||
813 [ # # ]: 0 : (((uint64_t)virt + tot_alloc_size) & ~ONE_G_MASK) !=
814 : : ((uint64_t)virt & ~ONE_G_MASK)) {
815 : 0 : NT_LOG(ERR, NTNIC, "*********************************************************");
816 : 0 : NT_LOG(ERR, NTNIC, "ERROR, no optimal IOMMU mapping available hpa: %016" PRIX64
817 : : "(%016" PRIX64 "), gp_offset: %016" PRIX64 " size: %" PRIu64,
818 : : hpa, hpa & ONE_G_MASK, gp_offset, tot_alloc_size);
819 : 0 : NT_LOG(ERR, NTNIC, "*********************************************************");
820 : :
821 : 0 : rte_free(virt);
822 : :
823 : : /* Just allocate 1MB to hold all combined descr rings */
824 : : size = 0x100000;
825 : 0 : void *virt = rte_malloc_socket("VirtQDescr", size, 4096, eth_dev->data->numa_node);
826 : :
827 [ # # ]: 0 : if (!virt)
828 : : return -1;
829 : :
830 : 0 : res = nthw_vfio_dma_map(vf_num, virt, &iova_addr, size);
831 : :
832 : 0 : NT_LOG(DBG, NTNIC, "VFIO MMAP res %i, vf_num %i", res, vf_num);
833 : :
834 [ # # ]: 0 : if (res != 0)
835 : : return -1;
836 : :
837 : 0 : hwq->vf_num = vf_num;
838 : 0 : hwq->virt_queues_ctrl.virt_addr = virt;
839 : 0 : hwq->virt_queues_ctrl.phys_addr = (void *)iova_addr;
840 : 0 : hwq->virt_queues_ctrl.len = size;
841 : :
842 : 0 : NT_LOG(DBG, NTNIC,
843 : : "Allocated for virtio descr rings combined 1MB : %p, IOVA %016" PRIX64 "",
844 : : virt, iova_addr);
845 : :
846 : 0 : size = num_descr * sizeof(struct nthw_memory_descriptor);
847 : 0 : hwq->pkt_buffers =
848 : 0 : rte_zmalloc_socket("rx_pkt_buffers", size, 64, eth_dev->data->numa_node);
849 : :
850 [ # # ]: 0 : if (!hwq->pkt_buffers) {
851 : 0 : NT_LOG(ERR, NTNIC,
852 : : "Failed to allocated buffer array for hw-queue %p, total size %"
853 : : PRIu32 ", elements %i",
854 : : hwq->pkt_buffers, size, num_descr);
855 : 0 : rte_free(virt);
856 : 0 : return -1;
857 : : }
858 : :
859 : 0 : size = buf_size * num_descr;
860 : : void *virt_addr =
861 : 0 : rte_malloc_socket("pkt_buffer_pkts", size, 4096, eth_dev->data->numa_node);
862 : :
863 [ # # ]: 0 : if (!virt_addr) {
864 : 0 : NT_LOG(ERR, NTNIC,
865 : : "Failed allocate packet buffers for hw-queue %p, buf size %i, elements %i",
866 : : hwq->pkt_buffers, buf_size, num_descr);
867 : 0 : rte_free(hwq->pkt_buffers);
868 : 0 : rte_free(virt);
869 : 0 : return -1;
870 : : }
871 : :
872 : 0 : res = nthw_vfio_dma_map(vf_num, virt_addr, &iova_addr, size);
873 : :
874 : 0 : NT_LOG(DBG, NTNIC,
875 : : "VFIO MMAP res %i, virt %p, iova %016"
876 : : PRIX64 ", vf_num %i, num pkt bufs %i, tot size %" PRIu32 "",
877 : : res, virt_addr, iova_addr, vf_num, num_descr, size);
878 : :
879 [ # # ]: 0 : if (res != 0)
880 : : return -1;
881 : :
882 : 0 : hwq->pkt_buffers_ctrl.virt_addr = virt_addr;
883 : 0 : hwq->pkt_buffers_ctrl.phys_addr = (void *)iova_addr;
884 : 0 : hwq->pkt_buffers_ctrl.len = size;
885 : :
886 [ # # ]: 0 : for (i = 0; i < num_descr; i++) {
887 : 0 : hwq->pkt_buffers[i].virt_addr =
888 : 0 : (void *)((char *)virt_addr + ((uint64_t)(i) * buf_size));
889 : 0 : hwq->pkt_buffers[i].phys_addr =
890 : 0 : (void *)(iova_addr + ((uint64_t)(i) * buf_size));
891 : 0 : hwq->pkt_buffers[i].len = buf_size;
892 : : }
893 : :
894 : : return 0;
895 : : } /* End of: no optimal IOMMU mapping available */
896 : :
897 : 0 : res = nthw_vfio_dma_map(vf_num, virt, &iova_addr, ONE_G_SIZE);
898 : :
899 [ # # ]: 0 : if (res != 0) {
900 : 0 : NT_LOG(ERR, NTNIC, "VFIO MMAP FAILED! res %i, vf_num %i", res, vf_num);
901 : 0 : return -1;
902 : : }
903 : :
904 : 0 : hwq->vf_num = vf_num;
905 : 0 : hwq->virt_queues_ctrl.virt_addr = virt;
906 : 0 : hwq->virt_queues_ctrl.phys_addr = (void *)(iova_addr);
907 : 0 : hwq->virt_queues_ctrl.len = ONE_G_SIZE;
908 : 0 : iova_addr += 0x100000;
909 : :
910 : 0 : hwq->pkt_buffers_ctrl.virt_addr = NULL;
911 : 0 : hwq->pkt_buffers_ctrl.phys_addr = NULL;
912 : 0 : hwq->pkt_buffers_ctrl.len = 0;
913 : :
914 : 0 : NT_LOG(DBG, NTNIC,
915 : : "VFIO MMAP: virt_addr=%p phys_addr=%p size=%" PRIX32 " hpa=%" PRIX64 "",
916 : : hwq->virt_queues_ctrl.virt_addr, hwq->virt_queues_ctrl.phys_addr,
917 : : hwq->virt_queues_ctrl.len, rte_malloc_virt2iova(hwq->virt_queues_ctrl.virt_addr));
918 : :
919 : 0 : size = num_descr * sizeof(struct nthw_memory_descriptor);
920 : 0 : hwq->pkt_buffers =
921 : 0 : rte_zmalloc_socket("rx_pkt_buffers", size, 64, eth_dev->data->numa_node);
922 : :
923 [ # # ]: 0 : if (!hwq->pkt_buffers) {
924 : 0 : NT_LOG(ERR, NTNIC,
925 : : "Failed to allocated buffer array for hw-queue %p, total size %"
926 : : PRIu32 ", elements %i",
927 : : hwq->pkt_buffers, size, num_descr);
928 : 0 : rte_free(virt);
929 : 0 : return -1;
930 : : }
931 : :
932 : 0 : void *virt_addr = (void *)((uint64_t)virt + 0x100000);
933 : :
934 [ # # ]: 0 : for (i = 0; i < num_descr; i++) {
935 : 0 : hwq->pkt_buffers[i].virt_addr =
936 : 0 : (void *)((char *)virt_addr + ((uint64_t)(i) * buf_size));
937 : 0 : hwq->pkt_buffers[i].phys_addr = (void *)(iova_addr + ((uint64_t)(i) * buf_size));
938 : 0 : hwq->pkt_buffers[i].len = buf_size;
939 : : }
940 : :
941 : : return 0;
942 : : }
943 : :
944 : : static void release_hw_virtio_queues(struct hwq_s *hwq)
945 : : {
946 [ # # # # : 0 : if (!hwq || hwq->vf_num == 0)
# # ]
947 : : return;
948 : :
949 : 0 : hwq->vf_num = 0;
950 : : }
951 : :
952 : 0 : static int deallocate_hw_virtio_queues(struct hwq_s *hwq)
953 : : {
954 : 0 : int vf_num = hwq->vf_num;
955 : :
956 : 0 : void *virt = hwq->virt_queues_ctrl.virt_addr;
957 : :
958 : 0 : int res = nthw_vfio_dma_unmap(vf_num, hwq->virt_queues_ctrl.virt_addr,
959 : 0 : (uint64_t)hwq->virt_queues_ctrl.phys_addr, hwq->virt_queues_ctrl.len);
960 : :
961 [ # # ]: 0 : if (res != 0) {
962 : 0 : NT_LOG(ERR, NTNIC, "VFIO UNMMAP FAILED! res %i, vf_num %i", res, vf_num);
963 : 0 : return -1;
964 : : }
965 : :
966 [ # # ]: 0 : if (hwq->pkt_buffers_ctrl.virt_addr != NULL &&
967 [ # # ]: 0 : hwq->pkt_buffers_ctrl.phys_addr != NULL &&
968 [ # # ]: 0 : hwq->pkt_buffers_ctrl.len > 0) {
969 : 0 : int res = nthw_vfio_dma_unmap(vf_num,
970 : : hwq->pkt_buffers_ctrl.virt_addr,
971 : : (uint64_t)hwq->pkt_buffers_ctrl.phys_addr,
972 : : hwq->pkt_buffers_ctrl.len);
973 : :
974 [ # # ]: 0 : if (res != 0) {
975 : 0 : NT_LOG(ERR, NTNIC, "VFIO UNMMAP FAILED! res %i, vf_num %i", res, vf_num);
976 : 0 : return -1;
977 : : }
978 : : }
979 : :
980 : : release_hw_virtio_queues(hwq);
981 : 0 : rte_free(hwq->pkt_buffers);
982 : 0 : rte_free(virt);
983 : 0 : return 0;
984 : : }
985 : :
986 : 0 : static void eth_tx_queue_release(struct rte_eth_dev *eth_dev, uint16_t queue_id)
987 : : {
988 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
989 : 0 : struct ntnic_tx_queue *tx_q = &internals->txq_scg[queue_id];
990 : 0 : deallocate_hw_virtio_queues(&tx_q->hwq);
991 : 0 : }
992 : :
993 : 0 : static void eth_rx_queue_release(struct rte_eth_dev *eth_dev, uint16_t queue_id)
994 : : {
995 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
996 : 0 : struct ntnic_rx_queue *rx_q = &internals->rxq_scg[queue_id];
997 : 0 : deallocate_hw_virtio_queues(&rx_q->hwq);
998 : 0 : }
999 : :
1000 : : static int num_queues_allocated;
1001 : :
1002 : : /* Returns num queue starting at returned queue num or -1 on fail */
1003 : 0 : static int allocate_queue(int num)
1004 : : {
1005 : 0 : int next_free = num_queues_allocated;
1006 : 0 : NT_LOG_DBGX(DBG, NTNIC, "num_queues_allocated=%i, New queues=%i, Max queues=%d",
1007 : : num_queues_allocated, num, MAX_TOTAL_QUEUES);
1008 : :
1009 [ # # ]: 0 : if (num_queues_allocated + num > MAX_TOTAL_QUEUES)
1010 : : return -1;
1011 : :
1012 : 0 : num_queues_allocated += num;
1013 : 0 : return next_free;
1014 : : }
1015 : :
1016 : 0 : static int eth_rx_scg_queue_setup(struct rte_eth_dev *eth_dev,
1017 : : uint16_t rx_queue_id,
1018 : : uint16_t nb_rx_desc __rte_unused,
1019 : : unsigned int socket_id __rte_unused,
1020 : : const struct rte_eth_rxconf *rx_conf,
1021 : : struct rte_mempool *mb_pool)
1022 : : {
1023 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Rx queue setup");
1024 : : struct rte_pktmbuf_pool_private *mbp_priv;
1025 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1026 : 0 : struct ntnic_rx_queue *rx_q = &internals->rxq_scg[rx_queue_id];
1027 : 0 : struct drv_s *p_drv = internals->p_drv;
1028 : : struct ntdrv_4ga_s *p_nt_drv = &p_drv->ntdrv;
1029 : :
1030 [ # # ]: 0 : if (sg_ops == NULL) {
1031 : 0 : NT_LOG_DBGX(DBG, NTNIC, "SG module is not initialized");
1032 : 0 : return 0;
1033 : : }
1034 : :
1035 [ # # ]: 0 : if (internals->type == PORT_TYPE_OVERRIDE) {
1036 : 0 : rx_q->mb_pool = mb_pool;
1037 : 0 : eth_dev->data->rx_queues[rx_queue_id] = rx_q;
1038 [ # # ]: 0 : mbp_priv = rte_mempool_get_priv(rx_q->mb_pool);
1039 : 0 : rx_q->buf_size = (uint16_t)(mbp_priv->mbuf_data_room_size - RTE_PKTMBUF_HEADROOM);
1040 : 0 : rx_q->enabled = 1;
1041 : 0 : return 0;
1042 : : }
1043 : :
1044 : 0 : NT_LOG(DBG, NTNIC, "(%" PRIu32 ") NTNIC RX OVS-SW queue setup: queue id %"
1045 : : PRIu16 ", hw queue index %i",
1046 : : internals->port, rx_queue_id, rx_q->queue.hw_id);
1047 : :
1048 : 0 : rx_q->mb_pool = mb_pool;
1049 : :
1050 : 0 : eth_dev->data->rx_queues[rx_queue_id] = rx_q;
1051 : :
1052 [ # # ]: 0 : mbp_priv = rte_mempool_get_priv(rx_q->mb_pool);
1053 : 0 : rx_q->buf_size = (uint16_t)(mbp_priv->mbuf_data_room_size - RTE_PKTMBUF_HEADROOM);
1054 : 0 : rx_q->enabled = !rx_conf->rx_deferred_start;
1055 : 0 : rx_q->rx_deferred_start = rx_conf->rx_deferred_start;
1056 : :
1057 [ # # ]: 0 : if (allocate_hw_virtio_queues(eth_dev, EXCEPTION_PATH_HID, &rx_q->hwq,
1058 : : SG_NB_HW_RX_DESCRIPTORS, SG_HW_RX_PKT_BUFFER_SIZE) < 0)
1059 : : return -1;
1060 : :
1061 : 0 : rx_q->nb_hw_rx_descr = SG_NB_HW_RX_DESCRIPTORS;
1062 : :
1063 : 0 : rx_q->profile = p_drv->ntdrv.adapter_info.fpga_info.profile;
1064 : :
1065 : 0 : rx_q->vq =
1066 : 0 : sg_ops->nthw_setup_mngd_rx_virt_queue(p_nt_drv->adapter_info.fpga_info.mp_nthw_dbs,
1067 : 0 : rx_q->queue.hw_id, /* index */
1068 : : rx_q->nb_hw_rx_descr,
1069 : : EXCEPTION_PATH_HID, /* host_id */
1070 : : 1, /* header NT DVIO header for exception path */
1071 : : &rx_q->hwq.virt_queues_ctrl,
1072 : : rx_q->hwq.pkt_buffers,
1073 : : SPLIT_RING,
1074 : : -1,
1075 : 0 : rx_conf->rx_deferred_start);
1076 : :
1077 : 0 : NT_LOG(DBG, NTNIC, "(%" PRIu32 ") NTNIC RX OVS-SW queues successfully setup",
1078 : : internals->port);
1079 : :
1080 : 0 : return 0;
1081 : : }
1082 : :
1083 : 0 : static int eth_tx_scg_queue_setup(struct rte_eth_dev *eth_dev,
1084 : : uint16_t tx_queue_id,
1085 : : uint16_t nb_tx_desc __rte_unused,
1086 : : unsigned int socket_id __rte_unused,
1087 : : const struct rte_eth_txconf *tx_conf)
1088 : : {
1089 : 0 : const struct port_ops *port_ops = nthw_get_port_ops();
1090 : :
1091 [ # # ]: 0 : if (port_ops == NULL) {
1092 : 0 : NT_LOG_DBGX(ERR, NTNIC, "Link management module uninitialized");
1093 : 0 : return -1;
1094 : : }
1095 : :
1096 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Tx queue setup");
1097 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1098 : 0 : struct drv_s *p_drv = internals->p_drv;
1099 : : struct ntdrv_4ga_s *p_nt_drv = &p_drv->ntdrv;
1100 : 0 : struct ntnic_tx_queue *tx_q = &internals->txq_scg[tx_queue_id];
1101 : :
1102 [ # # ]: 0 : if (internals->type == PORT_TYPE_OVERRIDE) {
1103 : 0 : eth_dev->data->tx_queues[tx_queue_id] = tx_q;
1104 : 0 : return 0;
1105 : : }
1106 : :
1107 [ # # ]: 0 : if (sg_ops == NULL) {
1108 : 0 : NT_LOG_DBGX(DBG, NTNIC, "SG module is not initialized");
1109 : 0 : return 0;
1110 : : }
1111 : :
1112 : 0 : NT_LOG(DBG, NTNIC, "(%" PRIu32 ") NTNIC TX OVS-SW queue setup: queue id %" PRIu16 ", hw queue index %i",
1113 : : tx_q->port, tx_queue_id, tx_q->queue.hw_id);
1114 : :
1115 [ # # ]: 0 : if (tx_queue_id > internals->nb_tx_queues) {
1116 : 0 : NT_LOG(ERR, NTNIC, "Error invalid tx queue id");
1117 : 0 : return -1;
1118 : : }
1119 : :
1120 : 0 : eth_dev->data->tx_queues[tx_queue_id] = tx_q;
1121 : :
1122 : : /* Calculate target ID for HW - to be used in NTDVIO0 header bypass_port */
1123 [ # # ]: 0 : if (tx_q->rss_target_id >= 0) {
1124 : : /* bypass to a multiqueue port - qsl-hsh index */
1125 : 0 : tx_q->target_id = tx_q->rss_target_id + 0x90;
1126 : :
1127 [ # # ]: 0 : } else if (internals->vpq[tx_queue_id].hw_id > -1) {
1128 : : /* virtual port - queue index */
1129 : 0 : tx_q->target_id = internals->vpq[tx_queue_id].hw_id;
1130 : :
1131 : : } else {
1132 : : /* Phy port - phy port identifier */
1133 : : /* output/bypass to MAC */
1134 : 0 : tx_q->target_id = (int)(tx_q->port + 0x80);
1135 : : }
1136 : :
1137 [ # # ]: 0 : if (allocate_hw_virtio_queues(eth_dev, EXCEPTION_PATH_HID, &tx_q->hwq,
1138 : : SG_NB_HW_TX_DESCRIPTORS, SG_HW_TX_PKT_BUFFER_SIZE) < 0) {
1139 : : return -1;
1140 : : }
1141 : :
1142 : 0 : tx_q->nb_hw_tx_descr = SG_NB_HW_TX_DESCRIPTORS;
1143 : :
1144 : 0 : tx_q->profile = p_drv->ntdrv.adapter_info.fpga_info.profile;
1145 : :
1146 : : uint32_t port, header;
1147 : 0 : port = tx_q->port; /* transmit port */
1148 : : header = 0; /* header type VirtIO-Net */
1149 : :
1150 : 0 : tx_q->vq =
1151 : 0 : sg_ops->nthw_setup_mngd_tx_virt_queue(p_nt_drv->adapter_info.fpga_info.mp_nthw_dbs,
1152 : 0 : tx_q->queue.hw_id, /* index */
1153 : : tx_q->nb_hw_tx_descr, /* queue size */
1154 : : EXCEPTION_PATH_HID, /* host_id always VF4 */
1155 : : port,
1156 : : /*
1157 : : * in_port - in vswitch mode has
1158 : : * to move tx port from OVS excep.
1159 : : * away from VM tx port,
1160 : : * because of QoS is matched by port id!
1161 : : */
1162 : : tx_q->port + 128,
1163 : : header,
1164 : : &tx_q->hwq.virt_queues_ctrl,
1165 : : tx_q->hwq.pkt_buffers,
1166 : : SPLIT_RING,
1167 : : -1,
1168 : : IN_ORDER,
1169 : 0 : tx_conf->tx_deferred_start);
1170 : :
1171 : 0 : tx_q->enabled = !tx_conf->tx_deferred_start;
1172 : 0 : tx_q->tx_deferred_start = tx_conf->tx_deferred_start;
1173 : :
1174 : 0 : NT_LOG(DBG, NTNIC, "(%" PRIu32 ") NTNIC TX OVS-SW queues successfully setup",
1175 : : internals->port);
1176 : :
1177 [ # # ]: 0 : if (internals->type == PORT_TYPE_PHYSICAL) {
1178 : 0 : struct adapter_info_s *p_adapter_info = &internals->p_drv->ntdrv.adapter_info;
1179 : 0 : NT_LOG(DBG, NTNIC, "Port %i is ready for data. Enable port",
1180 : : internals->n_intf_no);
1181 : 0 : port_ops->set_adm_state(p_adapter_info, internals->n_intf_no, true);
1182 : : }
1183 : :
1184 : : return 0;
1185 : : }
1186 : :
1187 : 0 : static int dev_set_mtu_inline(struct rte_eth_dev *eth_dev, uint16_t mtu)
1188 : : {
1189 : 0 : const struct profile_inline_ops *profile_inline_ops = nthw_get_profile_inline_ops();
1190 : :
1191 [ # # ]: 0 : if (profile_inline_ops == NULL) {
1192 : 0 : NT_LOG_DBGX(ERR, NTNIC, "profile_inline module uninitialized");
1193 : 0 : return -1;
1194 : : }
1195 : :
1196 : 0 : struct pmd_internals *internals = (struct pmd_internals *)eth_dev->data->dev_private;
1197 : :
1198 : 0 : struct flow_eth_dev *flw_dev = internals->flw_dev;
1199 : : int ret = -1;
1200 : :
1201 [ # # # # ]: 0 : if (internals->type == PORT_TYPE_PHYSICAL && mtu >= MIN_MTU_INLINE && mtu <= MAX_MTU)
1202 : 0 : ret = profile_inline_ops->nthw_flow_set_mtu_inline(flw_dev, internals->port, mtu);
1203 : :
1204 [ # # ]: 0 : return ret ? -EINVAL : 0;
1205 : : }
1206 : :
1207 : 0 : static int eth_rx_queue_start(struct rte_eth_dev *eth_dev, uint16_t rx_queue_id)
1208 : : {
1209 [ # # ]: 0 : if (sg_ops == NULL) {
1210 : 0 : NT_LOG_DBGX(DBG, NTNIC, "SG module is not initialized");
1211 : 0 : return -1;
1212 : : }
1213 : :
1214 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1215 : 0 : struct drv_s *p_drv = internals->p_drv;
1216 : : struct ntdrv_4ga_s *p_nt_drv = &p_drv->ntdrv;
1217 : 0 : nthw_dbs_t *p_nthw_dbs = p_nt_drv->adapter_info.fpga_info.mp_nthw_dbs;
1218 : 0 : struct ntnic_rx_queue *rx_q = &internals->rxq_scg[rx_queue_id];
1219 : 0 : int index = rx_q->queue.hw_id;
1220 : :
1221 [ # # ]: 0 : if (sg_ops->nthw_switch_rx_virt_queue(p_nthw_dbs, index, 1) != 0) {
1222 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Failed to start Rx queue #%d", index);
1223 : 0 : return -1;
1224 : : }
1225 : :
1226 : 0 : rx_q->enabled = 1;
1227 : 0 : eth_dev->data->rx_queue_state[rx_queue_id] = RTE_ETH_QUEUE_STATE_STARTED;
1228 : 0 : return 0;
1229 : : }
1230 : :
1231 : 0 : static int eth_rx_queue_stop(struct rte_eth_dev *eth_dev, uint16_t rx_queue_id)
1232 : : {
1233 [ # # ]: 0 : if (sg_ops == NULL) {
1234 : 0 : NT_LOG_DBGX(DBG, NTNIC, "SG module is not initialized");
1235 : 0 : return -1;
1236 : : }
1237 : :
1238 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1239 : 0 : struct drv_s *p_drv = internals->p_drv;
1240 : : struct ntdrv_4ga_s *p_nt_drv = &p_drv->ntdrv;
1241 : 0 : nthw_dbs_t *p_nthw_dbs = p_nt_drv->adapter_info.fpga_info.mp_nthw_dbs;
1242 : 0 : struct ntnic_rx_queue *rx_q = &internals->rxq_scg[rx_queue_id];
1243 : 0 : int index = rx_q->queue.hw_id;
1244 : :
1245 [ # # ]: 0 : if (sg_ops->nthw_switch_rx_virt_queue(p_nthw_dbs, index, 0) != 0) {
1246 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Failed to stop Rx queue #%d", index);
1247 : 0 : return -1;
1248 : : }
1249 : :
1250 : 0 : rx_q->enabled = 0;
1251 : 0 : eth_dev->data->rx_queue_state[rx_queue_id] = RTE_ETH_QUEUE_STATE_STOPPED;
1252 : 0 : return 0;
1253 : : }
1254 : :
1255 : 0 : static int eth_tx_queue_start(struct rte_eth_dev *eth_dev, uint16_t tx_queue_id)
1256 : : {
1257 [ # # ]: 0 : if (sg_ops == NULL) {
1258 : 0 : NT_LOG_DBGX(DBG, NTNIC, "SG module is not initialized");
1259 : 0 : return -1;
1260 : : }
1261 : :
1262 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1263 : 0 : struct drv_s *p_drv = internals->p_drv;
1264 : : struct ntdrv_4ga_s *p_nt_drv = &p_drv->ntdrv;
1265 : 0 : nthw_dbs_t *p_nthw_dbs = p_nt_drv->adapter_info.fpga_info.mp_nthw_dbs;
1266 : 0 : struct ntnic_tx_queue *tx_q = &internals->txq_scg[tx_queue_id];
1267 : 0 : int index = tx_q->queue.hw_id;
1268 : :
1269 [ # # ]: 0 : if (sg_ops->nthw_switch_tx_virt_queue(p_nthw_dbs, index, 1) != 0) {
1270 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Failed to start Tx queue #%d", index);
1271 : 0 : return -1;
1272 : : }
1273 : :
1274 : 0 : tx_q->enabled = 1;
1275 : 0 : eth_dev->data->tx_queue_state[tx_queue_id] = RTE_ETH_QUEUE_STATE_STARTED;
1276 : 0 : return 0;
1277 : : }
1278 : :
1279 : 0 : static int eth_tx_queue_stop(struct rte_eth_dev *eth_dev, uint16_t tx_queue_id)
1280 : : {
1281 [ # # ]: 0 : if (sg_ops == NULL) {
1282 : 0 : NT_LOG_DBGX(DBG, NTNIC, "SG module is not initialized");
1283 : 0 : return -1;
1284 : : }
1285 : :
1286 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1287 : 0 : struct drv_s *p_drv = internals->p_drv;
1288 : : struct ntdrv_4ga_s *p_nt_drv = &p_drv->ntdrv;
1289 : 0 : nthw_dbs_t *p_nthw_dbs = p_nt_drv->adapter_info.fpga_info.mp_nthw_dbs;
1290 : 0 : struct ntnic_tx_queue *tx_q = &internals->txq_scg[tx_queue_id];
1291 : 0 : int index = tx_q->queue.hw_id;
1292 : :
1293 [ # # ]: 0 : if (sg_ops->nthw_switch_tx_virt_queue(p_nthw_dbs, index, 0) != 0) {
1294 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Failed to stop Tx queue #%d", index);
1295 : 0 : return -1;
1296 : : }
1297 : :
1298 : 0 : tx_q->enabled = 0;
1299 : 0 : eth_dev->data->tx_queue_state[tx_queue_id] = RTE_ETH_QUEUE_STATE_STOPPED;
1300 : 0 : return 0;
1301 : : }
1302 : :
1303 : : static int
1304 : 0 : eth_mac_addr_add(struct rte_eth_dev *eth_dev,
1305 : : struct rte_ether_addr *mac_addr,
1306 : : uint32_t index,
1307 : : uint32_t vmdq __rte_unused)
1308 : : {
1309 : 0 : struct rte_ether_addr *const eth_addrs = eth_dev->data->mac_addrs;
1310 : :
1311 : : RTE_ASSERT(index < NUM_MAC_ADDRS_PER_PORT);
1312 : :
1313 [ # # ]: 0 : if (index >= NUM_MAC_ADDRS_PER_PORT) {
1314 : 0 : const struct pmd_internals *const internals =
1315 : : eth_dev->data->dev_private;
1316 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Port %i: illegal index %u (>= %u)",
1317 : : internals->n_intf_no, index, NUM_MAC_ADDRS_PER_PORT);
1318 : 0 : return -1;
1319 : : }
1320 : :
1321 : 0 : eth_addrs[index] = *mac_addr;
1322 : :
1323 : 0 : return 0;
1324 : : }
1325 : :
1326 : : static int
1327 : 0 : eth_mac_addr_set(struct rte_eth_dev *dev, struct rte_ether_addr *mac_addr)
1328 : : {
1329 : 0 : struct rte_ether_addr *const eth_addrs = dev->data->mac_addrs;
1330 : :
1331 : 0 : eth_addrs[0U] = *mac_addr;
1332 : :
1333 : 0 : return 0;
1334 : : }
1335 : :
1336 : : static int
1337 : 0 : eth_set_mc_addr_list(struct rte_eth_dev *eth_dev,
1338 : : struct rte_ether_addr *mc_addr_set,
1339 : : uint32_t nb_mc_addr)
1340 : : {
1341 : 0 : struct pmd_internals *const internals = eth_dev->data->dev_private;
1342 : 0 : struct rte_ether_addr *const mc_addrs = internals->mc_addrs;
1343 : : size_t i;
1344 : :
1345 [ # # ]: 0 : if (nb_mc_addr >= NUM_MULTICAST_ADDRS_PER_PORT) {
1346 : 0 : NT_LOG_DBGX(DBG, NTNIC,
1347 : : "Port %i: too many multicast addresses %u (>= %u)",
1348 : : internals->n_intf_no, nb_mc_addr, NUM_MULTICAST_ADDRS_PER_PORT);
1349 : 0 : return -1;
1350 : : }
1351 : :
1352 [ # # ]: 0 : for (i = 0U; i < NUM_MULTICAST_ADDRS_PER_PORT; i++)
1353 [ # # ]: 0 : if (i < nb_mc_addr)
1354 : 0 : mc_addrs[i] = mc_addr_set[i];
1355 : :
1356 : : else
1357 : 0 : memset(&mc_addrs[i], 0, sizeof(mc_addrs[i]));
1358 : :
1359 : : return 0;
1360 : : }
1361 : :
1362 : : static int
1363 : 0 : eth_dev_configure(struct rte_eth_dev *eth_dev)
1364 : : {
1365 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Called for eth_dev %p", eth_dev);
1366 : :
1367 : : /* The device is ALWAYS running promiscuous mode. */
1368 : 0 : eth_dev->data->promiscuous ^= ~eth_dev->data->promiscuous;
1369 : 0 : return 0;
1370 : : }
1371 : :
1372 : : static int
1373 : 0 : eth_dev_start(struct rte_eth_dev *eth_dev)
1374 : : {
1375 : 0 : const struct port_ops *port_ops = nthw_get_port_ops();
1376 : :
1377 [ # # ]: 0 : if (port_ops == NULL) {
1378 : 0 : NT_LOG(ERR, NTNIC, "Link management module uninitialized");
1379 : 0 : return -1;
1380 : : }
1381 : :
1382 : 0 : eth_dev->flow_fp_ops = nthw_get_dev_fp_flow_ops();
1383 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1384 : :
1385 : 0 : const int n_intf_no = internals->n_intf_no;
1386 : 0 : struct adapter_info_s *p_adapter_info = &internals->p_drv->ntdrv.adapter_info;
1387 : :
1388 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Port %i", internals->n_intf_no);
1389 : :
1390 : : /* Start queues */
1391 : : uint q;
1392 : :
1393 [ # # ]: 0 : for (q = 0; q < internals->nb_rx_queues; q++)
1394 [ # # ]: 0 : if (!internals->rxq_scg[q].rx_deferred_start)
1395 : 0 : eth_rx_queue_start(eth_dev, q);
1396 : :
1397 [ # # ]: 0 : for (q = 0; q < internals->nb_tx_queues; q++)
1398 [ # # ]: 0 : if (!internals->txq_scg[q].tx_deferred_start)
1399 : 0 : eth_tx_queue_start(eth_dev, q);
1400 : :
1401 [ # # ]: 0 : if (internals->type == PORT_TYPE_VIRTUAL || internals->type == PORT_TYPE_OVERRIDE) {
1402 : 0 : eth_dev->data->dev_link.link_status = RTE_ETH_LINK_UP;
1403 : :
1404 : : } else {
1405 : : /* Enable the port */
1406 : 0 : port_ops->set_adm_state(p_adapter_info, internals->n_intf_no, true);
1407 : :
1408 : : /*
1409 : : * wait for link on port
1410 : : * If application starts sending too soon before FPGA port is ready, garbage is
1411 : : * produced
1412 : : */
1413 : : int loop = 0;
1414 : :
1415 [ # # ]: 0 : while (port_ops->get_link_status(p_adapter_info, n_intf_no) == RTE_ETH_LINK_DOWN) {
1416 : : /* break out after 5 sec */
1417 [ # # ]: 0 : if (++loop >= 50) {
1418 : 0 : NT_LOG_DBGX(DBG, NTNIC,
1419 : : "TIMEOUT No link on port %i (5sec timeout)",
1420 : : internals->n_intf_no);
1421 : 0 : break;
1422 : : }
1423 : :
1424 : 0 : nthw_os_wait_usec(100 * 1000);
1425 : : }
1426 : :
1427 [ # # ]: 0 : if (internals->lpbk_mode) {
1428 [ # # ]: 0 : if (internals->lpbk_mode & 1 << 0) {
1429 : 0 : port_ops->set_loopback_mode(p_adapter_info, n_intf_no,
1430 : : NT_LINK_LOOPBACK_HOST);
1431 : : }
1432 : :
1433 [ # # ]: 0 : if (internals->lpbk_mode & 1 << 1) {
1434 : 0 : port_ops->set_loopback_mode(p_adapter_info, n_intf_no,
1435 : : NT_LINK_LOOPBACK_LINE);
1436 : : }
1437 : : }
1438 : : }
1439 : :
1440 : : return 0;
1441 : : }
1442 : :
1443 : : static int
1444 : 0 : eth_dev_stop(struct rte_eth_dev *eth_dev)
1445 : : {
1446 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1447 : :
1448 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Port %i", internals->n_intf_no);
1449 : :
1450 [ # # ]: 0 : if (internals->type != PORT_TYPE_VIRTUAL) {
1451 : : uint q;
1452 : :
1453 [ # # ]: 0 : for (q = 0; q < internals->nb_rx_queues; q++)
1454 : 0 : eth_rx_queue_stop(eth_dev, q);
1455 : :
1456 [ # # ]: 0 : for (q = 0; q < internals->nb_tx_queues; q++)
1457 : 0 : eth_tx_queue_stop(eth_dev, q);
1458 : : }
1459 : :
1460 : 0 : eth_dev->data->dev_link.link_status = RTE_ETH_LINK_DOWN;
1461 : 0 : return 0;
1462 : : }
1463 : :
1464 : : static int
1465 : 0 : eth_dev_set_link_up(struct rte_eth_dev *eth_dev)
1466 : : {
1467 : 0 : const struct port_ops *port_ops = nthw_get_port_ops();
1468 : :
1469 [ # # ]: 0 : if (port_ops == NULL) {
1470 : 0 : NT_LOG(ERR, NTNIC, "Link management module uninitialized");
1471 : 0 : return -1;
1472 : : }
1473 : :
1474 : 0 : struct pmd_internals *const internals = eth_dev->data->dev_private;
1475 : :
1476 : 0 : struct adapter_info_s *p_adapter_info = &internals->p_drv->ntdrv.adapter_info;
1477 : 0 : const int port = internals->n_intf_no;
1478 : :
1479 [ # # ]: 0 : if (internals->type == PORT_TYPE_VIRTUAL || internals->type == PORT_TYPE_OVERRIDE)
1480 : : return 0;
1481 : :
1482 : : RTE_ASSERT(port >= 0 && port < NUM_ADAPTER_PORTS_MAX);
1483 : :
1484 : 0 : port_ops->set_adm_state(p_adapter_info, port, true);
1485 : :
1486 : 0 : return 0;
1487 : : }
1488 : :
1489 : : static int
1490 : 0 : eth_dev_set_link_down(struct rte_eth_dev *eth_dev)
1491 : : {
1492 : 0 : const struct port_ops *port_ops = nthw_get_port_ops();
1493 : :
1494 [ # # ]: 0 : if (port_ops == NULL) {
1495 : 0 : NT_LOG(ERR, NTNIC, "Link management module uninitialized");
1496 : 0 : return -1;
1497 : : }
1498 : :
1499 : 0 : struct pmd_internals *const internals = eth_dev->data->dev_private;
1500 : :
1501 : 0 : struct adapter_info_s *p_adapter_info = &internals->p_drv->ntdrv.adapter_info;
1502 : 0 : const int port = internals->n_intf_no;
1503 : :
1504 [ # # ]: 0 : if (internals->type == PORT_TYPE_VIRTUAL || internals->type == PORT_TYPE_OVERRIDE)
1505 : : return 0;
1506 : :
1507 : : RTE_ASSERT(port >= 0 && port < NUM_ADAPTER_PORTS_MAX);
1508 : :
1509 : 0 : port_ops->set_link_status(p_adapter_info, port, false);
1510 : :
1511 : 0 : return 0;
1512 : : }
1513 : :
1514 : : static void
1515 : 0 : drv_deinit(struct drv_s *p_drv)
1516 : : {
1517 : 0 : const struct profile_inline_ops *profile_inline_ops = nthw_get_profile_inline_ops();
1518 : :
1519 [ # # ]: 0 : if (profile_inline_ops == NULL) {
1520 : 0 : NT_LOG_DBGX(ERR, NTNIC, "profile_inline module uninitialized");
1521 : 0 : return;
1522 : : }
1523 : :
1524 : 0 : const struct adapter_ops *adapter_ops = nthw_get_adapter_ops();
1525 : :
1526 [ # # ]: 0 : if (adapter_ops == NULL) {
1527 : 0 : NT_LOG(ERR, NTNIC, "Adapter module uninitialized");
1528 : 0 : return;
1529 : : }
1530 : :
1531 [ # # ]: 0 : if (p_drv == NULL)
1532 : : return;
1533 : :
1534 : : ntdrv_4ga_t *p_nt_drv = &p_drv->ntdrv;
1535 : : fpga_info_t *fpga_info = &p_nt_drv->adapter_info.fpga_info;
1536 : :
1537 : : /*
1538 : : * Mark the global pdrv for cleared. Used by some services to terminate.
1539 : : * 1 second to give the services a chance to see the termonation.
1540 : : */
1541 : 0 : clear_pdrv(p_drv);
1542 : 0 : nthw_os_wait_usec(1000000);
1543 : :
1544 : : /* stop statistics service */
1545 : 0 : nthw_service_del(RTE_NTNIC_SERVICE_STAT);
1546 : :
1547 [ # # ]: 0 : if (fpga_info->profile == FPGA_INFO_PROFILE_INLINE) {
1548 : 0 : nthw_service_del(RTE_NTNIC_SERVICE_FLM_UPDATE);
1549 : 0 : profile_inline_ops->flm_free_queues();
1550 : 0 : nthw_service_del(RTE_NTNIC_SERVICE_PORT_0_EVENT);
1551 : 0 : nthw_service_del(RTE_NTNIC_SERVICE_PORT_1_EVENT);
1552 : : /* Free all local flm event queues */
1553 : 0 : nthw_flm_inf_sta_queue_free_all(FLM_INFO_LOCAL);
1554 : : /* Free all remote flm event queues */
1555 : 0 : nthw_flm_inf_sta_queue_free_all(FLM_INFO_REMOTE);
1556 : : /* Free all aged flow event queues */
1557 : 0 : nthw_flm_age_queue_free_all();
1558 : : }
1559 : :
1560 : : /* stop adapter */
1561 : 0 : adapter_ops->deinit(&p_nt_drv->adapter_info);
1562 : :
1563 : : /* clean memory */
1564 : 0 : rte_free(p_drv);
1565 : : p_drv = NULL;
1566 : : }
1567 : :
1568 : : static int
1569 : 0 : eth_dev_close(struct rte_eth_dev *eth_dev)
1570 : : {
1571 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1572 : 0 : struct drv_s *p_drv = internals->p_drv;
1573 : :
1574 [ # # ]: 0 : if (internals->type != PORT_TYPE_VIRTUAL) {
1575 : 0 : struct ntnic_rx_queue *rx_q = internals->rxq_scg;
1576 : 0 : struct ntnic_tx_queue *tx_q = internals->txq_scg;
1577 : :
1578 : : uint q;
1579 : :
1580 [ # # ]: 0 : if (sg_ops != NULL) {
1581 [ # # ]: 0 : for (q = 0; q < internals->nb_rx_queues; q++)
1582 : 0 : sg_ops->nthw_release_mngd_rx_virt_queue(rx_q[q].vq);
1583 : :
1584 [ # # ]: 0 : for (q = 0; q < internals->nb_tx_queues; q++)
1585 : 0 : sg_ops->nthw_release_mngd_tx_virt_queue(tx_q[q].vq);
1586 : : }
1587 : : }
1588 : :
1589 : 0 : internals->p_drv = NULL;
1590 : :
1591 [ # # ]: 0 : if (p_drv) {
1592 : : /* decrease initialized ethernet devices */
1593 : 0 : p_drv->n_eth_dev_init_count--;
1594 : :
1595 : : /*
1596 : : * rte_pci_dev has no private member for p_drv
1597 : : * wait until all rte_eth_dev's are closed - then close adapters via p_drv
1598 : : */
1599 [ # # ]: 0 : if (!p_drv->n_eth_dev_init_count)
1600 : 0 : drv_deinit(p_drv);
1601 : : }
1602 : :
1603 : 0 : return 0;
1604 : : }
1605 : :
1606 : : static int
1607 : 0 : eth_fw_version_get(struct rte_eth_dev *eth_dev, char *fw_version, size_t fw_size)
1608 : : {
1609 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1610 : :
1611 [ # # ]: 0 : if (internals->type == PORT_TYPE_VIRTUAL || internals->type == PORT_TYPE_OVERRIDE)
1612 : : return 0;
1613 : :
1614 : 0 : fpga_info_t *fpga_info = &internals->p_drv->ntdrv.adapter_info.fpga_info;
1615 [ # # ]: 0 : const int length = snprintf(fw_version, fw_size, "%03d-%04d-%02d-%02d",
1616 : : fpga_info->n_fpga_type_id, fpga_info->n_fpga_prod_id,
1617 : : fpga_info->n_fpga_ver_id, fpga_info->n_fpga_rev_id);
1618 : :
1619 [ # # ]: 0 : if ((size_t)length < fw_size) {
1620 : : /* We have space for the version string */
1621 : : return 0;
1622 : :
1623 : : } else {
1624 : : /* We do not have space for the version string -return the needed space */
1625 : 0 : return length + 1;
1626 : : }
1627 : : }
1628 : :
1629 : 0 : static int dev_flow_ops_get(struct rte_eth_dev *dev __rte_unused, const struct rte_flow_ops **ops)
1630 : : {
1631 : 0 : *ops = nthw_get_dev_flow_ops();
1632 : 0 : return 0;
1633 : : }
1634 : :
1635 : 0 : static int eth_xstats_get(struct rte_eth_dev *eth_dev, struct rte_eth_xstat *stats, unsigned int n)
1636 : : {
1637 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1638 : 0 : struct drv_s *p_drv = internals->p_drv;
1639 : : ntdrv_4ga_t *p_nt_drv = &p_drv->ntdrv;
1640 : 0 : nt4ga_stat_t *p_nt4ga_stat = &p_nt_drv->adapter_info.nt4ga_stat;
1641 : 0 : int n_intf_no = internals->n_intf_no;
1642 : : int nb_xstats;
1643 : :
1644 : 0 : const struct ntnic_xstats_ops *ntnic_xstats_ops = nthw_get_xstats_ops();
1645 : :
1646 [ # # ]: 0 : if (ntnic_xstats_ops == NULL) {
1647 : 0 : NT_LOG(INF, NTNIC, "ntnic_xstats module not included");
1648 : 0 : return -1;
1649 : : }
1650 : :
1651 : 0 : rte_spinlock_lock(&p_nt_drv->stat_lck);
1652 : 0 : nb_xstats = ntnic_xstats_ops->nthw_xstats_get(p_nt4ga_stat, stats, n, n_intf_no);
1653 : : rte_spinlock_unlock(&p_nt_drv->stat_lck);
1654 : 0 : return nb_xstats;
1655 : : }
1656 : :
1657 : 0 : static int eth_xstats_get_by_id(struct rte_eth_dev *eth_dev,
1658 : : const uint64_t *ids,
1659 : : uint64_t *values,
1660 : : unsigned int n)
1661 : : {
1662 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1663 : 0 : struct drv_s *p_drv = internals->p_drv;
1664 : : ntdrv_4ga_t *p_nt_drv = &p_drv->ntdrv;
1665 : 0 : nt4ga_stat_t *p_nt4ga_stat = &p_nt_drv->adapter_info.nt4ga_stat;
1666 : 0 : int n_intf_no = internals->n_intf_no;
1667 : : int nb_xstats;
1668 : :
1669 : 0 : const struct ntnic_xstats_ops *ntnic_xstats_ops = nthw_get_xstats_ops();
1670 : :
1671 [ # # ]: 0 : if (ntnic_xstats_ops == NULL) {
1672 : 0 : NT_LOG(INF, NTNIC, "ntnic_xstats module not included");
1673 : 0 : return -1;
1674 : : }
1675 : :
1676 : 0 : rte_spinlock_lock(&p_nt_drv->stat_lck);
1677 : : nb_xstats =
1678 : 0 : ntnic_xstats_ops->nthw_xstats_get_by_id(p_nt4ga_stat, ids, values, n, n_intf_no);
1679 : : rte_spinlock_unlock(&p_nt_drv->stat_lck);
1680 : 0 : return nb_xstats;
1681 : : }
1682 : :
1683 : 0 : static int eth_xstats_reset(struct rte_eth_dev *eth_dev)
1684 : : {
1685 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1686 : 0 : struct drv_s *p_drv = internals->p_drv;
1687 : 0 : ntdrv_4ga_t *p_nt_drv = &p_drv->ntdrv;
1688 : 0 : nt4ga_stat_t *p_nt4ga_stat = &p_nt_drv->adapter_info.nt4ga_stat;
1689 : 0 : int n_intf_no = internals->n_intf_no;
1690 : :
1691 : 0 : struct ntnic_xstats_ops *ntnic_xstats_ops = nthw_get_xstats_ops();
1692 : :
1693 [ # # ]: 0 : if (ntnic_xstats_ops == NULL) {
1694 : 0 : NT_LOG(INF, NTNIC, "ntnic_xstats module not included");
1695 : 0 : return -1;
1696 : : }
1697 : :
1698 : 0 : rte_spinlock_lock(&p_nt_drv->stat_lck);
1699 : 0 : ntnic_xstats_ops->nthw_xstats_reset(p_nt4ga_stat, n_intf_no);
1700 : : rte_spinlock_unlock(&p_nt_drv->stat_lck);
1701 : 0 : return dpdk_stats_reset(internals, p_nt_drv, n_intf_no);
1702 : : }
1703 : :
1704 : 0 : static int eth_xstats_get_names(struct rte_eth_dev *eth_dev,
1705 : : struct rte_eth_xstat_name *xstats_names, unsigned int size)
1706 : : {
1707 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1708 : 0 : struct drv_s *p_drv = internals->p_drv;
1709 : : ntdrv_4ga_t *p_nt_drv = &p_drv->ntdrv;
1710 : 0 : nt4ga_stat_t *p_nt4ga_stat = &p_nt_drv->adapter_info.nt4ga_stat;
1711 : :
1712 : 0 : const struct ntnic_xstats_ops *ntnic_xstats_ops = nthw_get_xstats_ops();
1713 : :
1714 [ # # ]: 0 : if (ntnic_xstats_ops == NULL) {
1715 : 0 : NT_LOG(INF, NTNIC, "ntnic_xstats module not included");
1716 : 0 : return -1;
1717 : : }
1718 : :
1719 : 0 : return ntnic_xstats_ops->nthw_xstats_get_names(p_nt4ga_stat, xstats_names, size);
1720 : : }
1721 : :
1722 : 0 : static int eth_xstats_get_names_by_id(struct rte_eth_dev *eth_dev,
1723 : : const uint64_t *ids,
1724 : : struct rte_eth_xstat_name *xstats_names,
1725 : : unsigned int size)
1726 : : {
1727 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1728 : 0 : struct drv_s *p_drv = internals->p_drv;
1729 : : ntdrv_4ga_t *p_nt_drv = &p_drv->ntdrv;
1730 : 0 : nt4ga_stat_t *p_nt4ga_stat = &p_nt_drv->adapter_info.nt4ga_stat;
1731 : 0 : const struct ntnic_xstats_ops *ntnic_xstats_ops = nthw_get_xstats_ops();
1732 : :
1733 [ # # ]: 0 : if (ntnic_xstats_ops == NULL) {
1734 : 0 : NT_LOG(INF, NTNIC, "ntnic_xstats module not included");
1735 : 0 : return -1;
1736 : : }
1737 : :
1738 : 0 : return ntnic_xstats_ops->nthw_xstats_get_names_by_id(p_nt4ga_stat, xstats_names, ids,
1739 : : size);
1740 : : }
1741 : :
1742 : : static int
1743 : 0 : promiscuous_enable(struct rte_eth_dev __rte_unused(*dev))
1744 : : {
1745 : 0 : NT_LOG(DBG, NTHW, "The device always run promiscuous mode");
1746 : 0 : return 0;
1747 : : }
1748 : :
1749 : 0 : static int eth_dev_rss_hash_update(struct rte_eth_dev *eth_dev, struct rte_eth_rss_conf *rss_conf)
1750 : : {
1751 : 0 : const struct flow_filter_ops *flow_filter_ops = nthw_get_flow_filter_ops();
1752 : :
1753 [ # # ]: 0 : if (flow_filter_ops == NULL) {
1754 : 0 : NT_LOG_DBGX(ERR, NTNIC, "flow_filter module uninitialized");
1755 : 0 : return -1;
1756 : : }
1757 : :
1758 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1759 : :
1760 : 0 : struct flow_nic_dev *ndev = internals->flw_dev->ndev;
1761 : 0 : struct nt_eth_rss_conf tmp_rss_conf = { 0 };
1762 : : const int hsh_idx = 0; /* hsh index 0 means the default receipt in HSH module */
1763 : :
1764 [ # # ]: 0 : if (rss_conf->rss_key != NULL) {
1765 [ # # ]: 0 : if (rss_conf->rss_key_len > MAX_RSS_KEY_LEN) {
1766 : 0 : NT_LOG(ERR, NTNIC,
1767 : : "ERROR: - RSS hash key length %u exceeds maximum value %u",
1768 : : rss_conf->rss_key_len, MAX_RSS_KEY_LEN);
1769 : 0 : return -1;
1770 : : }
1771 : :
1772 [ # # ]: 0 : rte_memcpy(&tmp_rss_conf.rss_key, rss_conf->rss_key, rss_conf->rss_key_len);
1773 : : }
1774 : :
1775 : 0 : tmp_rss_conf.algorithm = rss_conf->algorithm;
1776 : :
1777 : 0 : tmp_rss_conf.rss_hf = rss_conf->rss_hf;
1778 : 0 : int res = nthw_hsh_set(ndev, hsh_idx, tmp_rss_conf);
1779 : :
1780 [ # # ]: 0 : if (res == 0) {
1781 : 0 : flow_filter_ops->nthw_mod_hsh_rcp_flush(&ndev->be, hsh_idx, 1);
1782 [ # # ]: 0 : rte_memcpy(&ndev->rss_conf, &tmp_rss_conf, sizeof(struct nt_eth_rss_conf));
1783 : :
1784 : : } else {
1785 : 0 : NT_LOG(ERR, NTNIC, "ERROR: - RSS hash update failed with error %i", res);
1786 : : }
1787 : :
1788 : : return res;
1789 : : }
1790 : :
1791 : 0 : static int rss_hash_conf_get(struct rte_eth_dev *eth_dev, struct rte_eth_rss_conf *rss_conf)
1792 : : {
1793 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
1794 : 0 : struct flow_nic_dev *ndev = internals->flw_dev->ndev;
1795 : :
1796 : 0 : rss_conf->algorithm = (enum rte_eth_hash_function)ndev->rss_conf.algorithm;
1797 : :
1798 : 0 : rss_conf->rss_hf = ndev->rss_conf.rss_hf;
1799 : :
1800 : : /*
1801 : : * copy full stored key into rss_key and pad it with
1802 : : * zeros up to rss_key_len / MAX_RSS_KEY_LEN
1803 : : */
1804 [ # # ]: 0 : if (rss_conf->rss_key != NULL) {
1805 : 0 : int key_len = RTE_MIN(rss_conf->rss_key_len, MAX_RSS_KEY_LEN);
1806 [ # # ]: 0 : memset(rss_conf->rss_key, 0, rss_conf->rss_key_len);
1807 [ # # ]: 0 : rte_memcpy(rss_conf->rss_key, &ndev->rss_conf.rss_key, key_len);
1808 : 0 : rss_conf->rss_key_len = key_len;
1809 : : }
1810 : :
1811 : 0 : return 0;
1812 : : }
1813 : :
1814 : : static struct eth_dev_ops nthw_eth_dev_ops = {
1815 : : .dev_configure = eth_dev_configure,
1816 : : .dev_start = eth_dev_start,
1817 : : .dev_stop = eth_dev_stop,
1818 : : .dev_set_link_up = eth_dev_set_link_up,
1819 : : .dev_set_link_down = eth_dev_set_link_down,
1820 : : .dev_close = eth_dev_close,
1821 : : .link_update = eth_link_update,
1822 : : .stats_get = eth_stats_get,
1823 : : .stats_reset = eth_stats_reset,
1824 : : .dev_infos_get = eth_dev_infos_get,
1825 : : .fw_version_get = eth_fw_version_get,
1826 : : .rx_queue_setup = eth_rx_scg_queue_setup,
1827 : : .rx_queue_start = eth_rx_queue_start,
1828 : : .rx_queue_stop = eth_rx_queue_stop,
1829 : : .rx_queue_release = eth_rx_queue_release,
1830 : : .tx_queue_setup = eth_tx_scg_queue_setup,
1831 : : .tx_queue_start = eth_tx_queue_start,
1832 : : .tx_queue_stop = eth_tx_queue_stop,
1833 : : .tx_queue_release = eth_tx_queue_release,
1834 : : .mac_addr_add = eth_mac_addr_add,
1835 : : .mac_addr_set = eth_mac_addr_set,
1836 : : .set_mc_addr_list = eth_set_mc_addr_list,
1837 : : .mtr_ops_get = NULL,
1838 : : .flow_ops_get = dev_flow_ops_get,
1839 : : .xstats_get = eth_xstats_get,
1840 : : .xstats_get_names = eth_xstats_get_names,
1841 : : .xstats_reset = eth_xstats_reset,
1842 : : .xstats_get_by_id = eth_xstats_get_by_id,
1843 : : .xstats_get_names_by_id = eth_xstats_get_names_by_id,
1844 : : .mtu_set = NULL,
1845 : : .promiscuous_enable = promiscuous_enable,
1846 : : .rss_hash_update = eth_dev_rss_hash_update,
1847 : : .rss_hash_conf_get = rss_hash_conf_get,
1848 : : };
1849 : :
1850 : : /*
1851 : : * Port event service
1852 : : */
1853 : 0 : static int port_event_service(void *context)
1854 : : {
1855 : : struct pmd_internals *internals = context;
1856 : : RTE_ASSERT(internals != NULL);
1857 : :
1858 : 0 : const uint8_t port_no = internals->port;
1859 [ # # ]: 0 : if (port_no >= NUM_ADAPTER_PORTS_MAX) {
1860 : 0 : NT_LOG(ERR, NTNIC, "Invalid Port number");
1861 : 0 : return -1;
1862 : : }
1863 : :
1864 : : static ntdrv_4ga_t *p_nt_drv[NUM_ADAPTER_PORTS_MAX] = {NULL, NULL};
1865 : : static struct rte_eth_dev *eth_dev[NUM_ADAPTER_PORTS_MAX] = {NULL, NULL};
1866 : : static nt4ga_stat_t *p_nt4ga_stat[NUM_ADAPTER_PORTS_MAX] = {NULL, NULL};
1867 : : static ntnic_flm_load_t flmdata[NUM_ADAPTER_PORTS_MAX];
1868 : : static ntnic_port_load_t portdata[NUM_ADAPTER_PORTS_MAX];
1869 : :
1870 : 0 : const int port_srv_tag[2] = {
1871 : : RTE_NTNIC_SERVICE_PORT_0_EVENT,
1872 : : RTE_NTNIC_SERVICE_PORT_1_EVENT
1873 : : };
1874 : :
1875 : 0 : struct nt_service *port_event_srv = nthw_service_get_info(port_srv_tag[port_no]);
1876 : : RTE_ASSERT(port_event_srv != NULL);
1877 : :
1878 [ # # ]: 0 : if (!NT_SERVICE_GET_STATE(port_event_srv)) {
1879 : 0 : struct drv_s *p_drv = internals->p_drv;
1880 : 0 : p_nt_drv[port_no] = &p_drv->ntdrv;
1881 : : struct adapter_info_s *p_adapter_info = &p_nt_drv[port_no]->adapter_info;
1882 : 0 : struct flow_nic_dev *ndev = p_adapter_info->nt4ga_filter.mp_flow_device;
1883 : 0 : p_nt4ga_stat[port_no] = &p_nt_drv[port_no]->adapter_info.nt4ga_stat;
1884 : 0 : eth_dev[port_no] = &rte_eth_devices[internals->port_id];
1885 [ # # # # ]: 0 : if (ndev != NULL && ndev->eth_base == NULL)
1886 : : return -1;
1887 : :
1888 : : memset(&flmdata, 0, sizeof(flmdata));
1889 : : memset(&portdata, 0, sizeof(portdata));
1890 : :
1891 : :
1892 : 0 : NT_LOG(INF, NTNIC, "port[%u] event service started on lcore %i",
1893 : : port_no, rte_lcore_id());
1894 : 0 : port_event_srv->lcore = rte_lcore_id();
1895 : 0 : NT_SERVICE_SET_STATE(port_event_srv, true);
1896 : 0 : return 0;
1897 : : }
1898 : :
1899 : : /*
1900 : : * FLM load measurement
1901 : : * Do only send event, if there has been a change
1902 : : */
1903 : :
1904 : 0 : nt4ga_stat_t *port_stat = p_nt4ga_stat[port_no];
1905 : : ntnic_flm_load_t *port_flm_load = &flmdata[port_no];
1906 : : ntnic_port_load_t *port_load = &portdata[port_no];
1907 : :
1908 [ # # # # ]: 0 : if (port_stat->flm_stat_ver > 22 && port_stat->mp_stat_structs_flm) {
1909 [ # # ]: 0 : if (port_flm_load->lookup != port_stat->mp_stat_structs_flm->load_lps ||
1910 [ # # ]: 0 : port_flm_load->access != port_stat->mp_stat_structs_flm->load_aps) {
1911 : 0 : rte_spinlock_lock(&p_nt_drv[port_no]->stat_lck);
1912 : 0 : port_flm_load->lookup = port_stat->mp_stat_structs_flm->load_lps;
1913 : 0 : port_flm_load->access = port_stat->mp_stat_structs_flm->load_aps;
1914 : 0 : port_flm_load->lookup_maximum =
1915 : 0 : port_stat->mp_stat_structs_flm->max_lps;
1916 : 0 : port_flm_load->access_maximum =
1917 : 0 : port_stat->mp_stat_structs_flm->max_aps;
1918 : 0 : rte_spinlock_unlock(&p_nt_drv[port_no]->stat_lck);
1919 : :
1920 [ # # ]: 0 : if (eth_dev[port_no] &&
1921 [ # # ]: 0 : eth_dev[port_no]->data &&
1922 [ # # ]: 0 : eth_dev[port_no]->data->dev_private) {
1923 : 0 : rte_eth_dev_callback_process(eth_dev[port_no],
1924 : : (enum rte_eth_event_type)RTE_NTNIC_FLM_LOAD_EVENT,
1925 : : &flmdata);
1926 : : }
1927 : : }
1928 : : }
1929 : :
1930 : : /*
1931 : : * Port load measurement
1932 : : * Do only send event, if there has been a change.
1933 : : */
1934 [ # # ]: 0 : if (port_stat->mp_port_load) {
1935 [ # # ]: 0 : if (port_load->rx_bps != port_stat->mp_port_load[port_no].rx_bps ||
1936 [ # # ]: 0 : port_load->tx_bps != port_stat->mp_port_load[port_no].tx_bps) {
1937 : 0 : rte_spinlock_lock(&p_nt_drv[port_no]->stat_lck);
1938 : 0 : port_load->rx_bps = port_stat->mp_port_load[port_no].rx_bps;
1939 : 0 : port_load->tx_bps = port_stat->mp_port_load[port_no].tx_bps;
1940 : 0 : port_load->rx_pps = port_stat->mp_port_load[port_no].rx_pps;
1941 : 0 : port_load->tx_pps = port_stat->mp_port_load[port_no].tx_pps;
1942 : 0 : port_load->rx_pps_maximum =
1943 : 0 : port_stat->mp_port_load[port_no].rx_pps_max;
1944 : 0 : port_load->tx_pps_maximum =
1945 : 0 : port_stat->mp_port_load[port_no].tx_pps_max;
1946 : 0 : port_load->rx_bps_maximum =
1947 : 0 : port_stat->mp_port_load[port_no].rx_bps_max;
1948 : 0 : port_load->tx_bps_maximum =
1949 : 0 : port_stat->mp_port_load[port_no].tx_bps_max;
1950 : 0 : rte_spinlock_unlock(&p_nt_drv[port_no]->stat_lck);
1951 : :
1952 [ # # # # ]: 0 : if (eth_dev[port_no] && eth_dev[port_no]->data &&
1953 [ # # ]: 0 : eth_dev[port_no]->data->dev_private) {
1954 : 0 : rte_eth_dev_callback_process(eth_dev[port_no],
1955 : : (enum rte_eth_event_type)RTE_NTNIC_PORT_LOAD_EVENT,
1956 : : &portdata);
1957 : : }
1958 : : }
1959 : : }
1960 : :
1961 : : /* Process events */
1962 : : {
1963 : : int count = 0;
1964 : : bool do_wait = true;
1965 : :
1966 [ # # ]: 0 : while (count < 5000) {
1967 : : /* Local FLM statistic events */
1968 : : struct flm_info_event_s data;
1969 : :
1970 [ # # ]: 0 : if (nthw_flm_inf_queue_get(port_no, FLM_INFO_LOCAL, &data) == 0) {
1971 [ # # # # ]: 0 : if (eth_dev[port_no] && eth_dev[port_no]->data &&
1972 [ # # ]: 0 : eth_dev[port_no]->data->dev_private) {
1973 : : struct ntnic_flm_statistic_s event_data;
1974 : 0 : event_data.bytes = data.bytes;
1975 : 0 : event_data.packets = data.packets;
1976 : 0 : event_data.cause = data.cause;
1977 : 0 : event_data.id = data.id;
1978 : 0 : event_data.timestamp = data.timestamp;
1979 : 0 : rte_eth_dev_callback_process(eth_dev[port_no],
1980 : : (enum rte_eth_event_type)
1981 : : RTE_NTNIC_FLM_STATS_EVENT,
1982 : : &event_data);
1983 : : do_wait = false;
1984 : : }
1985 : : }
1986 : :
1987 : : /* AGED event */
1988 : : /* Note: RTE_FLOW_PORT_FLAG_STRICT_QUEUE flag is not supported so
1989 : : * event is always generated
1990 : : */
1991 : 0 : int aged_event_count = nthw_flm_age_event_get(port_no);
1992 : :
1993 [ # # ]: 0 : if (aged_event_count > 0 &&
1994 [ # # ]: 0 : eth_dev[port_no] &&
1995 [ # # ]: 0 : eth_dev[port_no]->data &&
1996 [ # # ]: 0 : eth_dev[port_no]->data->dev_private) {
1997 : 0 : rte_eth_dev_callback_process(eth_dev[port_no],
1998 : : RTE_ETH_EVENT_FLOW_AGED,
1999 : : NULL);
2000 : 0 : nthw_flm_age_event_clear(port_no);
2001 : : do_wait = false;
2002 : : }
2003 : :
2004 [ # # ]: 0 : if (do_wait)
2005 : 0 : nthw_os_wait_usec(10);
2006 : :
2007 : 0 : count++;
2008 : : do_wait = true;
2009 : : }
2010 : : }
2011 : :
2012 : : return 0;
2013 : : }
2014 : :
2015 : : /*
2016 : : * Adapter flm update service
2017 : : */
2018 : 0 : static int adapter_flm_update_service(void *context)
2019 : : {
2020 : : static struct flow_eth_dev *dev;
2021 : : static const struct profile_inline_ops *profile_inline_ops;
2022 : :
2023 : 0 : struct nt_service *flm_update_srv = nthw_service_get_info(RTE_NTNIC_SERVICE_FLM_UPDATE);
2024 : : RTE_ASSERT(flm_update_srv != NULL);
2025 : :
2026 [ # # ]: 0 : if (!NT_SERVICE_GET_STATE(flm_update_srv)) {
2027 : : struct drv_s *p_drv = context;
2028 : : RTE_ASSERT(p_drv != NULL);
2029 : :
2030 : : struct ntdrv_4ga_s *p_nt_drv = &p_drv->ntdrv;
2031 : : struct adapter_info_s *p_adapter_info = &p_nt_drv->adapter_info;
2032 : : struct nt4ga_filter_s *p_nt4ga_filter = &p_adapter_info->nt4ga_filter;
2033 : 0 : struct flow_nic_dev *p_flow_nic_dev = p_nt4ga_filter->mp_flow_device;
2034 : :
2035 : 0 : NT_LOG(DBG, NTNIC, "%s: %s: waiting for port configuration",
2036 : : p_adapter_info->mp_adapter_id_str, __func__);
2037 : :
2038 [ # # ]: 0 : if (p_flow_nic_dev->eth_base == NULL)
2039 : : return -1;
2040 : :
2041 : 0 : dev = p_flow_nic_dev->eth_base;
2042 : :
2043 : 0 : profile_inline_ops = nthw_get_profile_inline_ops();
2044 : : RTE_ASSERT(profile_inline_ops != NULL);
2045 : :
2046 : 0 : NT_LOG(INF, NTNIC, "flm update service started on lcore %i", rte_lcore_id());
2047 : 0 : flm_update_srv->lcore = rte_lcore_id();
2048 : 0 : NT_SERVICE_SET_STATE(flm_update_srv, true);
2049 : 0 : return 0;
2050 : : }
2051 : :
2052 [ # # ]: 0 : if (profile_inline_ops->flm_update(dev) == 0)
2053 : 0 : nthw_os_wait_usec(10);
2054 : :
2055 : : return 0;
2056 : : }
2057 : :
2058 : : /*
2059 : : * Adapter stat service
2060 : : */
2061 : 0 : static int adapter_stat_service(void *context)
2062 : : {
2063 : : static struct ntdrv_4ga_s *p_nt_drv;
2064 : : static nt4ga_stat_t *p_nt4ga_stat;
2065 : : static nthw_stat_t *p_nthw_stat;
2066 : : static const struct nt4ga_stat_ops *nt4ga_stat_ops;
2067 : :
2068 : 0 : struct nt_service *stat_srv = nthw_service_get_info(RTE_NTNIC_SERVICE_STAT);
2069 : : RTE_ASSERT(stat_srv != NULL);
2070 : :
2071 [ # # ]: 0 : if (!NT_SERVICE_GET_STATE(stat_srv)) {
2072 : : struct drv_s *p_drv = context;
2073 : : RTE_ASSERT(p_drv != NULL);
2074 : :
2075 : 0 : nt4ga_stat_ops = nthw_get_nt4ga_stat_ops();
2076 : : RTE_ASSERT(nt4ga_stat_ops != NULL);
2077 : :
2078 : 0 : p_nt_drv = &p_drv->ntdrv;
2079 : 0 : p_nt4ga_stat = &p_nt_drv->adapter_info.nt4ga_stat;
2080 : 0 : p_nthw_stat = p_nt4ga_stat->mp_nthw_stat;
2081 : :
2082 [ # # ]: 0 : if (!p_nthw_stat)
2083 : : return 0;
2084 : :
2085 : 0 : NT_LOG(INF, NTNIC, "statistic service started on lcore %u", rte_lcore_id());
2086 : 0 : stat_srv->lcore = rte_lcore_id();
2087 : 0 : NT_SERVICE_SET_STATE(stat_srv, true);
2088 : 0 : return 0;
2089 : : }
2090 : :
2091 : 0 : nthw_os_wait_usec(10 * 1000);
2092 : :
2093 : 0 : nthw_stat_trigger(p_nthw_stat);
2094 : :
2095 : : uint32_t loop = 0;
2096 : :
2097 [ # # ]: 0 : while (rte_service_runstate_get(stat_srv->id) &&
2098 [ # # ]: 0 : (*p_nthw_stat->mp_timestamp == (uint64_t)-1)) {
2099 : 0 : nthw_os_wait_usec(1 * 100);
2100 : :
2101 [ # # ]: 0 : if ((++loop & 0x3fff) == 0) {
2102 [ # # ]: 0 : if (p_nt4ga_stat->mp_nthw_rpf) {
2103 : 0 : NT_LOG(DBG, NTNIC, "Statistics DMA frozen");
2104 : :
2105 [ # # ]: 0 : } else if (p_nt4ga_stat->mp_nthw_rmc) {
2106 : : uint32_t sf_ram_of =
2107 : 0 : nthw_rmc_get_status_sf_ram_of(p_nt4ga_stat
2108 : : ->mp_nthw_rmc);
2109 : : uint32_t descr_fifo_of =
2110 : 0 : nthw_rmc_get_status_descr_fifo_of(p_nt4ga_stat
2111 : 0 : ->mp_nthw_rmc);
2112 : :
2113 : : uint32_t dbg_merge =
2114 : 0 : nthw_rmc_get_dbg_merge(p_nt4ga_stat->mp_nthw_rmc);
2115 : : uint32_t mac_if_err =
2116 : 0 : nthw_rmc_get_mac_if_err(p_nt4ga_stat->mp_nthw_rmc);
2117 : :
2118 : 0 : NT_LOG(DBG, NTNIC, "Statistics DMA frozen");
2119 : 0 : NT_LOG(DBG, NTNIC, "SF RAM Overflow : %08x",
2120 : : sf_ram_of);
2121 : 0 : NT_LOG(DBG, NTNIC, "Descr Fifo Overflow : %08x",
2122 : : descr_fifo_of);
2123 : 0 : NT_LOG(DBG, NTNIC, "DBG Merge : %08x",
2124 : : dbg_merge);
2125 : 0 : NT_LOG(DBG, NTNIC, "MAC If Errors : %08x",
2126 : : mac_if_err);
2127 : : }
2128 : : }
2129 : : }
2130 : :
2131 : : /* Check then collect */
2132 : : {
2133 : 0 : rte_spinlock_lock(&p_nt_drv->stat_lck);
2134 : 0 : nt4ga_stat_ops->nt4ga_stat_collect(&p_nt_drv->adapter_info, p_nt4ga_stat);
2135 : 0 : rte_spinlock_unlock(&p_nt_drv->stat_lck);
2136 : : }
2137 : :
2138 : 0 : return 0;
2139 : : }
2140 : :
2141 : : static int
2142 : 0 : nthw_pci_dev_init(struct rte_pci_device *pci_dev)
2143 : : {
2144 : 0 : const struct flow_filter_ops *flow_filter_ops = nthw_get_flow_filter_ops();
2145 : :
2146 [ # # ]: 0 : if (flow_filter_ops == NULL) {
2147 : 0 : NT_LOG_DBGX(ERR, NTNIC, "flow_filter module uninitialized");
2148 : : /* Return statement is not necessary here to allow traffic processing by SW */
2149 : : }
2150 : :
2151 : 0 : const struct profile_inline_ops *profile_inline_ops = nthw_get_profile_inline_ops();
2152 : :
2153 [ # # ]: 0 : if (profile_inline_ops == NULL) {
2154 : 0 : NT_LOG_DBGX(ERR, NTNIC, "profile_inline module uninitialized");
2155 : : /* Return statement is not necessary here to allow traffic processing by SW */
2156 : : }
2157 : :
2158 : 0 : nthw_vfio_init();
2159 : 0 : const struct port_ops *port_ops = nthw_get_port_ops();
2160 : :
2161 [ # # ]: 0 : if (port_ops == NULL) {
2162 : 0 : NT_LOG(ERR, NTNIC, "Link management module uninitialized");
2163 : 0 : return -1;
2164 : : }
2165 : :
2166 : 0 : const struct adapter_ops *adapter_ops = nthw_get_adapter_ops();
2167 : :
2168 [ # # ]: 0 : if (adapter_ops == NULL) {
2169 : 0 : NT_LOG(ERR, NTNIC, "Adapter module uninitialized");
2170 : 0 : return -1;
2171 : : }
2172 : :
2173 : : int res;
2174 : : struct drv_s *p_drv;
2175 : : ntdrv_4ga_t *p_nt_drv;
2176 : : hw_info_t *p_hw_info;
2177 : : fpga_info_t *fpga_info;
2178 : : uint32_t n_port_mask = -1; /* All ports enabled by default */
2179 : 0 : uint32_t nb_rx_queues = 1;
2180 : 0 : uint32_t nb_tx_queues = 1;
2181 : 0 : uint32_t exception_path = 0;
2182 : : struct flow_queue_id_s queue_ids[MAX_QUEUES];
2183 : : int n_phy_ports;
2184 : : enum flow_eth_dev_profile profile = FLOW_ETH_DEV_PROFILE_INLINE;
2185 : :
2186 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Dev %s PF #%i Init : %02x:%02x:%i", pci_dev->name,
2187 : : pci_dev->addr.function, pci_dev->addr.bus, pci_dev->addr.devid,
2188 : : pci_dev->addr.function);
2189 : :
2190 : : /*
2191 : : * Process options/arguments
2192 : : */
2193 [ # # # # ]: 0 : if (pci_dev->device.devargs && pci_dev->device.devargs->args) {
2194 : : int kvargs_count;
2195 : : struct rte_kvargs *kvlist =
2196 : 0 : rte_kvargs_parse(pci_dev->device.devargs->args, valid_arguments);
2197 : :
2198 [ # # ]: 0 : if (kvlist == NULL)
2199 : : return -1;
2200 : :
2201 : : /*
2202 : : * Argument: help
2203 : : * NOTE: this argument/option check should be the first as it will stop
2204 : : * execution after producing its output
2205 : : */
2206 : : {
2207 [ # # ]: 0 : if (rte_kvargs_get(kvlist, ETH_DEV_NTNIC_HELP_ARG)) {
2208 : : size_t i;
2209 : :
2210 : : for (i = 0; i < RTE_DIM(valid_arguments); i++)
2211 : : if (valid_arguments[i] == NULL)
2212 : : break;
2213 : :
2214 : 0 : exit(0);
2215 : : }
2216 : : }
2217 : :
2218 : : /*
2219 : : * rxq option/argument
2220 : : * The number of rxq (hostbuffers) allocated in memory.
2221 : : * Default is 32 RX Hostbuffers
2222 : : */
2223 : 0 : kvargs_count = rte_kvargs_count(kvlist, ETH_DEV_NTHW_RXQUEUES_ARG);
2224 : :
2225 [ # # ]: 0 : if (kvargs_count != 0) {
2226 : : RTE_ASSERT(kvargs_count == 1);
2227 : 0 : res = rte_kvargs_process(kvlist, ETH_DEV_NTHW_RXQUEUES_ARG,
2228 : : &nthw_string_to_u32,
2229 : : &nb_rx_queues);
2230 : :
2231 [ # # ]: 0 : if (res < 0) {
2232 : 0 : NT_LOG_DBGX(ERR, NTNIC,
2233 : : "problem with command line arguments: res=%d",
2234 : : res);
2235 : 0 : free(kvlist);
2236 : 0 : return -1;
2237 : : }
2238 : :
2239 : 0 : NT_LOG_DBGX(DBG, NTNIC, "devargs: %s=%u",
2240 : : ETH_DEV_NTHW_RXQUEUES_ARG, nb_rx_queues);
2241 : : }
2242 : :
2243 : : /*
2244 : : * txq option/argument
2245 : : * The number of txq (hostbuffers) allocated in memory.
2246 : : * Default is 32 TX Hostbuffers
2247 : : */
2248 : 0 : kvargs_count = rte_kvargs_count(kvlist, ETH_DEV_NTHW_TXQUEUES_ARG);
2249 : :
2250 [ # # ]: 0 : if (kvargs_count != 0) {
2251 : : RTE_ASSERT(kvargs_count == 1);
2252 : 0 : res = rte_kvargs_process(kvlist, ETH_DEV_NTHW_TXQUEUES_ARG,
2253 : : &nthw_string_to_u32,
2254 : : &nb_tx_queues);
2255 : :
2256 [ # # ]: 0 : if (res < 0) {
2257 : 0 : NT_LOG_DBGX(ERR, NTNIC,
2258 : : "problem with command line arguments: res=%d",
2259 : : res);
2260 : 0 : free(kvlist);
2261 : 0 : return -1;
2262 : : }
2263 : :
2264 : 0 : NT_LOG_DBGX(DBG, NTNIC, "devargs: %s=%u",
2265 : : ETH_DEV_NTHW_TXQUEUES_ARG, nb_tx_queues);
2266 : : }
2267 : :
2268 : 0 : kvargs_count = rte_kvargs_count(kvlist, ETH_DEV_NTHW_EXCEPTION_PATH_ARG);
2269 : :
2270 [ # # ]: 0 : if (kvargs_count != 0) {
2271 [ # # ]: 0 : assert(kvargs_count == 1);
2272 : 0 : res = rte_kvargs_process(kvlist, ETH_DEV_NTHW_EXCEPTION_PATH_ARG,
2273 : : &nthw_string_to_u32, &exception_path);
2274 : :
2275 [ # # ]: 0 : if (res < 0) {
2276 : 0 : NT_LOG_DBGX(ERR, NTNIC,
2277 : : "problem with command line arguments: res=%d", res);
2278 : 0 : return -1;
2279 : : }
2280 : :
2281 : 0 : NT_LOG_DBGX(DBG, NTNIC, "devargs: %s=%u",
2282 : : ETH_DEV_NTHW_EXCEPTION_PATH_ARG, exception_path);
2283 : : }
2284 : :
2285 : 0 : rte_kvargs_free(kvlist);
2286 : : }
2287 : :
2288 : :
2289 : : /* alloc */
2290 : 0 : p_drv = rte_zmalloc_socket(pci_dev->name, sizeof(struct drv_s), RTE_CACHE_LINE_SIZE,
2291 : : pci_dev->device.numa_node);
2292 : :
2293 [ # # ]: 0 : if (!p_drv) {
2294 [ # # ]: 0 : NT_LOG_DBGX(ERR, NTNIC, "%s: error %d",
2295 : : (pci_dev->name[0] ? pci_dev->name : "NA"), -1);
2296 : 0 : return -1;
2297 : : }
2298 : :
2299 : : /* Setup VFIO context */
2300 : 0 : int vfio = nthw_vfio_setup(pci_dev);
2301 : :
2302 [ # # ]: 0 : if (vfio < 0) {
2303 [ # # ]: 0 : NT_LOG_DBGX(ERR, NTNIC, "%s: vfio_setup error %d",
2304 : : (pci_dev->name[0] ? pci_dev->name : "NA"), -1);
2305 : 0 : rte_free(p_drv);
2306 : 0 : return -1;
2307 : : }
2308 : :
2309 : : /* context */
2310 : : p_nt_drv = &p_drv->ntdrv;
2311 : : p_hw_info = &p_nt_drv->adapter_info.hw_info;
2312 : 0 : fpga_info = &p_nt_drv->adapter_info.fpga_info;
2313 : :
2314 : 0 : p_drv->p_dev = pci_dev;
2315 : :
2316 : : /* Set context for NtDrv */
2317 : 0 : p_nt_drv->pciident = BDF_TO_PCIIDENT(pci_dev->addr.domain, pci_dev->addr.bus,
2318 : : pci_dev->addr.devid, pci_dev->addr.function);
2319 : 0 : p_nt_drv->adapter_info.n_rx_host_buffers = nb_rx_queues;
2320 : 0 : p_nt_drv->adapter_info.n_tx_host_buffers = nb_tx_queues;
2321 : :
2322 : 0 : fpga_info->bar0_addr = (void *)pci_dev->mem_resource[0].addr;
2323 : 0 : fpga_info->bar0_size = pci_dev->mem_resource[0].len;
2324 : 0 : fpga_info->numa_node = pci_dev->device.numa_node;
2325 : 0 : fpga_info->pciident = p_nt_drv->pciident;
2326 : 0 : fpga_info->adapter_no = p_drv->adapter_no;
2327 : :
2328 : 0 : p_nt_drv->adapter_info.hw_info.pci_class_id = pci_dev->id.class_id;
2329 : 0 : p_nt_drv->adapter_info.hw_info.pci_vendor_id = pci_dev->id.vendor_id;
2330 : 0 : p_nt_drv->adapter_info.hw_info.pci_device_id = pci_dev->id.device_id;
2331 : 0 : p_nt_drv->adapter_info.hw_info.pci_sub_vendor_id = pci_dev->id.subsystem_vendor_id;
2332 : 0 : p_nt_drv->adapter_info.hw_info.pci_sub_device_id = pci_dev->id.subsystem_device_id;
2333 : :
2334 : 0 : NT_LOG(DBG, NTNIC, "%s: " PCIIDENT_PRINT_STR " %04X:%04X: %04X:%04X:",
2335 : : p_nt_drv->adapter_info.mp_adapter_id_str, PCIIDENT_TO_DOMAIN(p_nt_drv->pciident),
2336 : : PCIIDENT_TO_BUSNR(p_nt_drv->pciident), PCIIDENT_TO_DEVNR(p_nt_drv->pciident),
2337 : : PCIIDENT_TO_FUNCNR(p_nt_drv->pciident),
2338 : : p_nt_drv->adapter_info.hw_info.pci_vendor_id,
2339 : : p_nt_drv->adapter_info.hw_info.pci_device_id,
2340 : : p_nt_drv->adapter_info.hw_info.pci_sub_vendor_id,
2341 : : p_nt_drv->adapter_info.hw_info.pci_sub_device_id);
2342 : :
2343 : : /* store context */
2344 : 0 : store_pdrv(p_drv);
2345 : :
2346 : : /* initialize nt4ga nthw fpga module instance in drv */
2347 : 0 : int err = adapter_ops->init(&p_nt_drv->adapter_info);
2348 : :
2349 [ # # ]: 0 : if (err != 0) {
2350 : 0 : NT_LOG(ERR, NTNIC, "%s: Cannot initialize the adapter instance",
2351 : : p_nt_drv->adapter_info.mp_adapter_id_str);
2352 : 0 : return -1;
2353 : : }
2354 : :
2355 : 0 : const struct meter_ops_s *meter_ops = nthw_get_meter_ops();
2356 : :
2357 [ # # ]: 0 : if (meter_ops != NULL)
2358 : 0 : nthw_eth_dev_ops.mtr_ops_get = meter_ops->eth_mtr_ops_get;
2359 : :
2360 : : else
2361 : 0 : NT_LOG(DBG, NTNIC, "Meter module is not initialized");
2362 : :
2363 : : /* Initialize the queue system */
2364 : 0 : sg_ops = nthw_get_sg_ops();
2365 : :
2366 [ # # ]: 0 : if (sg_ops != NULL) {
2367 : 0 : err = sg_ops->nthw_virt_queue_init(fpga_info);
2368 : :
2369 [ # # ]: 0 : if (err != 0) {
2370 : 0 : NT_LOG(ERR, NTNIC,
2371 : : "%s: Cannot initialize scatter-gather queues",
2372 : : p_nt_drv->adapter_info.mp_adapter_id_str);
2373 : :
2374 : : } else {
2375 : 0 : NT_LOG(DBG, NTNIC, "%s: Initialized scatter-gather queues",
2376 : : p_nt_drv->adapter_info.mp_adapter_id_str);
2377 : : }
2378 : :
2379 : : } else {
2380 : 0 : NT_LOG_DBGX(DBG, NTNIC, "SG module is not initialized");
2381 : : }
2382 : :
2383 : : /* Start ctrl, monitor, stat service only for primary process. */
2384 [ # # ]: 0 : if (err == 0) {
2385 : : /* mp_adapter_id_str is initialized after nt4ga_adapter_init(p_nt_drv) */
2386 : 0 : const char *const p_adapter_id_str = p_nt_drv->adapter_info.mp_adapter_id_str;
2387 : : (void)p_adapter_id_str;
2388 [ # # ]: 0 : NT_LOG(DBG, NTNIC,
2389 : : "%s: %s: AdapterPCI=" PCIIDENT_PRINT_STR " Hw=0x%02X_rev%d PhyPorts=%d",
2390 : : (pci_dev->name[0] ? pci_dev->name : "NA"), p_adapter_id_str,
2391 : : PCIIDENT_TO_DOMAIN(p_nt_drv->adapter_info.fpga_info.pciident),
2392 : : PCIIDENT_TO_BUSNR(p_nt_drv->adapter_info.fpga_info.pciident),
2393 : : PCIIDENT_TO_DEVNR(p_nt_drv->adapter_info.fpga_info.pciident),
2394 : : PCIIDENT_TO_FUNCNR(p_nt_drv->adapter_info.fpga_info.pciident),
2395 : : p_hw_info->hw_platform_id, fpga_info->nthw_hw_info.hw_id,
2396 : : fpga_info->n_phy_ports);
2397 : :
2398 : : } else {
2399 [ # # ]: 0 : NT_LOG_DBGX(ERR, NTNIC, "%s: error=%d",
2400 : : (pci_dev->name[0] ? pci_dev->name : "NA"), err);
2401 : 0 : return -1;
2402 : : }
2403 : :
2404 [ # # # # ]: 0 : if (profile_inline_ops != NULL && fpga_info->profile == FPGA_INFO_PROFILE_INLINE) {
2405 : 0 : profile_inline_ops->flm_setup_queues();
2406 : :
2407 : 0 : struct rte_service_spec flm_update_spec = {
2408 : : .name = "ntnic-flm_update_service",
2409 : : .callback = adapter_flm_update_service,
2410 : : .socket_id = SOCKET_ID_ANY,
2411 : : .capabilities = RTE_SERVICE_CAP_MT_SAFE,
2412 : : .callback_userdata = p_drv
2413 : : };
2414 : :
2415 : 0 : res = nthw_service_add(&flm_update_spec, RTE_NTNIC_SERVICE_FLM_UPDATE);
2416 : :
2417 [ # # ]: 0 : if (res) {
2418 [ # # ]: 0 : NT_LOG_DBGX(ERR, NTNIC, "%s: error=%d",
2419 : : (pci_dev->name[0] ? pci_dev->name : "NA"), res);
2420 : 0 : return -1;
2421 : : }
2422 : : }
2423 : :
2424 : 0 : struct rte_service_spec stat_spec = {
2425 : : .name = "ntnic-stat_collect_service",
2426 : : .callback = adapter_stat_service,
2427 : : .socket_id = SOCKET_ID_ANY,
2428 : : .capabilities = RTE_SERVICE_CAP_MT_SAFE,
2429 : : .callback_userdata = p_drv
2430 : : };
2431 : :
2432 : 0 : res = nthw_service_add(&stat_spec, RTE_NTNIC_SERVICE_STAT);
2433 : :
2434 [ # # ]: 0 : if (res) {
2435 [ # # ]: 0 : NT_LOG(ERR, NTNIC, "%s: error=%d",
2436 : : (pci_dev->name[0] ? pci_dev->name : "NA"), res);
2437 : 0 : return -1;
2438 : : }
2439 : :
2440 : 0 : n_phy_ports = fpga_info->n_phy_ports;
2441 : :
2442 [ # # ]: 0 : for (int n_intf_no = 0; n_intf_no < n_phy_ports; n_intf_no++) {
2443 [ # # ]: 0 : const char *const p_port_id_str = p_nt_drv->adapter_info.mp_port_id_str[n_intf_no];
2444 : : (void)p_port_id_str;
2445 : : struct pmd_internals *internals = NULL;
2446 : : struct rte_eth_dev *eth_dev = NULL;
2447 : : char name[32];
2448 : : int i;
2449 : :
2450 : : if ((1 << n_intf_no) & ~n_port_mask) {
2451 : : NT_LOG_DBGX(DBG, NTNIC,
2452 : : "%s: interface #%d: skipping due to portmask 0x%02X",
2453 : : p_port_id_str, n_intf_no, n_port_mask);
2454 : : continue;
2455 : : }
2456 : :
2457 : : snprintf(name, sizeof(name), "ntnic%d", n_intf_no);
2458 [ # # ]: 0 : NT_LOG_DBGX(DBG, NTNIC, "%s: interface #%d: %s: '%s'", p_port_id_str,
2459 : : n_intf_no, (pci_dev->name[0] ? pci_dev->name : "NA"), name);
2460 : :
2461 : 0 : internals = rte_zmalloc_socket(name, sizeof(struct pmd_internals),
2462 : : RTE_CACHE_LINE_SIZE, pci_dev->device.numa_node);
2463 : :
2464 [ # # ]: 0 : if (!internals) {
2465 [ # # ]: 0 : NT_LOG_DBGX(ERR, NTNIC, "%s: %s: error=%d",
2466 : : (pci_dev->name[0] ? pci_dev->name : "NA"), name, -1);
2467 : 0 : return -1;
2468 : : }
2469 : :
2470 : 0 : internals->pci_dev = pci_dev;
2471 : 0 : internals->n_intf_no = n_intf_no;
2472 : 0 : internals->type = PORT_TYPE_PHYSICAL;
2473 : 0 : internals->port = n_intf_no;
2474 : 0 : internals->nb_rx_queues = nb_rx_queues;
2475 : 0 : internals->nb_tx_queues = nb_tx_queues;
2476 : :
2477 : : /* Not used queue index as dest port in bypass - use 0x80 + port nr */
2478 [ # # ]: 0 : for (i = 0; i < MAX_QUEUES; i++)
2479 : 0 : internals->vpq[i].hw_id = -1;
2480 : :
2481 : :
2482 : : /* Setup queue_ids */
2483 [ # # ]: 0 : if (nb_rx_queues > 1) {
2484 : 0 : NT_LOG(DBG, NTNIC,
2485 : : "(%i) NTNIC configured with Rx multi queues. %" PRIu32 " queues",
2486 : : internals->n_intf_no, nb_rx_queues);
2487 : : }
2488 : :
2489 [ # # ]: 0 : if (nb_tx_queues > 1) {
2490 : 0 : NT_LOG(DBG, NTNIC,
2491 : : "(%i) NTNIC configured with Tx multi queues. %" PRIu32 " queues",
2492 : : internals->n_intf_no, nb_tx_queues);
2493 : : }
2494 : :
2495 : 0 : int max_num_queues = (nb_rx_queues > nb_tx_queues) ? nb_rx_queues : nb_tx_queues;
2496 : 0 : int start_queue = allocate_queue(max_num_queues);
2497 : :
2498 [ # # ]: 0 : if (start_queue < 0)
2499 : : return -1;
2500 : :
2501 [ # # ]: 0 : for (i = 0; i < (int)max_num_queues; i++) {
2502 : 0 : queue_ids[i].id = i;
2503 : 0 : queue_ids[i].hw_id = start_queue + i;
2504 : :
2505 : 0 : internals->rxq_scg[i].queue = queue_ids[i];
2506 : : /* use same index in Rx and Tx rings */
2507 : 0 : internals->txq_scg[i].queue = queue_ids[i];
2508 : 0 : internals->rxq_scg[i].enabled = 0;
2509 : 0 : internals->txq_scg[i].type = internals->type;
2510 : 0 : internals->rxq_scg[i].type = internals->type;
2511 : 0 : internals->rxq_scg[i].port = internals->port;
2512 : : }
2513 : :
2514 : : /* no tx queues - tx data goes out on phy */
2515 : 0 : internals->vpq_nb_vq = 0;
2516 : :
2517 [ # # ]: 0 : for (i = 0; i < (int)nb_tx_queues; i++) {
2518 : 0 : internals->txq_scg[i].port = internals->port;
2519 : 0 : internals->txq_scg[i].enabled = 0;
2520 : : }
2521 : :
2522 : : /* Set MAC address (but only if the MAC address is permitted) */
2523 [ # # ]: 0 : if (n_intf_no < fpga_info->nthw_hw_info.vpd_info.mn_mac_addr_count) {
2524 : 0 : const uint64_t mac =
2525 : 0 : fpga_info->nthw_hw_info.vpd_info.mn_mac_addr_value + n_intf_no;
2526 : 0 : internals->eth_addrs[0].addr_bytes[0] = (mac >> 40) & 0xFFu;
2527 : 0 : internals->eth_addrs[0].addr_bytes[1] = (mac >> 32) & 0xFFu;
2528 : 0 : internals->eth_addrs[0].addr_bytes[2] = (mac >> 24) & 0xFFu;
2529 : 0 : internals->eth_addrs[0].addr_bytes[3] = (mac >> 16) & 0xFFu;
2530 : 0 : internals->eth_addrs[0].addr_bytes[4] = (mac >> 8) & 0xFFu;
2531 : 0 : internals->eth_addrs[0].addr_bytes[5] = (mac >> 0) & 0xFFu;
2532 : : }
2533 : :
2534 : 0 : eth_dev = rte_eth_dev_allocate(name);
2535 : :
2536 [ # # ]: 0 : if (!eth_dev) {
2537 [ # # ]: 0 : NT_LOG_DBGX(ERR, NTNIC, "%s: %s: error=%d",
2538 : : (pci_dev->name[0] ? pci_dev->name : "NA"), name, -1);
2539 : 0 : return -1;
2540 : : }
2541 : :
2542 [ # # ]: 0 : if (flow_filter_ops != NULL) {
2543 : 0 : internals->flw_dev = flow_filter_ops->flow_get_eth_dev(0, n_intf_no,
2544 : 0 : eth_dev->data->port_id, nb_rx_queues, queue_ids,
2545 : : &internals->txq_scg[0].rss_target_id, profile, exception_path);
2546 : :
2547 [ # # ]: 0 : if (!internals->flw_dev) {
2548 : 0 : NT_LOG(ERR, NTNIC,
2549 : : "Error creating port. Resource exhaustion in HW");
2550 : 0 : return -1;
2551 : : }
2552 : : }
2553 : :
2554 : : /* connect structs */
2555 : 0 : internals->p_drv = p_drv;
2556 : 0 : eth_dev->data->dev_private = internals;
2557 : 0 : eth_dev->data->mac_addrs = rte_malloc(NULL,
2558 : : NUM_MAC_ADDRS_PER_PORT * sizeof(struct rte_ether_addr), 0);
2559 : 0 : rte_memcpy(ð_dev->data->mac_addrs[0],
2560 [ # # ]: 0 : &internals->eth_addrs[0], RTE_ETHER_ADDR_LEN);
2561 : :
2562 : 0 : NT_LOG_DBGX(DBG, NTNIC, "Setting up RX functions for SCG");
2563 : 0 : eth_dev->rx_pkt_burst = eth_dev_rx_scg;
2564 : 0 : eth_dev->tx_pkt_burst = eth_dev_tx_scg;
2565 : 0 : eth_dev->tx_pkt_prepare = NULL;
2566 : :
2567 : : struct rte_eth_link pmd_link;
2568 : : pmd_link.link_speed = RTE_ETH_SPEED_NUM_NONE;
2569 : : pmd_link.link_duplex = RTE_ETH_LINK_FULL_DUPLEX;
2570 : : pmd_link.link_status = RTE_ETH_LINK_DOWN;
2571 : : pmd_link.link_autoneg = RTE_ETH_LINK_AUTONEG;
2572 : :
2573 : 0 : eth_dev->device = &pci_dev->device;
2574 : 0 : eth_dev->data->dev_link = pmd_link;
2575 : 0 : eth_dev->dev_ops = &nthw_eth_dev_ops;
2576 : :
2577 : : eth_dev_pci_specific_init(eth_dev, pci_dev);
2578 : 0 : rte_eth_dev_probing_finish(eth_dev);
2579 : :
2580 : : /* increase initialized ethernet devices - PF */
2581 : 0 : p_drv->n_eth_dev_init_count++;
2582 : :
2583 [ # # ]: 0 : if (nthw_get_flow_filter_ops() != NULL) {
2584 [ # # ]: 0 : if (fpga_info->profile == FPGA_INFO_PROFILE_INLINE &&
2585 [ # # ]: 0 : internals->flw_dev->ndev->be.tpe.ver >= 2) {
2586 : : RTE_ASSERT(nthw_eth_dev_ops.mtu_set == dev_set_mtu_inline ||
2587 : : nthw_eth_dev_ops.mtu_set == NULL);
2588 : 0 : nthw_eth_dev_ops.mtu_set = dev_set_mtu_inline;
2589 : 0 : dev_set_mtu_inline(eth_dev, MTUINITVAL);
2590 : 0 : NT_LOG_DBGX(DBG, NTNIC, "INLINE MTU supported, tpe version %d",
2591 : : internals->flw_dev->ndev->be.tpe.ver);
2592 : :
2593 : : } else {
2594 : 0 : NT_LOG(DBG, NTNIC, "INLINE MTU not supported");
2595 : : }
2596 : : }
2597 : :
2598 : : /* Port event service */
2599 [ # # ]: 0 : if (fpga_info->profile == FPGA_INFO_PROFILE_INLINE) {
2600 : 0 : struct rte_service_spec port_event_spec = {
2601 : : .callback = port_event_service,
2602 : : .socket_id = SOCKET_ID_ANY,
2603 : : .capabilities = RTE_SERVICE_CAP_MT_SAFE,
2604 : : .callback_userdata = internals
2605 : : };
2606 : :
2607 : : snprintf(port_event_spec.name, RTE_SERVICE_NAME_MAX,
2608 : : "ntnic-port_%d_event_service", n_intf_no);
2609 : :
2610 : 0 : const int port_srv_tag[2] = {
2611 : : RTE_NTNIC_SERVICE_PORT_0_EVENT,
2612 : : RTE_NTNIC_SERVICE_PORT_1_EVENT
2613 : : };
2614 : :
2615 : 0 : res = nthw_service_add(&port_event_spec, port_srv_tag[n_intf_no]);
2616 : :
2617 [ # # ]: 0 : if (res) {
2618 [ # # ]: 0 : NT_LOG(ERR, NTNIC, "%s: error=%d",
2619 : : (pci_dev->name[0] ? pci_dev->name : "NA"), res);
2620 : 0 : return -1;
2621 : : }
2622 : : }
2623 : : }
2624 : :
2625 : 0 : uint32_t cores[RTE_MAX_LCORE] = {0};
2626 : 0 : int32_t lcore_count = rte_service_lcore_list(cores, RTE_MAX_LCORE);
2627 : :
2628 [ # # ]: 0 : if (lcore_count <= 0) {
2629 : 0 : NT_LOG(WRN, NTNIC, "No service cores available. "
2630 : : "Please check if all NTNIC services are started");
2631 : : }
2632 : :
2633 : : return 0;
2634 : : }
2635 : :
2636 : : static int
2637 : 0 : nthw_pci_dev_deinit(struct rte_eth_dev *eth_dev __rte_unused)
2638 : : {
2639 : 0 : NT_LOG_DBGX(DBG, NTNIC, "PCI device deinitialization");
2640 : :
2641 : : int i;
2642 : : char name[RTE_ETH_NAME_MAX_LEN];
2643 : :
2644 : 0 : struct pmd_internals *internals = eth_dev->data->dev_private;
2645 : 0 : ntdrv_4ga_t *p_ntdrv = &internals->p_drv->ntdrv;
2646 : : fpga_info_t *fpga_info = &p_ntdrv->adapter_info.fpga_info;
2647 : 0 : const int n_phy_ports = fpga_info->n_phy_ports;
2648 : :
2649 : : /* let running services end Rx and Tx activity */
2650 [ # # ]: 0 : if (sg_ops != NULL) {
2651 : 0 : nthw_os_wait_usec(1 * 1000 * 1000);
2652 : :
2653 [ # # ]: 0 : while (internals) {
2654 [ # # ]: 0 : for (i = internals->nb_tx_queues - 1; i >= 0; i--) {
2655 : 0 : sg_ops->nthw_release_mngd_tx_virt_queue(internals->txq_scg[i].vq);
2656 : : release_hw_virtio_queues(&internals->txq_scg[i].hwq);
2657 : : }
2658 : :
2659 [ # # ]: 0 : for (i = internals->nb_rx_queues - 1; i >= 0; i--) {
2660 : 0 : sg_ops->nthw_release_mngd_rx_virt_queue(internals->rxq_scg[i].vq);
2661 : : release_hw_virtio_queues(&internals->rxq_scg[i].hwq);
2662 : : }
2663 : :
2664 : 0 : internals = internals->next;
2665 : : }
2666 : : }
2667 : :
2668 [ # # ]: 0 : for (i = 0; i < n_phy_ports; i++) {
2669 : : snprintf(name, sizeof(name), "ntnic%d", i);
2670 : 0 : eth_dev = rte_eth_dev_allocated(name);
2671 [ # # ]: 0 : if (eth_dev == NULL)
2672 : 0 : continue; /* port already released */
2673 : 0 : rte_eth_dev_release_port(eth_dev);
2674 : : }
2675 : :
2676 : 0 : nthw_vfio_remove(EXCEPTION_PATH_HID);
2677 : 0 : return 0;
2678 : : }
2679 : :
2680 : : static int
2681 : 0 : nthw_pci_probe(struct rte_pci_driver *pci_drv __rte_unused,
2682 : : struct rte_pci_device *pci_dev)
2683 : : {
2684 : : int ret;
2685 : :
2686 : 0 : NT_LOG_DBGX(DBG, NTNIC, "pcidev: name: '%s'", pci_dev->name);
2687 : 0 : NT_LOG_DBGX(DBG, NTNIC, "devargs: name: '%s'", pci_dev->device.name);
2688 : :
2689 [ # # ]: 0 : if (pci_dev->device.devargs) {
2690 [ # # ]: 0 : NT_LOG_DBGX(DBG, NTNIC, "devargs: args: '%s'",
2691 : : (pci_dev->device.devargs->args ? pci_dev->device.devargs->args : "NULL"));
2692 [ # # ]: 0 : NT_LOG_DBGX(DBG, NTNIC, "devargs: data: '%s'",
2693 : : (pci_dev->device.devargs->data ? pci_dev->device.devargs->data : "NULL"));
2694 : : }
2695 : :
2696 : 0 : const int n_rte_vfio_no_io_mmu_enabled = rte_vfio_noiommu_is_enabled();
2697 : 0 : NT_LOG(DBG, NTNIC, "vfio_no_iommu_enabled=%d", n_rte_vfio_no_io_mmu_enabled);
2698 : :
2699 [ # # ]: 0 : if (n_rte_vfio_no_io_mmu_enabled) {
2700 : 0 : NT_LOG(ERR, NTNIC, "vfio_no_iommu_enabled=%d: this PMD needs VFIO IOMMU",
2701 : : n_rte_vfio_no_io_mmu_enabled);
2702 : 0 : return -1;
2703 : : }
2704 : :
2705 : 0 : const enum rte_iova_mode n_rte_io_va_mode = rte_eal_iova_mode();
2706 : 0 : NT_LOG(DBG, NTNIC, "iova mode=%d", n_rte_io_va_mode);
2707 : :
2708 [ # # # # : 0 : NT_LOG(DBG, NTNIC,
# # ]
2709 : : "busid=" PCI_PRI_FMT
2710 : : " pciid=%04x:%04x_%04x:%04x locstr=%s @ numanode=%d: drv=%s drvalias=%s",
2711 : : pci_dev->addr.domain, pci_dev->addr.bus, pci_dev->addr.devid,
2712 : : pci_dev->addr.function, pci_dev->id.vendor_id, pci_dev->id.device_id,
2713 : : pci_dev->id.subsystem_vendor_id, pci_dev->id.subsystem_device_id,
2714 : : pci_dev->name[0] ? pci_dev->name : "NA",
2715 : : pci_dev->device.numa_node,
2716 : : pci_dev->driver->driver.name ? pci_dev->driver->driver.name : "NA",
2717 : : pci_dev->driver->driver.alias ? pci_dev->driver->driver.alias : "NA");
2718 : :
2719 : :
2720 : 0 : ret = nthw_pci_dev_init(pci_dev);
2721 : :
2722 : : /*
2723 : : * 1 time calculation of 1 sec stat update rtc cycles to prevent stat poll
2724 : : * flooding by OVS from multiple virtual port services - no need to be precise
2725 : : */
2726 : : uint64_t now_rtc = rte_get_tsc_cycles();
2727 : 0 : nthw_os_wait_usec(10 * 1000);
2728 : 0 : nthw_tsc_freq = 100 * (rte_get_tsc_cycles() - now_rtc);
2729 : :
2730 : 0 : NT_LOG_DBGX(DBG, NTNIC, "leave: ret=%d", ret);
2731 : 0 : return ret;
2732 : : }
2733 : :
2734 : : static int
2735 : 0 : nthw_pci_remove(struct rte_pci_device *pci_dev)
2736 : : {
2737 : 0 : NT_LOG_DBGX(DBG, NTNIC);
2738 : :
2739 : 0 : struct drv_s *p_drv = get_pdrv_from_pci(pci_dev->addr);
2740 : 0 : drv_deinit(p_drv);
2741 : :
2742 : 0 : return rte_eth_dev_pci_generic_remove(pci_dev, nthw_pci_dev_deinit);
2743 : : }
2744 : :
2745 : : static struct rte_pci_driver rte_nthw_pmd = {
2746 : : .id_table = nthw_pci_id_map,
2747 : : .drv_flags = RTE_PCI_DRV_NEED_MAPPING,
2748 : : .probe = nthw_pci_probe,
2749 : : .remove = nthw_pci_remove,
2750 : : };
2751 : :
2752 : 253 : RTE_PMD_REGISTER_PCI(net_ntnic, rte_nthw_pmd);
2753 : : RTE_PMD_REGISTER_PCI_TABLE(net_ntnic, nthw_pci_id_map);
2754 : : RTE_PMD_REGISTER_KMOD_DEP(net_ntnic, "* vfio-pci");
2755 : :
2756 [ - + ]: 253 : RTE_LOG_REGISTER_SUFFIX(nthw_logtype_general, general, INFO);
2757 [ - + ]: 253 : RTE_LOG_REGISTER_SUFFIX(nthw_logtype_nthw, nthw, INFO);
2758 [ - + ]: 253 : RTE_LOG_REGISTER_SUFFIX(nthw_logtype_filter, filter, INFO);
2759 [ - + ]: 253 : RTE_LOG_REGISTER_SUFFIX(nthw_logtype_ntnic, ntnic, INFO);
|