Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright(C) 2024 Marvell.
3 : : */
4 : : #include "cn20k_ethdev.h"
5 : : #include "cn20k_rx.h"
6 : : #include "cn20k_tx.h"
7 : :
8 : : static uint16_t
9 [ # # ]: 0 : nix_rx_offload_flags(struct rte_eth_dev *eth_dev)
10 : : {
11 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
12 : : struct rte_eth_dev_data *data = eth_dev->data;
13 : : struct rte_eth_conf *conf = &data->dev_conf;
14 : : struct rte_eth_rxmode *rxmode = &conf->rxmode;
15 : : uint16_t flags = 0;
16 : :
17 [ # # ]: 0 : if (rxmode->mq_mode == RTE_ETH_MQ_RX_RSS &&
18 [ # # ]: 0 : (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_RSS_HASH))
19 : : flags |= NIX_RX_OFFLOAD_RSS_F;
20 : :
21 [ # # ]: 0 : if (dev->rx_offloads & (RTE_ETH_RX_OFFLOAD_TCP_CKSUM | RTE_ETH_RX_OFFLOAD_UDP_CKSUM))
22 : 0 : flags |= NIX_RX_OFFLOAD_CHECKSUM_F;
23 : :
24 [ # # ]: 0 : if (dev->rx_offloads &
25 : : (RTE_ETH_RX_OFFLOAD_IPV4_CKSUM | RTE_ETH_RX_OFFLOAD_OUTER_IPV4_CKSUM))
26 : 0 : flags |= NIX_RX_OFFLOAD_CHECKSUM_F;
27 : :
28 [ # # ]: 0 : if (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SCATTER)
29 : 0 : flags |= NIX_RX_MULTI_SEG_F;
30 : :
31 [ # # ]: 0 : if ((dev->rx_offloads & RTE_ETH_RX_OFFLOAD_TIMESTAMP))
32 : 0 : flags |= NIX_RX_OFFLOAD_TSTAMP_F;
33 : :
34 [ # # ]: 0 : if (!dev->ptype_disable)
35 : 0 : flags |= NIX_RX_OFFLOAD_PTYPE_F;
36 : :
37 [ # # ]: 0 : if (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY)
38 : 0 : flags |= NIX_RX_OFFLOAD_SECURITY_F;
39 : :
40 : 0 : return flags;
41 : : }
42 : :
43 : : static uint16_t
44 [ # # ]: 0 : nix_tx_offload_flags(struct rte_eth_dev *eth_dev)
45 : : {
46 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
47 : 0 : uint64_t conf = dev->tx_offloads;
48 : : struct roc_nix *nix = &dev->nix;
49 : : uint16_t flags = 0;
50 : :
51 : : /* Fastpath is dependent on these enums */
52 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_TCP_CKSUM != (1ULL << 52));
53 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_SCTP_CKSUM != (2ULL << 52));
54 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_UDP_CKSUM != (3ULL << 52));
55 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_IP_CKSUM != (1ULL << 54));
56 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_IPV4 != (1ULL << 55));
57 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_IP_CKSUM != (1ULL << 58));
58 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_IPV4 != (1ULL << 59));
59 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_IPV6 != (1ULL << 60));
60 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_UDP_CKSUM != (1ULL << 41));
61 : : RTE_BUILD_BUG_ON(RTE_MBUF_L2_LEN_BITS != 7);
62 : : RTE_BUILD_BUG_ON(RTE_MBUF_L3_LEN_BITS != 9);
63 : : RTE_BUILD_BUG_ON(RTE_MBUF_OUTL2_LEN_BITS != 7);
64 : : RTE_BUILD_BUG_ON(RTE_MBUF_OUTL3_LEN_BITS != 9);
65 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, data_off) !=
66 : : offsetof(struct rte_mbuf, buf_addr) + 16);
67 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, ol_flags) !=
68 : : offsetof(struct rte_mbuf, buf_addr) + 24);
69 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, pkt_len) !=
70 : : offsetof(struct rte_mbuf, ol_flags) + 12);
71 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, tx_offload) !=
72 : : offsetof(struct rte_mbuf, pool) + 2 * sizeof(void *));
73 : :
74 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_VLAN_INSERT || conf & RTE_ETH_TX_OFFLOAD_QINQ_INSERT)
75 : : flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
76 : :
77 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_OUTER_IPV4_CKSUM || conf & RTE_ETH_TX_OFFLOAD_OUTER_UDP_CKSUM)
78 : 0 : flags |= NIX_TX_OFFLOAD_OL3_OL4_CSUM_F;
79 : :
80 : 0 : if (conf & RTE_ETH_TX_OFFLOAD_IPV4_CKSUM || conf & RTE_ETH_TX_OFFLOAD_TCP_CKSUM ||
81 [ # # ]: 0 : conf & RTE_ETH_TX_OFFLOAD_UDP_CKSUM || conf & RTE_ETH_TX_OFFLOAD_SCTP_CKSUM)
82 : 0 : flags |= NIX_TX_OFFLOAD_L3_L4_CSUM_F;
83 : :
84 [ # # ]: 0 : if (!(conf & RTE_ETH_TX_OFFLOAD_MBUF_FAST_FREE))
85 : 0 : flags |= NIX_TX_OFFLOAD_MBUF_NOFF_F;
86 : :
87 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_MULTI_SEGS)
88 : 0 : flags |= NIX_TX_MULTI_SEG_F;
89 : :
90 : : /* Enable Inner checksum for TSO */
91 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_TCP_TSO)
92 : 0 : flags |= (NIX_TX_OFFLOAD_TSO_F | NIX_TX_OFFLOAD_L3_L4_CSUM_F);
93 : :
94 : : /* Enable Inner and Outer checksum for Tunnel TSO */
95 [ # # ]: 0 : if (conf & (RTE_ETH_TX_OFFLOAD_VXLAN_TNL_TSO | RTE_ETH_TX_OFFLOAD_GENEVE_TNL_TSO |
96 : : RTE_ETH_TX_OFFLOAD_GRE_TNL_TSO))
97 : 0 : flags |= (NIX_TX_OFFLOAD_TSO_F | NIX_TX_OFFLOAD_OL3_OL4_CSUM_F |
98 : : NIX_TX_OFFLOAD_L3_L4_CSUM_F);
99 : :
100 [ # # ]: 0 : if ((dev->rx_offloads & RTE_ETH_RX_OFFLOAD_TIMESTAMP))
101 : 0 : flags |= NIX_TX_OFFLOAD_TSTAMP_F;
102 : :
103 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_SECURITY)
104 : 0 : flags |= NIX_TX_OFFLOAD_SECURITY_F;
105 : :
106 [ # # ]: 0 : if (dev->tx_mark)
107 : 0 : flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
108 : :
109 [ # # ]: 0 : if (nix->tx_compl_ena)
110 : 0 : flags |= NIX_TX_OFFLOAD_MBUF_NOFF_F;
111 : :
112 : 0 : return flags;
113 : : }
114 : :
115 : : static int
116 [ # # ]: 0 : cn20k_nix_ptypes_set(struct rte_eth_dev *eth_dev, uint32_t ptype_mask)
117 : : {
118 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
119 : :
120 [ # # ]: 0 : if (ptype_mask) {
121 : 0 : dev->rx_offload_flags |= NIX_RX_OFFLOAD_PTYPE_F;
122 : 0 : dev->ptype_disable = 0;
123 : : } else {
124 : 0 : dev->rx_offload_flags &= ~NIX_RX_OFFLOAD_PTYPE_F;
125 : 0 : dev->ptype_disable = 1;
126 : : }
127 : :
128 : 0 : cn20k_eth_set_rx_function(eth_dev);
129 : 0 : return 0;
130 : : }
131 : :
132 : : static void
133 : : nix_form_default_desc(struct cnxk_eth_dev *dev, struct cn20k_eth_txq *txq, uint16_t qid)
134 : : {
135 : : union nix_send_hdr_w0_u send_hdr_w0;
136 : :
137 : : /* Initialize the fields based on basic single segment packet */
138 : 0 : send_hdr_w0.u = 0;
139 : 0 : if (dev->tx_offload_flags & NIX_TX_NEED_EXT_HDR) {
140 : : /* 2(HDR) + 2(EXT_HDR) + 1(SG) + 1(IOVA) = 6/2 - 1 = 2 */
141 : 0 : send_hdr_w0.sizem1 = 2;
142 [ # # # # : 0 : if (dev->tx_offload_flags & NIX_TX_OFFLOAD_TSTAMP_F) {
# # ]
143 : : /* Default: one seg packet would have:
144 : : * 2(HDR) + 2(EXT) + 1(SG) + 1(IOVA) + 2(MEM)
145 : : * => 8/2 - 1 = 3
146 : : */
147 : 0 : send_hdr_w0.sizem1 = 3;
148 : :
149 : : /* To calculate the offset for send_mem,
150 : : * send_hdr->w0.sizem1 * 2
151 : : */
152 : 0 : txq->ts_mem = dev->tstamp.tx_tstamp_iova;
153 : : }
154 : : } else {
155 : : /* 2(HDR) + 1(SG) + 1(IOVA) = 4/2 - 1 = 1 */
156 : 0 : send_hdr_w0.sizem1 = 1;
157 : : }
158 : 0 : send_hdr_w0.sq = qid;
159 : 0 : txq->send_hdr_w0 = send_hdr_w0.u;
160 : : rte_wmb();
161 : : }
162 : :
163 : : static int
164 : 0 : cn20k_nix_tx_compl_setup(struct cnxk_eth_dev *dev, struct cn20k_eth_txq *txq, struct roc_nix_sq *sq,
165 : : uint16_t nb_desc)
166 : : {
167 : : struct roc_nix_cq *cq;
168 : :
169 : 0 : cq = &dev->cqs[sq->cqid];
170 : 0 : txq->tx_compl.desc_base = (uintptr_t)cq->desc_base;
171 : 0 : txq->tx_compl.cq_door = cq->door;
172 : 0 : txq->tx_compl.cq_status = cq->status;
173 : 0 : txq->tx_compl.wdata = cq->wdata;
174 : 0 : txq->tx_compl.head = cq->head;
175 : 0 : txq->tx_compl.qmask = cq->qmask;
176 : : /* Total array size holding buffers is equal to
177 : : * number of entries in cq and sq
178 : : * max buffer in array = desc in cq + desc in sq
179 : : */
180 : 0 : txq->tx_compl.nb_desc_mask = (2 * rte_align32pow2(nb_desc)) - 1;
181 : 0 : txq->tx_compl.ena = true;
182 : :
183 : 0 : txq->tx_compl.ptr = (struct rte_mbuf **)plt_zmalloc(txq->tx_compl.nb_desc_mask *
184 : : sizeof(struct rte_mbuf *), 0);
185 [ # # ]: 0 : if (!txq->tx_compl.ptr)
186 : 0 : return -1;
187 : :
188 : : return 0;
189 : : }
190 : :
191 : : static void
192 : 0 : cn20k_nix_tx_queue_release(struct rte_eth_dev *eth_dev, uint16_t qid)
193 : : {
194 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
195 : : struct roc_nix *nix = &dev->nix;
196 : : struct cn20k_eth_txq *txq;
197 : :
198 : 0 : cnxk_nix_tx_queue_release(eth_dev, qid);
199 : 0 : txq = eth_dev->data->tx_queues[qid];
200 : :
201 [ # # ]: 0 : if (nix->tx_compl_ena)
202 : 0 : plt_free(txq->tx_compl.ptr);
203 : 0 : }
204 : :
205 : : static int
206 : 0 : cn20k_nix_tx_queue_setup(struct rte_eth_dev *eth_dev, uint16_t qid, uint16_t nb_desc,
207 : : unsigned int socket, const struct rte_eth_txconf *tx_conf)
208 : : {
209 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
210 : 0 : struct roc_nix *nix = &dev->nix;
211 : : uint64_t mark_fmt, mark_flag;
212 : : struct roc_cpt_lf *inl_lf;
213 : : struct cn20k_eth_txq *txq;
214 : : struct roc_nix_sq *sq;
215 : : uint16_t crypto_qid;
216 : : int rc;
217 : :
218 : : RTE_SET_USED(socket);
219 : :
220 : : /* Common Tx queue setup */
221 : 0 : rc = cnxk_nix_tx_queue_setup(eth_dev, qid, nb_desc, sizeof(struct cn20k_eth_txq), tx_conf);
222 [ # # ]: 0 : if (rc)
223 : : return rc;
224 : :
225 : 0 : sq = &dev->sqs[qid];
226 : : /* Update fast path queue */
227 : 0 : txq = eth_dev->data->tx_queues[qid];
228 : 0 : txq->fc_mem = sq->fc;
229 [ # # ]: 0 : if (nix->tx_compl_ena) {
230 : 0 : rc = cn20k_nix_tx_compl_setup(dev, txq, sq, nb_desc);
231 [ # # ]: 0 : if (rc)
232 : : return rc;
233 : : }
234 : :
235 : : /* Set Txq flag for MT_LOCKFREE */
236 : 0 : txq->flag = !!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_MT_LOCKFREE);
237 : :
238 : : /* Store lmt base in tx queue for easy access */
239 : 0 : txq->lmt_base = nix->lmt_base;
240 : 0 : txq->io_addr = sq->io_addr;
241 : 0 : txq->nb_sqb_bufs_adj = sq->nb_sqb_bufs_adj;
242 : 0 : txq->sqes_per_sqb_log2 = sq->sqes_per_sqb_log2;
243 : :
244 : : /* Fetch CPT LF info for outbound if present */
245 [ # # ]: 0 : if (dev->outb.lf_base) {
246 : 0 : crypto_qid = qid % dev->outb.nb_crypto_qs;
247 : 0 : inl_lf = dev->outb.lf_base + crypto_qid;
248 : :
249 : 0 : txq->cpt_io_addr = inl_lf->io_addr;
250 : 0 : txq->cpt_fc = inl_lf->fc_addr;
251 : 0 : txq->cpt_fc_sw = (int32_t *)((uintptr_t)dev->outb.fc_sw_mem +
252 : 0 : crypto_qid * RTE_CACHE_LINE_SIZE);
253 : :
254 : 0 : txq->cpt_desc = inl_lf->nb_desc * 0.7;
255 : 0 : txq->sa_base = (uint64_t)dev->outb.sa_base;
256 : 0 : txq->sa_base |= (uint64_t)eth_dev->data->port_id;
257 : : PLT_STATIC_ASSERT(BIT_ULL(16) == ROC_NIX_INL_SA_BASE_ALIGN);
258 : : }
259 : :
260 : : /* Restore marking flag from roc */
261 : 0 : mark_fmt = roc_nix_tm_mark_format_get(nix, &mark_flag);
262 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
263 [ # # ]: 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
264 : :
265 : : nix_form_default_desc(dev, txq, qid);
266 : 0 : txq->lso_tun_fmt = dev->lso_tun_fmt;
267 : 0 : return 0;
268 : : }
269 : :
270 : : static int
271 [ # # ]: 0 : cn20k_nix_rx_queue_setup(struct rte_eth_dev *eth_dev, uint16_t qid, uint16_t nb_desc,
272 : : unsigned int socket, const struct rte_eth_rxconf *rx_conf,
273 : : struct rte_mempool *mp)
274 : : {
275 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
276 : : struct cn20k_eth_rxq *rxq;
277 : : struct roc_nix_rq *rq;
278 : : struct roc_nix_cq *cq;
279 : : int rc;
280 : :
281 : : RTE_SET_USED(socket);
282 : :
283 : : /* CQ Errata needs min 4K ring */
284 [ # # ]: 0 : if (dev->cq_min_4k && nb_desc < 4096)
285 : : nb_desc = 4096;
286 : :
287 : : /* Common Rx queue setup */
288 : 0 : rc = cnxk_nix_rx_queue_setup(eth_dev, qid, nb_desc, sizeof(struct cn20k_eth_rxq), rx_conf,
289 : : mp);
290 [ # # ]: 0 : if (rc)
291 : : return rc;
292 : :
293 : : /* Do initial mtu setup for RQ0 before device start */
294 [ # # ]: 0 : if (!qid) {
295 : 0 : rc = nix_recalc_mtu(eth_dev);
296 [ # # ]: 0 : if (rc)
297 : : return rc;
298 : :
299 : : /* Update offload flags */
300 : 0 : dev->rx_offload_flags = nix_rx_offload_flags(eth_dev);
301 : 0 : dev->tx_offload_flags = nix_tx_offload_flags(eth_dev);
302 : : }
303 : :
304 : 0 : rq = &dev->rqs[qid];
305 : 0 : cq = &dev->cqs[qid];
306 : :
307 : : /* Update fast path queue */
308 : 0 : rxq = eth_dev->data->rx_queues[qid];
309 : 0 : rxq->rq = qid;
310 : 0 : rxq->desc = (uintptr_t)cq->desc_base;
311 : 0 : rxq->cq_door = cq->door;
312 : 0 : rxq->cq_status = cq->status;
313 : 0 : rxq->wdata = cq->wdata;
314 : 0 : rxq->head = cq->head;
315 : 0 : rxq->qmask = cq->qmask;
316 : 0 : rxq->tstamp = &dev->tstamp;
317 : :
318 : : /* Data offset from data to start of mbuf is first_skip */
319 : 0 : rxq->data_off = rq->first_skip;
320 : 0 : rxq->mbuf_initializer = cnxk_nix_rxq_mbuf_setup(dev);
321 : :
322 : : /* Setup security related info */
323 [ # # ]: 0 : if (dev->rx_offload_flags & NIX_RX_OFFLOAD_SECURITY_F) {
324 : 0 : rxq->lmt_base = dev->nix.lmt_base;
325 : 0 : rxq->sa_base = roc_nix_inl_inb_sa_base_get(&dev->nix, dev->inb.inl_dev);
326 : : }
327 : :
328 : : /* Lookup mem */
329 : 0 : rxq->lookup_mem = cnxk_nix_fastpath_lookup_mem_get();
330 : 0 : return 0;
331 : : }
332 : :
333 : : static void
334 : 0 : cn20k_nix_rx_queue_meta_aura_update(struct rte_eth_dev *eth_dev)
335 : : {
336 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
337 : : struct cnxk_eth_rxq_sp *rxq_sp;
338 : : struct cn20k_eth_rxq *rxq;
339 : : struct roc_nix_rq *rq;
340 : : int i;
341 : :
342 : : /* Update Aura handle for fastpath rx queues */
343 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_rx_queues; i++) {
344 : 0 : rq = &dev->rqs[i];
345 : 0 : rxq = eth_dev->data->rx_queues[i];
346 : 0 : rxq->meta_aura = rq->meta_aura_handle;
347 : 0 : rxq->meta_pool = dev->nix.meta_mempool;
348 : : /* Assume meta packet from normal aura if meta aura is not setup
349 : : */
350 [ # # ]: 0 : if (!rxq->meta_aura) {
351 : : rxq_sp = cnxk_eth_rxq_to_sp(rxq);
352 : 0 : rxq->meta_aura = rxq_sp->qconf.mp->pool_id;
353 : 0 : rxq->meta_pool = (uintptr_t)rxq_sp->qconf.mp;
354 : : }
355 : : }
356 : : /* Store mempool in lookup mem */
357 : 0 : cnxk_nix_lookup_mem_metapool_set(dev);
358 : 0 : }
359 : :
360 : : static int
361 : 0 : cn20k_nix_tx_queue_stop(struct rte_eth_dev *eth_dev, uint16_t qidx)
362 : : {
363 : 0 : struct cn20k_eth_txq *txq = eth_dev->data->tx_queues[qidx];
364 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
365 : 0 : uint16_t flags = dev->tx_offload_flags;
366 : 0 : struct roc_nix *nix = &dev->nix;
367 : 0 : uint32_t head = 0, tail = 0;
368 : : int rc;
369 : :
370 : 0 : rc = cnxk_nix_tx_queue_stop(eth_dev, qidx);
371 [ # # ]: 0 : if (rc)
372 : : return rc;
373 : :
374 : : /* Clear fc cache pkts to trigger worker stop */
375 : 0 : txq->fc_cache_pkts = 0;
376 : :
377 [ # # # # ]: 0 : if ((flags & NIX_TX_OFFLOAD_MBUF_NOFF_F) && txq->tx_compl.ena) {
378 : 0 : struct roc_nix_sq *sq = &dev->sqs[qidx];
379 : : do {
380 : 0 : handle_tx_completion_pkts(txq, flags & NIX_TX_VWQE_F);
381 : : /* Check if SQ is empty */
382 : 0 : roc_nix_sq_head_tail_get(nix, sq->qid, &head, &tail);
383 [ # # ]: 0 : if (head != tail)
384 : 0 : continue;
385 : :
386 : : /* Check if completion CQ is empty */
387 : 0 : roc_nix_cq_head_tail_get(nix, sq->cqid, &head, &tail);
388 [ # # ]: 0 : } while (head != tail);
389 : : }
390 : :
391 : : return 0;
392 : : }
393 : :
394 : : static int
395 : 0 : cn20k_nix_configure(struct rte_eth_dev *eth_dev)
396 : : {
397 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
398 : : int rc;
399 : :
400 : : /* Common nix configure */
401 : 0 : rc = cnxk_nix_configure(eth_dev);
402 [ # # ]: 0 : if (rc)
403 : : return rc;
404 : :
405 : : /* Update offload flags */
406 : 0 : dev->rx_offload_flags = nix_rx_offload_flags(eth_dev);
407 : 0 : dev->tx_offload_flags = nix_tx_offload_flags(eth_dev);
408 : :
409 : : /* reset reassembly dynfield/flag offset */
410 : 0 : dev->reass_dynfield_off = -1;
411 : 0 : dev->reass_dynflag_bit = -1;
412 : :
413 : 0 : plt_nix_dbg("Configured port%d platform specific rx_offload_flags=%x"
414 : : " tx_offload_flags=0x%x",
415 : : eth_dev->data->port_id, dev->rx_offload_flags, dev->tx_offload_flags);
416 : 0 : return 0;
417 : : }
418 : :
419 : : /* Function to enable ptp config for VFs */
420 : : static void
421 : 0 : nix_ptp_enable_vf(struct rte_eth_dev *eth_dev)
422 : : {
423 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
424 : :
425 [ # # ]: 0 : if (nix_recalc_mtu(eth_dev))
426 : 0 : plt_err("Failed to set MTU size for ptp");
427 : :
428 : 0 : dev->rx_offload_flags |= NIX_RX_OFFLOAD_TSTAMP_F;
429 : :
430 : : /* Setting up the function pointers as per new offload flags */
431 : 0 : cn20k_eth_set_rx_function(eth_dev);
432 : 0 : cn20k_eth_set_tx_function(eth_dev);
433 : 0 : }
434 : :
435 : : static uint16_t
436 : 0 : nix_ptp_vf_burst(void *queue, struct rte_mbuf **mbufs, uint16_t pkts)
437 : : {
438 : : struct cn20k_eth_rxq *rxq = queue;
439 : : struct cnxk_eth_rxq_sp *rxq_sp;
440 : : struct rte_eth_dev *eth_dev;
441 : :
442 : : RTE_SET_USED(mbufs);
443 : : RTE_SET_USED(pkts);
444 : :
445 : : rxq_sp = cnxk_eth_rxq_to_sp(rxq);
446 : 0 : eth_dev = rxq_sp->dev->eth_dev;
447 : 0 : nix_ptp_enable_vf(eth_dev);
448 : :
449 : 0 : return 0;
450 : : }
451 : :
452 : : static int
453 : 0 : cn20k_nix_ptp_info_update_cb(struct roc_nix *nix, bool ptp_en)
454 : : {
455 : : struct cnxk_eth_dev *dev = (struct cnxk_eth_dev *)nix;
456 : : struct rte_eth_dev *eth_dev;
457 : : struct cn20k_eth_rxq *rxq;
458 : : int i;
459 : :
460 [ # # ]: 0 : if (!dev)
461 : : return -EINVAL;
462 : :
463 : 0 : eth_dev = dev->eth_dev;
464 [ # # ]: 0 : if (!eth_dev)
465 : : return -EINVAL;
466 : :
467 : 0 : dev->ptp_en = ptp_en;
468 : :
469 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_rx_queues; i++) {
470 : 0 : rxq = eth_dev->data->rx_queues[i];
471 : 0 : rxq->mbuf_initializer = cnxk_nix_rxq_mbuf_setup(dev);
472 : : }
473 : :
474 [ # # # # : 0 : if (roc_nix_is_vf_or_sdp(nix) && !(roc_nix_is_sdp(nix)) && !(roc_nix_is_lbk(nix))) {
# # ]
475 : : /* In case of VF, setting of MTU cannot be done directly in this
476 : : * function as this is running as part of MBOX request(PF->VF)
477 : : * and MTU setting also requires MBOX message to be
478 : : * sent(VF->PF)
479 : : */
480 : 0 : eth_dev->rx_pkt_burst = nix_ptp_vf_burst;
481 : : rte_mb();
482 : : }
483 : :
484 : : return 0;
485 : : }
486 : :
487 : : static int
488 : 0 : cn20k_nix_timesync_enable(struct rte_eth_dev *eth_dev)
489 : : {
490 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
491 : : int i, rc;
492 : :
493 : 0 : rc = cnxk_nix_timesync_enable(eth_dev);
494 [ # # ]: 0 : if (rc)
495 : : return rc;
496 : :
497 : 0 : dev->rx_offload_flags |= NIX_RX_OFFLOAD_TSTAMP_F;
498 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_TSTAMP_F;
499 : :
500 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++)
501 [ # # ]: 0 : nix_form_default_desc(dev, eth_dev->data->tx_queues[i], i);
502 : :
503 : : /* Setting up the rx[tx]_offload_flags due to change
504 : : * in rx[tx]_offloads.
505 : : */
506 : 0 : cn20k_eth_set_rx_function(eth_dev);
507 : 0 : cn20k_eth_set_tx_function(eth_dev);
508 : 0 : return 0;
509 : : }
510 : :
511 : : static int
512 : 0 : cn20k_nix_timesync_disable(struct rte_eth_dev *eth_dev)
513 : : {
514 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
515 : : int i, rc;
516 : :
517 : 0 : rc = cnxk_nix_timesync_disable(eth_dev);
518 [ # # ]: 0 : if (rc)
519 : : return rc;
520 : :
521 : 0 : dev->rx_offload_flags &= ~NIX_RX_OFFLOAD_TSTAMP_F;
522 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_TSTAMP_F;
523 : :
524 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++)
525 [ # # ]: 0 : nix_form_default_desc(dev, eth_dev->data->tx_queues[i], i);
526 : :
527 : : /* Setting up the rx[tx]_offload_flags due to change
528 : : * in rx[tx]_offloads.
529 : : */
530 : 0 : cn20k_eth_set_rx_function(eth_dev);
531 : 0 : cn20k_eth_set_tx_function(eth_dev);
532 : 0 : return 0;
533 : : }
534 : :
535 : : static int
536 [ # # ]: 0 : cn20k_nix_timesync_read_tx_timestamp(struct rte_eth_dev *eth_dev, struct timespec *timestamp)
537 : : {
538 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
539 : : struct cnxk_timesync_info *tstamp = &dev->tstamp;
540 : : uint64_t ns;
541 : :
542 [ # # ]: 0 : if (*tstamp->tx_tstamp == 0)
543 : : return -EINVAL;
544 : :
545 : 0 : *tstamp->tx_tstamp =
546 [ # # ]: 0 : ((*tstamp->tx_tstamp >> 32) * NSEC_PER_SEC) + (*tstamp->tx_tstamp & 0xFFFFFFFFUL);
547 : : ns = rte_timecounter_update(&dev->tx_tstamp_tc, *tstamp->tx_tstamp);
548 : 0 : *timestamp = rte_ns_to_timespec(ns);
549 : 0 : *tstamp->tx_tstamp = 0;
550 : : rte_wmb();
551 : :
552 : 0 : return 0;
553 : : }
554 : :
555 : : static int
556 : 0 : cn20k_nix_dev_start(struct rte_eth_dev *eth_dev)
557 : : {
558 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
559 : 0 : struct roc_nix *nix = &dev->nix;
560 : : int rc;
561 : :
562 : : /* Common eth dev start */
563 : 0 : rc = cnxk_nix_dev_start(eth_dev);
564 [ # # ]: 0 : if (rc)
565 : : return rc;
566 : :
567 : : /* Update VF about data off shifted by 8 bytes if PTP already
568 : : * enabled in PF owning this VF
569 : : */
570 [ # # # # : 0 : if (dev->ptp_en && (!roc_nix_is_pf(nix) && (!roc_nix_is_sdp(nix))))
# # ]
571 : 0 : nix_ptp_enable_vf(eth_dev);
572 : :
573 : : /* Setting up the rx[tx]_offload_flags due to change
574 : : * in rx[tx]_offloads.
575 : : */
576 : 0 : dev->rx_offload_flags |= nix_rx_offload_flags(eth_dev);
577 : 0 : dev->tx_offload_flags |= nix_tx_offload_flags(eth_dev);
578 : :
579 [ # # ]: 0 : if (dev->rx_offload_flags & NIX_RX_OFFLOAD_SECURITY_F)
580 : 0 : cn20k_nix_rx_queue_meta_aura_update(eth_dev);
581 : :
582 : : /* Set flags for Rx Inject feature */
583 [ # # ]: 0 : if (roc_idev_nix_rx_inject_get(nix->port_id))
584 : 0 : dev->rx_offload_flags |= NIX_RX_SEC_REASSEMBLY_F;
585 : :
586 : 0 : cn20k_eth_set_tx_function(eth_dev);
587 : 0 : cn20k_eth_set_rx_function(eth_dev);
588 : 0 : return 0;
589 : : }
590 : :
591 : : static int
592 [ # # ]: 0 : cn20k_nix_reassembly_capability_get(struct rte_eth_dev *eth_dev,
593 : : struct rte_eth_ip_reassembly_params *reassembly_capa)
594 : : {
595 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
596 : : int rc = -ENOTSUP;
597 : : RTE_SET_USED(eth_dev);
598 : :
599 [ # # ]: 0 : if (!roc_feature_nix_has_reass())
600 : : return -ENOTSUP;
601 : :
602 [ # # ]: 0 : if (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY) {
603 : 0 : reassembly_capa->timeout_ms = 60 * 1000;
604 : 0 : reassembly_capa->max_frags = 4;
605 : 0 : reassembly_capa->flags =
606 : : RTE_ETH_DEV_REASSEMBLY_F_IPV4 | RTE_ETH_DEV_REASSEMBLY_F_IPV6;
607 : : rc = 0;
608 : : }
609 : :
610 : : return rc;
611 : : }
612 : :
613 : : static int
614 : 0 : cn20k_nix_reassembly_conf_get(struct rte_eth_dev *eth_dev,
615 : : struct rte_eth_ip_reassembly_params *conf)
616 : : {
617 : : RTE_SET_USED(eth_dev);
618 : : RTE_SET_USED(conf);
619 : 0 : return -ENOTSUP;
620 : : }
621 : :
622 : : static int
623 [ # # ]: 0 : cn20k_nix_reassembly_conf_set(struct rte_eth_dev *eth_dev,
624 : : const struct rte_eth_ip_reassembly_params *conf)
625 : : {
626 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
627 : : int rc = 0;
628 : :
629 [ # # ]: 0 : if (!roc_feature_nix_has_reass())
630 : : return -ENOTSUP;
631 : :
632 [ # # ]: 0 : if (!conf->flags) {
633 : : /* Clear offload flags on disable */
634 [ # # ]: 0 : if (!dev->inb.nb_oop)
635 : 0 : dev->rx_offload_flags &= ~NIX_RX_REAS_F;
636 : 0 : dev->inb.reass_en = false;
637 : 0 : return 0;
638 : : }
639 : :
640 : 0 : rc = roc_nix_reassembly_configure(conf->timeout_ms, conf->max_frags);
641 [ # # # # ]: 0 : if (!rc && dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY) {
642 : 0 : dev->rx_offload_flags |= NIX_RX_REAS_F;
643 : 0 : dev->inb.reass_en = true;
644 : : }
645 : :
646 : : return rc;
647 : : }
648 : :
649 : : static int
650 : : cn20k_nix_rx_avail_get(struct cn20k_eth_rxq *rxq)
651 : : {
652 : : uint32_t qmask = rxq->qmask;
653 : : uint64_t reg, head, tail;
654 : : int available;
655 : :
656 : : /* Use LDADDA version to avoid reorder */
657 : : reg = roc_atomic64_add_sync(rxq->wdata, rxq->cq_status);
658 : : /* CQ_OP_STATUS operation error */
659 : : if (reg & BIT_ULL(NIX_CQ_OP_STAT_OP_ERR) || reg & BIT_ULL(NIX_CQ_OP_STAT_CQ_ERR))
660 : : return 0;
661 : : tail = reg & 0xFFFFF;
662 : : head = (reg >> 20) & 0xFFFFF;
663 : : if (tail < head)
664 : : available = tail - head + qmask + 1;
665 : : else
666 : : available = tail - head;
667 : :
668 : : return available;
669 : : }
670 : :
671 : : static int
672 : 0 : cn20k_rx_descriptor_dump(const struct rte_eth_dev *eth_dev, uint16_t qid, uint16_t offset,
673 : : uint16_t num, FILE *file)
674 : : {
675 : : struct cn20k_eth_rxq *rxq = eth_dev->data->rx_queues[qid];
676 : : const uint64_t data_off = rxq->data_off;
677 : : const uint32_t qmask = rxq->qmask;
678 : : const uintptr_t desc = rxq->desc;
679 : : struct cpt_parse_hdr_s *cpth;
680 : : uint32_t head = rxq->head;
681 : : struct nix_cqe_hdr_s *cq;
682 : : uint16_t count = 0;
683 : : int available_pkts;
684 : : uint64_t cq_w1;
685 : :
686 : : available_pkts = cn20k_nix_rx_avail_get(rxq);
687 : :
688 [ # # ]: 0 : if ((offset + num - 1) >= available_pkts) {
689 : 0 : plt_err("Invalid BD num=%u", num);
690 : 0 : return -EINVAL;
691 : : }
692 : :
693 : : while (count < num) {
694 : : cq = (struct nix_cqe_hdr_s *)(desc + CQE_SZ(head) + count + offset);
695 : : cq_w1 = *((const uint64_t *)cq + 1);
696 : : if (cq_w1 & BIT(11)) {
697 : : rte_iova_t buff = *((rte_iova_t *)((uint64_t *)cq + 9));
698 : : struct rte_mbuf *mbuf = (struct rte_mbuf *)(buff - data_off);
699 : : cpth = (struct cpt_parse_hdr_s *)((uintptr_t)mbuf + (uint16_t)data_off);
700 : : roc_cpt_parse_hdr_dump(file, cpth);
701 : : } else {
702 : : roc_nix_cqe_dump(file, cq);
703 : : }
704 : :
705 : : count++;
706 : : head &= qmask;
707 : : }
708 : : return 0;
709 : : }
710 : :
711 : : static int
712 : 0 : cn20k_nix_tm_mark_vlan_dei(struct rte_eth_dev *eth_dev, int mark_green, int mark_yellow,
713 : : int mark_red, struct rte_tm_error *error)
714 : : {
715 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
716 : 0 : struct roc_nix *roc_nix = &dev->nix;
717 : : uint64_t mark_fmt, mark_flag;
718 : : int rc, i;
719 : :
720 : 0 : rc = cnxk_nix_tm_mark_vlan_dei(eth_dev, mark_green, mark_yellow, mark_red, error);
721 : :
722 [ # # ]: 0 : if (rc)
723 : 0 : goto exit;
724 : :
725 : 0 : mark_fmt = roc_nix_tm_mark_format_get(roc_nix, &mark_flag);
726 [ # # ]: 0 : if (mark_flag) {
727 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
728 : 0 : dev->tx_mark = true;
729 : : } else {
730 : 0 : dev->tx_mark = false;
731 [ # # ]: 0 : if (!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT ||
732 : : dev->tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT))
733 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_VLAN_QINQ_F;
734 : : }
735 : :
736 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++) {
737 : 0 : struct cn20k_eth_txq *txq = eth_dev->data->tx_queues[i];
738 : :
739 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
740 : 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
741 : : }
742 : 0 : cn20k_eth_set_tx_function(eth_dev);
743 : 0 : exit:
744 : 0 : return rc;
745 : : }
746 : :
747 : : static int
748 : 0 : cn20k_nix_tm_mark_ip_ecn(struct rte_eth_dev *eth_dev, int mark_green, int mark_yellow, int mark_red,
749 : : struct rte_tm_error *error)
750 : : {
751 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
752 : 0 : struct roc_nix *roc_nix = &dev->nix;
753 : : uint64_t mark_fmt, mark_flag;
754 : : int rc, i;
755 : :
756 : 0 : rc = cnxk_nix_tm_mark_ip_ecn(eth_dev, mark_green, mark_yellow, mark_red, error);
757 [ # # ]: 0 : if (rc)
758 : 0 : goto exit;
759 : :
760 : 0 : mark_fmt = roc_nix_tm_mark_format_get(roc_nix, &mark_flag);
761 [ # # ]: 0 : if (mark_flag) {
762 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
763 : 0 : dev->tx_mark = true;
764 : : } else {
765 : 0 : dev->tx_mark = false;
766 [ # # ]: 0 : if (!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT ||
767 : : dev->tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT))
768 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_VLAN_QINQ_F;
769 : : }
770 : :
771 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++) {
772 : 0 : struct cn20k_eth_txq *txq = eth_dev->data->tx_queues[i];
773 : :
774 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
775 : 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
776 : : }
777 : 0 : cn20k_eth_set_tx_function(eth_dev);
778 : 0 : exit:
779 : 0 : return rc;
780 : : }
781 : :
782 : : static int
783 : 0 : cn20k_nix_tm_mark_ip_dscp(struct rte_eth_dev *eth_dev, int mark_green, int mark_yellow,
784 : : int mark_red, struct rte_tm_error *error)
785 : : {
786 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
787 : 0 : struct roc_nix *roc_nix = &dev->nix;
788 : : uint64_t mark_fmt, mark_flag;
789 : : int rc, i;
790 : :
791 : 0 : rc = cnxk_nix_tm_mark_ip_dscp(eth_dev, mark_green, mark_yellow, mark_red, error);
792 [ # # ]: 0 : if (rc)
793 : 0 : goto exit;
794 : :
795 : 0 : mark_fmt = roc_nix_tm_mark_format_get(roc_nix, &mark_flag);
796 [ # # ]: 0 : if (mark_flag) {
797 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
798 : 0 : dev->tx_mark = true;
799 : : } else {
800 : 0 : dev->tx_mark = false;
801 [ # # ]: 0 : if (!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT ||
802 : : dev->tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT))
803 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_VLAN_QINQ_F;
804 : : }
805 : :
806 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++) {
807 : 0 : struct cn20k_eth_txq *txq = eth_dev->data->tx_queues[i];
808 : :
809 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
810 : 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
811 : : }
812 : 0 : cn20k_eth_set_tx_function(eth_dev);
813 : 0 : exit:
814 : 0 : return rc;
815 : : }
816 : :
817 : : /* Update platform specific eth dev ops */
818 : : static void
819 : 0 : nix_eth_dev_ops_override(void)
820 : : {
821 : : static int init_once;
822 : :
823 [ # # ]: 0 : if (init_once)
824 : : return;
825 : 0 : init_once = 1;
826 : :
827 : : /* Update platform specific ops */
828 : 0 : cnxk_eth_dev_ops.dev_configure = cn20k_nix_configure;
829 : 0 : cnxk_eth_dev_ops.tx_queue_setup = cn20k_nix_tx_queue_setup;
830 : 0 : cnxk_eth_dev_ops.rx_queue_setup = cn20k_nix_rx_queue_setup;
831 : 0 : cnxk_eth_dev_ops.tx_queue_release = cn20k_nix_tx_queue_release;
832 : 0 : cnxk_eth_dev_ops.tx_queue_stop = cn20k_nix_tx_queue_stop;
833 : 0 : cnxk_eth_dev_ops.dev_start = cn20k_nix_dev_start;
834 : 0 : cnxk_eth_dev_ops.dev_ptypes_set = cn20k_nix_ptypes_set;
835 : 0 : cnxk_eth_dev_ops.timesync_enable = cn20k_nix_timesync_enable;
836 : 0 : cnxk_eth_dev_ops.timesync_disable = cn20k_nix_timesync_disable;
837 : 0 : cnxk_eth_dev_ops.timesync_read_tx_timestamp = cn20k_nix_timesync_read_tx_timestamp;
838 : 0 : cnxk_eth_dev_ops.ip_reassembly_capability_get = cn20k_nix_reassembly_capability_get;
839 : 0 : cnxk_eth_dev_ops.ip_reassembly_conf_get = cn20k_nix_reassembly_conf_get;
840 : 0 : cnxk_eth_dev_ops.ip_reassembly_conf_set = cn20k_nix_reassembly_conf_set;
841 : 0 : cnxk_eth_dev_ops.eth_rx_descriptor_dump = cn20k_rx_descriptor_dump;
842 : : }
843 : :
844 : : /* Update platform specific tm ops */
845 : : static void
846 : : nix_tm_ops_override(void)
847 : : {
848 : : static int init_once;
849 : :
850 [ # # ]: 0 : if (init_once)
851 : : return;
852 : 0 : init_once = 1;
853 : :
854 : : /* Update platform specific ops */
855 : 0 : cnxk_tm_ops.mark_vlan_dei = cn20k_nix_tm_mark_vlan_dei;
856 : 0 : cnxk_tm_ops.mark_ip_ecn = cn20k_nix_tm_mark_ip_ecn;
857 : 0 : cnxk_tm_ops.mark_ip_dscp = cn20k_nix_tm_mark_ip_dscp;
858 : : }
859 : :
860 : : static void
861 : : npc_flow_ops_override(void)
862 : : {
863 : : static int init_once;
864 : :
865 [ # # ]: 0 : if (init_once)
866 : : return;
867 : 0 : init_once = 1;
868 : :
869 : : /* Update platform specific ops */
870 : : }
871 : :
872 : : static int
873 : 0 : cn20k_nix_remove(struct rte_pci_device *pci_dev)
874 : : {
875 : 0 : return cnxk_nix_remove(pci_dev);
876 : : }
877 : :
878 : : static int
879 : 0 : cn20k_nix_probe(struct rte_pci_driver *pci_drv, struct rte_pci_device *pci_dev)
880 : : {
881 : : struct rte_eth_dev *eth_dev;
882 : : struct cnxk_eth_dev *dev;
883 : : int rc;
884 : :
885 : 0 : rc = roc_plt_init();
886 [ # # ]: 0 : if (rc) {
887 : 0 : plt_err("Failed to initialize platform model, rc=%d", rc);
888 : 0 : return rc;
889 : : }
890 : :
891 : 0 : nix_eth_dev_ops_override();
892 : : nix_tm_ops_override();
893 : : npc_flow_ops_override();
894 : :
895 : : /* Common probe */
896 : 0 : rc = cnxk_nix_probe(pci_drv, pci_dev);
897 [ # # ]: 0 : if (rc)
898 : : return rc;
899 : :
900 : : /* Find eth dev allocated */
901 : 0 : eth_dev = rte_eth_dev_allocated(pci_dev->device.name);
902 [ # # ]: 0 : if (!eth_dev) {
903 : : /* Ignore if ethdev is in mid of detach state in secondary */
904 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY)
905 : : return 0;
906 : 0 : return -ENOENT;
907 : : }
908 : :
909 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY) {
910 : : /* Setup callbacks for secondary process */
911 : 0 : cn20k_eth_set_tx_function(eth_dev);
912 : 0 : cn20k_eth_set_rx_function(eth_dev);
913 : 0 : return 0;
914 : : }
915 : :
916 : : dev = cnxk_eth_pmd_priv(eth_dev);
917 : :
918 : : /* Register up msg callbacks for PTP information */
919 : 0 : roc_nix_ptp_info_cb_register(&dev->nix, cn20k_nix_ptp_info_update_cb);
920 : :
921 : 0 : return 0;
922 : : }
923 : :
924 : : static const struct rte_pci_id cn20k_pci_nix_map[] = {
925 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN20KA, PCI_DEVID_CNXK_RVU_PF),
926 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN20KA, PCI_DEVID_CNXK_RVU_VF),
927 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN20KA, PCI_DEVID_CNXK_RVU_AF_VF),
928 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN20KA, PCI_DEVID_CNXK_RVU_SDP_VF),
929 : : {
930 : : .vendor_id = 0,
931 : : },
932 : : };
933 : :
934 : : static struct rte_pci_driver cn20k_pci_nix = {
935 : : .id_table = cn20k_pci_nix_map,
936 : : .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_NEED_IOVA_AS_VA | RTE_PCI_DRV_INTR_LSC,
937 : : .probe = cn20k_nix_probe,
938 : : .remove = cn20k_nix_remove,
939 : : };
940 : :
941 : 251 : RTE_PMD_REGISTER_PCI(net_cn20k, cn20k_pci_nix);
942 : : RTE_PMD_REGISTER_PCI_TABLE(net_cn20k, cn20k_pci_nix_map);
943 : : RTE_PMD_REGISTER_KMOD_DEP(net_cn20k, "vfio-pci");
|