Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright(C) 2021 Marvell.
3 : : */
4 : : #include "cn10k_ethdev.h"
5 : : #include "cn10k_flow.h"
6 : : #include "cn10k_rx.h"
7 : : #include "cn10k_tx.h"
8 : :
9 : : static uint16_t
10 [ # # ]: 0 : nix_rx_offload_flags(struct rte_eth_dev *eth_dev)
11 : : {
12 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
13 : : struct rte_eth_dev_data *data = eth_dev->data;
14 : : struct rte_eth_conf *conf = &data->dev_conf;
15 : : struct rte_eth_rxmode *rxmode = &conf->rxmode;
16 : : uint16_t flags = 0;
17 : :
18 [ # # ]: 0 : if (rxmode->mq_mode == RTE_ETH_MQ_RX_RSS &&
19 [ # # ]: 0 : (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_RSS_HASH))
20 : : flags |= NIX_RX_OFFLOAD_RSS_F;
21 : :
22 [ # # ]: 0 : if (dev->rx_offloads &
23 : : (RTE_ETH_RX_OFFLOAD_TCP_CKSUM | RTE_ETH_RX_OFFLOAD_UDP_CKSUM))
24 : 0 : flags |= NIX_RX_OFFLOAD_CHECKSUM_F;
25 : :
26 [ # # ]: 0 : if (dev->rx_offloads &
27 : : (RTE_ETH_RX_OFFLOAD_IPV4_CKSUM | RTE_ETH_RX_OFFLOAD_OUTER_IPV4_CKSUM))
28 : 0 : flags |= NIX_RX_OFFLOAD_CHECKSUM_F;
29 : :
30 [ # # ]: 0 : if (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SCATTER)
31 : 0 : flags |= NIX_RX_MULTI_SEG_F;
32 : :
33 [ # # # # ]: 0 : if ((dev->rx_offloads & RTE_ETH_RX_OFFLOAD_TIMESTAMP) || dev->ptp_en)
34 : 0 : flags |= NIX_RX_OFFLOAD_TSTAMP_F;
35 : :
36 [ # # ]: 0 : if (!dev->ptype_disable)
37 : 0 : flags |= NIX_RX_OFFLOAD_PTYPE_F;
38 : :
39 [ # # # # ]: 0 : if (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY && !dev->nix.custom_inb_sa)
40 : 0 : flags |= NIX_RX_OFFLOAD_SECURITY_F;
41 : :
42 : 0 : return flags;
43 : : }
44 : :
45 : : static uint16_t
46 [ # # ]: 0 : nix_tx_offload_flags(struct rte_eth_dev *eth_dev)
47 : : {
48 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
49 : 0 : uint64_t conf = dev->tx_offloads;
50 : : struct roc_nix *nix = &dev->nix;
51 : : uint16_t flags = 0;
52 : :
53 : : /* Fastpath is dependent on these enums */
54 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_TCP_CKSUM != (1ULL << 52));
55 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_SCTP_CKSUM != (2ULL << 52));
56 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_UDP_CKSUM != (3ULL << 52));
57 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_IP_CKSUM != (1ULL << 54));
58 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_IPV4 != (1ULL << 55));
59 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_IP_CKSUM != (1ULL << 58));
60 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_IPV4 != (1ULL << 59));
61 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_IPV6 != (1ULL << 60));
62 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_UDP_CKSUM != (1ULL << 41));
63 : : RTE_BUILD_BUG_ON(RTE_MBUF_L2_LEN_BITS != 7);
64 : : RTE_BUILD_BUG_ON(RTE_MBUF_L3_LEN_BITS != 9);
65 : : RTE_BUILD_BUG_ON(RTE_MBUF_OUTL2_LEN_BITS != 7);
66 : : RTE_BUILD_BUG_ON(RTE_MBUF_OUTL3_LEN_BITS != 9);
67 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, data_off) !=
68 : : offsetof(struct rte_mbuf, buf_addr) + 16);
69 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, ol_flags) !=
70 : : offsetof(struct rte_mbuf, buf_addr) + 24);
71 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, pkt_len) !=
72 : : offsetof(struct rte_mbuf, ol_flags) + 12);
73 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, tx_offload) !=
74 : : offsetof(struct rte_mbuf, pool) + 2 * sizeof(void *));
75 : :
76 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_VLAN_INSERT ||
77 : : conf & RTE_ETH_TX_OFFLOAD_QINQ_INSERT)
78 : : flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
79 : :
80 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_OUTER_IPV4_CKSUM ||
81 : : conf & RTE_ETH_TX_OFFLOAD_OUTER_UDP_CKSUM)
82 : 0 : flags |= NIX_TX_OFFLOAD_OL3_OL4_CSUM_F;
83 : :
84 : 0 : if (conf & RTE_ETH_TX_OFFLOAD_IPV4_CKSUM ||
85 : : conf & RTE_ETH_TX_OFFLOAD_TCP_CKSUM ||
86 [ # # ]: 0 : conf & RTE_ETH_TX_OFFLOAD_UDP_CKSUM || conf & RTE_ETH_TX_OFFLOAD_SCTP_CKSUM)
87 : 0 : flags |= NIX_TX_OFFLOAD_L3_L4_CSUM_F;
88 : :
89 [ # # ]: 0 : if (!(conf & RTE_ETH_TX_OFFLOAD_MBUF_FAST_FREE))
90 : 0 : flags |= NIX_TX_OFFLOAD_MBUF_NOFF_F;
91 : :
92 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_MULTI_SEGS)
93 : 0 : flags |= NIX_TX_MULTI_SEG_F;
94 : :
95 : : /* Enable Inner checksum for TSO */
96 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_TCP_TSO)
97 : 0 : flags |= (NIX_TX_OFFLOAD_TSO_F | NIX_TX_OFFLOAD_L3_L4_CSUM_F);
98 : :
99 : : /* Enable Inner and Outer checksum for Tunnel TSO */
100 [ # # ]: 0 : if (conf & (RTE_ETH_TX_OFFLOAD_VXLAN_TNL_TSO |
101 : : RTE_ETH_TX_OFFLOAD_GENEVE_TNL_TSO | RTE_ETH_TX_OFFLOAD_GRE_TNL_TSO))
102 : 0 : flags |= (NIX_TX_OFFLOAD_TSO_F | NIX_TX_OFFLOAD_OL3_OL4_CSUM_F |
103 : : NIX_TX_OFFLOAD_L3_L4_CSUM_F);
104 : :
105 [ # # ]: 0 : if ((dev->rx_offloads & RTE_ETH_RX_OFFLOAD_TIMESTAMP))
106 : 0 : flags |= NIX_TX_OFFLOAD_TSTAMP_F;
107 : :
108 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_SECURITY)
109 : 0 : flags |= NIX_TX_OFFLOAD_SECURITY_F;
110 : :
111 [ # # ]: 0 : if (dev->tx_mark)
112 : 0 : flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
113 : :
114 [ # # ]: 0 : if (nix->tx_compl_ena)
115 : 0 : flags |= NIX_TX_OFFLOAD_MBUF_NOFF_F;
116 : :
117 : 0 : return flags;
118 : : }
119 : :
120 : : static int
121 [ # # ]: 0 : cn10k_nix_ptypes_set(struct rte_eth_dev *eth_dev, uint32_t ptype_mask)
122 : : {
123 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
124 : :
125 [ # # ]: 0 : if (ptype_mask) {
126 : 0 : dev->rx_offload_flags |= NIX_RX_OFFLOAD_PTYPE_F;
127 : 0 : dev->ptype_disable = 0;
128 : : } else {
129 : 0 : dev->rx_offload_flags &= ~NIX_RX_OFFLOAD_PTYPE_F;
130 : 0 : dev->ptype_disable = 1;
131 : : }
132 : :
133 : 0 : cn10k_eth_set_rx_function(eth_dev);
134 : 0 : return 0;
135 : : }
136 : :
137 : : static void
138 : : nix_form_default_desc(struct cnxk_eth_dev *dev, struct cn10k_eth_txq *txq,
139 : : uint16_t qid)
140 : : {
141 : : union nix_send_hdr_w0_u send_hdr_w0;
142 : :
143 : : /* Initialize the fields based on basic single segment packet */
144 : 0 : send_hdr_w0.u = 0;
145 : 0 : if (dev->tx_offload_flags & NIX_TX_NEED_EXT_HDR) {
146 : : /* 2(HDR) + 2(EXT_HDR) + 1(SG) + 1(IOVA) = 6/2 - 1 = 2 */
147 : 0 : send_hdr_w0.sizem1 = 2;
148 [ # # # # : 0 : if (dev->tx_offload_flags & NIX_TX_OFFLOAD_TSTAMP_F) {
# # ]
149 : : /* Default: one seg packet would have:
150 : : * 2(HDR) + 2(EXT) + 1(SG) + 1(IOVA) + 2(MEM)
151 : : * => 8/2 - 1 = 3
152 : : */
153 : 0 : send_hdr_w0.sizem1 = 3;
154 : :
155 : : /* To calculate the offset for send_mem,
156 : : * send_hdr->w0.sizem1 * 2
157 : : */
158 : 0 : txq->ts_mem = dev->tstamp.tx_tstamp_iova;
159 : : }
160 : : } else {
161 : : /* 2(HDR) + 1(SG) + 1(IOVA) = 4/2 - 1 = 1 */
162 : 0 : send_hdr_w0.sizem1 = 1;
163 : : }
164 : 0 : send_hdr_w0.sq = qid;
165 : 0 : txq->send_hdr_w0 = send_hdr_w0.u;
166 : : rte_wmb();
167 : : }
168 : :
169 : : static int
170 : 0 : cn10k_nix_tx_compl_setup(struct cnxk_eth_dev *dev,
171 : : struct cn10k_eth_txq *txq,
172 : : struct roc_nix_sq *sq, uint16_t nb_desc)
173 : : {
174 : : struct roc_nix_cq *cq;
175 : :
176 : 0 : cq = &dev->cqs[sq->cqid];
177 : 0 : txq->tx_compl.desc_base = (uintptr_t)cq->desc_base;
178 : 0 : txq->tx_compl.cq_door = cq->door;
179 : 0 : txq->tx_compl.cq_status = cq->status;
180 : 0 : txq->tx_compl.wdata = cq->wdata;
181 : 0 : txq->tx_compl.head = cq->head;
182 : 0 : txq->tx_compl.qmask = cq->qmask;
183 : : /* Total array size holding buffers is equal to
184 : : * number of entries in cq and sq
185 : : * max buffer in array = desc in cq + desc in sq
186 : : */
187 : 0 : txq->tx_compl.nb_desc_mask = (2 * rte_align32pow2(nb_desc)) - 1;
188 : 0 : txq->tx_compl.ena = true;
189 : :
190 : 0 : txq->tx_compl.ptr = (struct rte_mbuf **)plt_zmalloc(txq->tx_compl.nb_desc_mask *
191 : : sizeof(struct rte_mbuf *), 0);
192 [ # # ]: 0 : if (!txq->tx_compl.ptr)
193 : 0 : return -1;
194 : :
195 : : return 0;
196 : : }
197 : :
198 : : static void
199 : 0 : cn10k_nix_tx_queue_release(struct rte_eth_dev *eth_dev, uint16_t qid)
200 : : {
201 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
202 : : struct roc_nix *nix = &dev->nix;
203 : : struct cn10k_eth_txq *txq;
204 : :
205 : 0 : cnxk_nix_tx_queue_release(eth_dev, qid);
206 : 0 : txq = eth_dev->data->tx_queues[qid];
207 : :
208 [ # # ]: 0 : if (nix->tx_compl_ena)
209 : 0 : plt_free(txq->tx_compl.ptr);
210 : 0 : }
211 : :
212 : : static int
213 : 0 : cn10k_nix_tx_queue_setup(struct rte_eth_dev *eth_dev, uint16_t qid,
214 : : uint16_t nb_desc, unsigned int socket,
215 : : const struct rte_eth_txconf *tx_conf)
216 : : {
217 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
218 : 0 : struct roc_nix *nix = &dev->nix;
219 : : uint64_t mark_fmt, mark_flag;
220 : : struct roc_cpt_lf *inl_lf;
221 : : struct cn10k_eth_txq *txq;
222 : : struct roc_nix_sq *sq;
223 : : uint16_t crypto_qid;
224 : : int rc;
225 : :
226 : : RTE_SET_USED(socket);
227 : :
228 : : /* Common Tx queue setup */
229 : 0 : rc = cnxk_nix_tx_queue_setup(eth_dev, qid, nb_desc,
230 : : sizeof(struct cn10k_eth_txq), tx_conf);
231 [ # # ]: 0 : if (rc)
232 : : return rc;
233 : :
234 : 0 : sq = &dev->sqs[qid];
235 : : /* Update fast path queue */
236 : 0 : txq = eth_dev->data->tx_queues[qid];
237 : 0 : txq->fc_mem = sq->fc;
238 [ # # ]: 0 : if (nix->tx_compl_ena) {
239 : 0 : rc = cn10k_nix_tx_compl_setup(dev, txq, sq, nb_desc);
240 [ # # ]: 0 : if (rc)
241 : : return rc;
242 : : }
243 : :
244 : : /* Set Txq flag for MT_LOCKFREE */
245 : 0 : txq->flag = !!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_MT_LOCKFREE);
246 : :
247 : : /* Store lmt base in tx queue for easy access */
248 : 0 : txq->lmt_base = nix->lmt_base;
249 : 0 : txq->io_addr = sq->io_addr;
250 : 0 : txq->nb_sqb_bufs_adj = sq->nb_sqb_bufs_adj;
251 : 0 : txq->sqes_per_sqb_log2 = sq->sqes_per_sqb_log2;
252 : :
253 : : /* Fetch CPT LF info for outbound if present */
254 [ # # ]: 0 : if (dev->outb.lf_base) {
255 : 0 : crypto_qid = qid % dev->outb.nb_crypto_qs;
256 : 0 : inl_lf = dev->outb.lf_base + crypto_qid;
257 : :
258 : 0 : txq->cpt_io_addr = inl_lf->io_addr;
259 : 0 : txq->cpt_fc = inl_lf->fc_addr;
260 : 0 : txq->cpt_fc_sw = (int32_t *)((uintptr_t)dev->outb.fc_sw_mem +
261 : 0 : crypto_qid * RTE_CACHE_LINE_SIZE);
262 : :
263 : 0 : txq->cpt_desc = inl_lf->nb_desc * 0.7;
264 : 0 : txq->sa_base = (uint64_t)dev->outb.sa_base;
265 : 0 : txq->sa_base |= (uint64_t)eth_dev->data->port_id;
266 : : PLT_STATIC_ASSERT(ROC_NIX_INL_SA_BASE_ALIGN == BIT_ULL(16));
267 : : }
268 : :
269 : : /* Restore marking flag from roc */
270 : 0 : mark_fmt = roc_nix_tm_mark_format_get(nix, &mark_flag);
271 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
272 [ # # ]: 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
273 : :
274 : : nix_form_default_desc(dev, txq, qid);
275 : 0 : txq->lso_tun_fmt = dev->lso_tun_fmt;
276 : 0 : return 0;
277 : : }
278 : :
279 : : static int
280 [ # # ]: 0 : cn10k_nix_rx_queue_setup(struct rte_eth_dev *eth_dev, uint16_t qid,
281 : : uint16_t nb_desc, unsigned int socket,
282 : : const struct rte_eth_rxconf *rx_conf,
283 : : struct rte_mempool *mp)
284 : : {
285 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
286 : : struct cn10k_eth_rxq *rxq;
287 : : struct roc_nix_rq *rq;
288 : : struct roc_nix_cq *cq;
289 : : int rc;
290 : :
291 : : RTE_SET_USED(socket);
292 : :
293 : : /* CQ Errata needs min 4K ring */
294 [ # # ]: 0 : if (dev->cq_min_4k && nb_desc < 4096)
295 : : nb_desc = 4096;
296 : :
297 : : /* Common Rx queue setup */
298 : 0 : rc = cnxk_nix_rx_queue_setup(eth_dev, qid, nb_desc,
299 : : sizeof(struct cn10k_eth_rxq), rx_conf, mp);
300 [ # # ]: 0 : if (rc)
301 : : return rc;
302 : :
303 : : /* Do initial mtu setup for RQ0 before device start */
304 [ # # ]: 0 : if (!qid) {
305 : 0 : rc = nix_recalc_mtu(eth_dev);
306 [ # # ]: 0 : if (rc)
307 : : return rc;
308 : :
309 : : /* Update offload flags */
310 : 0 : dev->rx_offload_flags = nix_rx_offload_flags(eth_dev);
311 : 0 : dev->tx_offload_flags = nix_tx_offload_flags(eth_dev);
312 : : }
313 : :
314 : 0 : rq = &dev->rqs[qid];
315 : 0 : cq = &dev->cqs[qid];
316 : :
317 : : /* Update fast path queue */
318 : 0 : rxq = eth_dev->data->rx_queues[qid];
319 : 0 : rxq->rq = qid;
320 : 0 : rxq->desc = (uintptr_t)cq->desc_base;
321 : 0 : rxq->cq_door = cq->door;
322 : 0 : rxq->cq_status = cq->status;
323 : 0 : rxq->wdata = cq->wdata;
324 : 0 : rxq->head = cq->head;
325 : 0 : rxq->qmask = cq->qmask;
326 : 0 : rxq->tstamp = &dev->tstamp;
327 : :
328 : : /* Data offset from data to start of mbuf is first_skip */
329 : 0 : rxq->data_off = rq->first_skip;
330 : 0 : rxq->mbuf_initializer = cnxk_nix_rxq_mbuf_setup(dev);
331 : :
332 : : /* Setup security related info */
333 [ # # ]: 0 : if (dev->rx_offload_flags & NIX_RX_OFFLOAD_SECURITY_F) {
334 : 0 : rxq->lmt_base = dev->nix.lmt_base;
335 : 0 : rxq->sa_base = roc_nix_inl_inb_sa_base_get(&dev->nix,
336 : 0 : dev->inb.inl_dev);
337 : : }
338 : :
339 : : /* Lookup mem */
340 : 0 : rxq->lookup_mem = cnxk_nix_fastpath_lookup_mem_get();
341 : 0 : return 0;
342 : : }
343 : :
344 : : static void
345 : 0 : cn10k_nix_rx_queue_meta_aura_update(struct rte_eth_dev *eth_dev)
346 : : {
347 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
348 : : struct cnxk_eth_rxq_sp *rxq_sp;
349 : : struct cn10k_eth_rxq *rxq;
350 : : struct roc_nix_rq *rq;
351 : : int i;
352 : :
353 : : /* Update Aura handle for fastpath rx queues */
354 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_rx_queues; i++) {
355 : 0 : rq = &dev->rqs[i];
356 : 0 : rxq = eth_dev->data->rx_queues[i];
357 : 0 : rxq->meta_aura = rq->meta_aura_handle;
358 : 0 : rxq->meta_pool = dev->nix.meta_mempool;
359 : : /* Assume meta packet from normal aura if meta aura is not setup
360 : : */
361 [ # # ]: 0 : if (!rxq->meta_aura) {
362 : : rxq_sp = cnxk_eth_rxq_to_sp(rxq);
363 : 0 : rxq->meta_aura = rxq_sp->qconf.mp->pool_id;
364 : 0 : rxq->meta_pool = (uintptr_t)rxq_sp->qconf.mp;
365 : : }
366 : : }
367 : : /* Store mempool in lookup mem */
368 : 0 : cnxk_nix_lookup_mem_metapool_set(dev);
369 : 0 : }
370 : :
371 : : static int
372 : 0 : cn10k_nix_tx_queue_stop(struct rte_eth_dev *eth_dev, uint16_t qidx)
373 : : {
374 : 0 : struct cn10k_eth_txq *txq = eth_dev->data->tx_queues[qidx];
375 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
376 : 0 : uint16_t flags = dev->tx_offload_flags;
377 : 0 : struct roc_nix *nix = &dev->nix;
378 : 0 : uint32_t head = 0, tail = 0;
379 : : int rc;
380 : :
381 : 0 : rc = cnxk_nix_tx_queue_stop(eth_dev, qidx);
382 [ # # ]: 0 : if (rc)
383 : : return rc;
384 : :
385 : : /* Clear fc cache pkts to trigger worker stop */
386 : 0 : txq->fc_cache_pkts = 0;
387 : :
388 [ # # # # ]: 0 : if ((flags & NIX_TX_OFFLOAD_MBUF_NOFF_F) && txq->tx_compl.ena) {
389 : 0 : struct roc_nix_sq *sq = &dev->sqs[qidx];
390 : : do {
391 : 0 : handle_tx_completion_pkts(txq, flags & NIX_TX_VWQE_F);
392 : : /* Check if SQ is empty */
393 : 0 : roc_nix_sq_head_tail_get(nix, sq->qid, &head, &tail);
394 [ # # ]: 0 : if (head != tail)
395 : 0 : continue;
396 : :
397 : : /* Check if completion CQ is empty */
398 : 0 : roc_nix_cq_head_tail_get(nix, sq->cqid, &head, &tail);
399 [ # # ]: 0 : } while (head != tail);
400 : : }
401 : :
402 : : return 0;
403 : : }
404 : :
405 : : static int
406 : 0 : cn10k_nix_configure(struct rte_eth_dev *eth_dev)
407 : : {
408 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
409 : : int rc;
410 : :
411 : : /* Common nix configure */
412 : 0 : rc = cnxk_nix_configure(eth_dev);
413 [ # # ]: 0 : if (rc)
414 : : return rc;
415 : :
416 [ # # ]: 0 : if (dev->tx_offloads & RTE_ETH_TX_OFFLOAD_SECURITY ||
417 [ # # ]: 0 : dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY) {
418 : : /* Register callback to handle security error work */
419 : 0 : roc_nix_inl_cb_register(cn10k_eth_sec_sso_work_cb, NULL);
420 : : }
421 : :
422 : : /* Update offload flags */
423 : 0 : dev->rx_offload_flags = nix_rx_offload_flags(eth_dev);
424 : 0 : dev->tx_offload_flags = nix_tx_offload_flags(eth_dev);
425 : :
426 : : /* reset reassembly dynfield/flag offset */
427 : 0 : dev->reass_dynfield_off = -1;
428 : 0 : dev->reass_dynflag_bit = -1;
429 : :
430 : 0 : plt_nix_dbg("Configured port%d platform specific rx_offload_flags=%x"
431 : : " tx_offload_flags=0x%x",
432 : : eth_dev->data->port_id, dev->rx_offload_flags,
433 : : dev->tx_offload_flags);
434 : 0 : return 0;
435 : : }
436 : :
437 : : /* Function to enable ptp config for VFs */
438 : : static void
439 : 0 : nix_ptp_enable_vf(struct rte_eth_dev *eth_dev)
440 : : {
441 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
442 : :
443 [ # # ]: 0 : if (nix_recalc_mtu(eth_dev))
444 : 0 : plt_err("Failed to set MTU size for ptp");
445 : :
446 : 0 : dev->rx_offload_flags |= NIX_RX_OFFLOAD_TSTAMP_F;
447 : :
448 : : /* Setting up the function pointers as per new offload flags */
449 : 0 : cn10k_eth_set_rx_function(eth_dev);
450 : 0 : cn10k_eth_set_tx_function(eth_dev);
451 : 0 : }
452 : :
453 : : static uint16_t
454 : 0 : nix_ptp_vf_burst(void *queue, struct rte_mbuf **mbufs, uint16_t pkts)
455 : : {
456 : : struct cn10k_eth_rxq *rxq = queue;
457 : : struct cnxk_eth_rxq_sp *rxq_sp;
458 : : struct rte_eth_dev *eth_dev;
459 : :
460 : : RTE_SET_USED(mbufs);
461 : : RTE_SET_USED(pkts);
462 : :
463 : : rxq_sp = cnxk_eth_rxq_to_sp(rxq);
464 : 0 : eth_dev = rxq_sp->dev->eth_dev;
465 : 0 : nix_ptp_enable_vf(eth_dev);
466 : :
467 : 0 : return 0;
468 : : }
469 : :
470 : : static int
471 : 0 : cn10k_nix_ptp_info_update_cb(struct roc_nix *nix, bool ptp_en)
472 : : {
473 : : struct cnxk_eth_dev *dev = (struct cnxk_eth_dev *)nix;
474 : : struct rte_eth_dev *eth_dev;
475 : : struct cn10k_eth_rxq *rxq;
476 : : int i, rc;
477 : :
478 [ # # ]: 0 : if (!dev)
479 : : return -EINVAL;
480 : :
481 : 0 : eth_dev = dev->eth_dev;
482 [ # # ]: 0 : if (!eth_dev)
483 : : return -EINVAL;
484 : :
485 : 0 : dev->ptp_en = ptp_en;
486 : :
487 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_rx_queues; i++) {
488 : 0 : rxq = eth_dev->data->rx_queues[i];
489 : 0 : rxq->mbuf_initializer = cnxk_nix_rxq_mbuf_setup(dev);
490 : : }
491 : :
492 [ # # # # : 0 : if (roc_nix_is_vf_or_sdp(nix) && !(roc_nix_is_sdp(nix)) &&
# # ]
493 : 0 : !(roc_nix_is_lbk(nix))) {
494 : : /* In case of VF, setting of MTU cannot be done directly in this
495 : : * function as this is running as part of MBOX request(PF->VF)
496 : : * and MTU setting also requires MBOX message to be
497 : : * sent(VF->PF)
498 : : */
499 [ # # ]: 0 : if (dev->ptp_en) {
500 : 0 : rc = rte_mbuf_dyn_rx_timestamp_register
501 : : (&dev->tstamp.tstamp_dynfield_offset,
502 : : &dev->tstamp.rx_tstamp_dynflag);
503 [ # # ]: 0 : if (rc != 0) {
504 : 0 : plt_err("Failed to register Rx timestamp field/flag");
505 : 0 : return -EINVAL;
506 : : }
507 : : }
508 : 0 : eth_dev->rx_pkt_burst = nix_ptp_vf_burst;
509 : 0 : rte_eth_fp_ops[eth_dev->data->port_id].rx_pkt_burst = eth_dev->rx_pkt_burst;
510 : : rte_mb();
511 [ # # ]: 0 : if (dev->cnxk_sso_ptp_tstamp_cb)
512 : 0 : dev->cnxk_sso_ptp_tstamp_cb(eth_dev->data->port_id,
513 : 0 : NIX_RX_OFFLOAD_TSTAMP_F, dev->ptp_en);
514 : :
515 : : }
516 : :
517 : : return 0;
518 : : }
519 : :
520 : : static int
521 : 0 : cn10k_nix_timesync_enable(struct rte_eth_dev *eth_dev)
522 : : {
523 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
524 : : int i, rc;
525 : :
526 : 0 : rc = cnxk_nix_timesync_enable(eth_dev);
527 [ # # ]: 0 : if (rc)
528 : : return rc;
529 : :
530 : 0 : dev->rx_offload_flags |= NIX_RX_OFFLOAD_TSTAMP_F;
531 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_TSTAMP_F;
532 : :
533 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++)
534 [ # # ]: 0 : nix_form_default_desc(dev, eth_dev->data->tx_queues[i], i);
535 : :
536 : : /* Setting up the rx[tx]_offload_flags due to change
537 : : * in rx[tx]_offloads.
538 : : */
539 : 0 : cn10k_eth_set_rx_function(eth_dev);
540 : 0 : cn10k_eth_set_tx_function(eth_dev);
541 : 0 : return 0;
542 : : }
543 : :
544 : : static int
545 : 0 : cn10k_nix_timesync_disable(struct rte_eth_dev *eth_dev)
546 : : {
547 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
548 : : int i, rc;
549 : :
550 : 0 : rc = cnxk_nix_timesync_disable(eth_dev);
551 [ # # ]: 0 : if (rc)
552 : : return rc;
553 : :
554 : 0 : dev->rx_offload_flags &= ~NIX_RX_OFFLOAD_TSTAMP_F;
555 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_TSTAMP_F;
556 : :
557 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++)
558 [ # # ]: 0 : nix_form_default_desc(dev, eth_dev->data->tx_queues[i], i);
559 : :
560 : : /* Setting up the rx[tx]_offload_flags due to change
561 : : * in rx[tx]_offloads.
562 : : */
563 : 0 : cn10k_eth_set_rx_function(eth_dev);
564 : 0 : cn10k_eth_set_tx_function(eth_dev);
565 : 0 : return 0;
566 : : }
567 : :
568 : : static int
569 [ # # ]: 0 : cn10k_nix_timesync_read_tx_timestamp(struct rte_eth_dev *eth_dev,
570 : : struct timespec *timestamp)
571 : : {
572 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
573 : : struct cnxk_timesync_info *tstamp = &dev->tstamp;
574 : : uint64_t ns;
575 : :
576 [ # # ]: 0 : if (*tstamp->tx_tstamp == 0)
577 : : return -EINVAL;
578 : :
579 : 0 : *tstamp->tx_tstamp = ((*tstamp->tx_tstamp >> 32) * NSEC_PER_SEC) +
580 [ # # ]: 0 : (*tstamp->tx_tstamp & 0xFFFFFFFFUL);
581 : : ns = rte_timecounter_update(&dev->tx_tstamp_tc, *tstamp->tx_tstamp);
582 : 0 : *timestamp = rte_ns_to_timespec(ns);
583 : 0 : *tstamp->tx_tstamp = 0;
584 : : rte_wmb();
585 : :
586 : 0 : return 0;
587 : : }
588 : :
589 : : static int
590 : 0 : cn10k_nix_dev_start(struct rte_eth_dev *eth_dev)
591 : : {
592 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
593 : 0 : struct roc_nix *nix = &dev->nix;
594 : : int rc;
595 : :
596 : : /* Common eth dev start */
597 : 0 : rc = cnxk_nix_dev_start(eth_dev);
598 [ # # ]: 0 : if (rc)
599 : : return rc;
600 : :
601 : : /* Update VF about data off shifted by 8 bytes if PTP already
602 : : * enabled in PF owning this VF
603 : : */
604 [ # # # # : 0 : if (dev->ptp_en && (!roc_nix_is_pf(nix) && (!roc_nix_is_sdp(nix))))
# # ]
605 : 0 : nix_ptp_enable_vf(eth_dev);
606 : :
607 : : /* Setting up the rx[tx]_offload_flags due to change
608 : : * in rx[tx]_offloads.
609 : : */
610 : 0 : dev->rx_offload_flags |= nix_rx_offload_flags(eth_dev);
611 : 0 : dev->tx_offload_flags |= nix_tx_offload_flags(eth_dev);
612 : :
613 [ # # ]: 0 : if (dev->rx_offload_flags & NIX_RX_OFFLOAD_SECURITY_F)
614 : 0 : cn10k_nix_rx_queue_meta_aura_update(eth_dev);
615 : :
616 : : /* Set flags for Rx Inject feature */
617 [ # # ]: 0 : if (roc_idev_nix_rx_inject_get(nix->port_id))
618 : 0 : dev->rx_offload_flags |= NIX_RX_SEC_REASSEMBLY_F;
619 : :
620 : 0 : cn10k_eth_set_tx_function(eth_dev);
621 : 0 : cn10k_eth_set_rx_function(eth_dev);
622 : 0 : return 0;
623 : : }
624 : :
625 : : static int
626 [ # # ]: 0 : cn10k_nix_reassembly_capability_get(struct rte_eth_dev *eth_dev,
627 : : struct rte_eth_ip_reassembly_params *reassembly_capa)
628 : : {
629 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
630 : : int rc = -ENOTSUP;
631 : : RTE_SET_USED(eth_dev);
632 : :
633 [ # # ]: 0 : if (!roc_feature_nix_has_reass())
634 : : return -ENOTSUP;
635 : :
636 [ # # ]: 0 : if (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY) {
637 : 0 : reassembly_capa->timeout_ms = 60 * 1000;
638 : 0 : reassembly_capa->max_frags = 4;
639 : 0 : reassembly_capa->flags = RTE_ETH_DEV_REASSEMBLY_F_IPV4 |
640 : : RTE_ETH_DEV_REASSEMBLY_F_IPV6;
641 : : rc = 0;
642 : : }
643 : :
644 : : return rc;
645 : : }
646 : :
647 : : static int
648 : 0 : cn10k_nix_reassembly_conf_get(struct rte_eth_dev *eth_dev,
649 : : struct rte_eth_ip_reassembly_params *conf)
650 : : {
651 : : RTE_SET_USED(eth_dev);
652 : : RTE_SET_USED(conf);
653 : 0 : return -ENOTSUP;
654 : : }
655 : :
656 : : static int
657 [ # # ]: 0 : cn10k_nix_reassembly_conf_set(struct rte_eth_dev *eth_dev,
658 : : const struct rte_eth_ip_reassembly_params *conf)
659 : : {
660 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
661 : : int rc = 0;
662 : :
663 [ # # ]: 0 : if (!roc_feature_nix_has_reass())
664 : : return -ENOTSUP;
665 : :
666 [ # # ]: 0 : if (!conf->flags) {
667 : : /* Clear offload flags on disable */
668 [ # # ]: 0 : if (!dev->inb.nb_oop)
669 : 0 : dev->rx_offload_flags &= ~NIX_RX_REAS_F;
670 : 0 : dev->inb.reass_en = false;
671 : 0 : return 0;
672 : : }
673 : :
674 : 0 : rc = roc_nix_reassembly_configure(conf->timeout_ms, conf->max_frags);
675 [ # # # # ]: 0 : if (!rc && dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY) {
676 : 0 : dev->rx_offload_flags |= NIX_RX_REAS_F;
677 : 0 : dev->inb.reass_en = true;
678 : : }
679 : :
680 : : return rc;
681 : : }
682 : :
683 : : static int
684 : : cn10k_nix_rx_avail_get(struct cn10k_eth_rxq *rxq)
685 : : {
686 : : uint32_t qmask = rxq->qmask;
687 : : uint64_t reg, head, tail;
688 : : int available;
689 : :
690 : : /* Use LDADDA version to avoid reorder */
691 : : reg = roc_atomic64_add_sync(rxq->wdata, rxq->cq_status);
692 : : /* CQ_OP_STATUS operation error */
693 : : if (reg & BIT_ULL(NIX_CQ_OP_STAT_OP_ERR) ||
694 : : reg & BIT_ULL(NIX_CQ_OP_STAT_CQ_ERR))
695 : : return 0;
696 : : tail = reg & 0xFFFFF;
697 : : head = (reg >> 20) & 0xFFFFF;
698 : : if (tail < head)
699 : : available = tail - head + qmask + 1;
700 : : else
701 : : available = tail - head;
702 : :
703 : : return available;
704 : : }
705 : :
706 : : static int
707 : 0 : cn10k_rx_descriptor_dump(const struct rte_eth_dev *eth_dev, uint16_t qid,
708 : : uint16_t offset, uint16_t num, FILE *file)
709 : : {
710 : : struct cn10k_eth_rxq *rxq = eth_dev->data->rx_queues[qid];
711 : : const uint64_t data_off = rxq->data_off;
712 : : const uint32_t qmask = rxq->qmask;
713 : : const uintptr_t desc = rxq->desc;
714 : : struct cpt_parse_hdr_s *cpth;
715 : : uint32_t head = rxq->head;
716 : : struct nix_cqe_hdr_s *cq;
717 : : uint16_t count = 0;
718 : : int available_pkts;
719 : : uint64_t cq_w1;
720 : :
721 : : available_pkts = cn10k_nix_rx_avail_get(rxq);
722 : :
723 [ # # ]: 0 : if ((offset + num - 1) >= available_pkts) {
724 : 0 : plt_err("Invalid BD num=%u", num);
725 : 0 : return -EINVAL;
726 : : }
727 : :
728 : : while (count < num) {
729 : : cq = (struct nix_cqe_hdr_s *)(desc + CQE_SZ(head) +
730 : : count + offset);
731 : : cq_w1 = *((const uint64_t *)cq + 1);
732 : : if (cq_w1 & BIT(11)) {
733 : : rte_iova_t buff = *((rte_iova_t *)((uint64_t *)cq + 9));
734 : : struct rte_mbuf *mbuf =
735 : : (struct rte_mbuf *)(buff - data_off);
736 : : cpth = (struct cpt_parse_hdr_s *)
737 : : ((uintptr_t)mbuf + (uint16_t)data_off);
738 : : roc_cpt_parse_hdr_dump(file, cpth);
739 : : } else {
740 : : roc_nix_cqe_dump(file, cq);
741 : : }
742 : :
743 : : count++;
744 : : head &= qmask;
745 : : }
746 : : return 0;
747 : : }
748 : :
749 : : static int
750 : 0 : cn10k_nix_tm_mark_vlan_dei(struct rte_eth_dev *eth_dev, int mark_green,
751 : : int mark_yellow, int mark_red,
752 : : struct rte_tm_error *error)
753 : : {
754 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
755 : 0 : struct roc_nix *roc_nix = &dev->nix;
756 : : uint64_t mark_fmt, mark_flag;
757 : : int rc, i;
758 : :
759 : 0 : rc = cnxk_nix_tm_mark_vlan_dei(eth_dev, mark_green, mark_yellow,
760 : : mark_red, error);
761 : :
762 [ # # ]: 0 : if (rc)
763 : 0 : goto exit;
764 : :
765 : 0 : mark_fmt = roc_nix_tm_mark_format_get(roc_nix, &mark_flag);
766 [ # # ]: 0 : if (mark_flag) {
767 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
768 : 0 : dev->tx_mark = true;
769 : : } else {
770 : 0 : dev->tx_mark = false;
771 [ # # ]: 0 : if (!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT ||
772 : : dev->tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT))
773 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_VLAN_QINQ_F;
774 : : }
775 : :
776 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++) {
777 : 0 : struct cn10k_eth_txq *txq = eth_dev->data->tx_queues[i];
778 : :
779 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
780 : 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
781 : : }
782 : 0 : cn10k_eth_set_tx_function(eth_dev);
783 : 0 : exit:
784 : 0 : return rc;
785 : : }
786 : :
787 : : static int
788 : 0 : cn10k_nix_tm_mark_ip_ecn(struct rte_eth_dev *eth_dev, int mark_green,
789 : : int mark_yellow, int mark_red,
790 : : struct rte_tm_error *error)
791 : : {
792 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
793 : 0 : struct roc_nix *roc_nix = &dev->nix;
794 : : uint64_t mark_fmt, mark_flag;
795 : : int rc, i;
796 : :
797 : 0 : rc = cnxk_nix_tm_mark_ip_ecn(eth_dev, mark_green, mark_yellow, mark_red,
798 : : error);
799 [ # # ]: 0 : if (rc)
800 : 0 : goto exit;
801 : :
802 : 0 : mark_fmt = roc_nix_tm_mark_format_get(roc_nix, &mark_flag);
803 [ # # ]: 0 : if (mark_flag) {
804 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
805 : 0 : dev->tx_mark = true;
806 : : } else {
807 : 0 : dev->tx_mark = false;
808 [ # # ]: 0 : if (!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT ||
809 : : dev->tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT))
810 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_VLAN_QINQ_F;
811 : : }
812 : :
813 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++) {
814 : 0 : struct cn10k_eth_txq *txq = eth_dev->data->tx_queues[i];
815 : :
816 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
817 : 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
818 : : }
819 : 0 : cn10k_eth_set_tx_function(eth_dev);
820 : 0 : exit:
821 : 0 : return rc;
822 : : }
823 : :
824 : : static int
825 : 0 : cn10k_nix_tm_mark_ip_dscp(struct rte_eth_dev *eth_dev, int mark_green,
826 : : int mark_yellow, int mark_red,
827 : : struct rte_tm_error *error)
828 : : {
829 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
830 : 0 : struct roc_nix *roc_nix = &dev->nix;
831 : : uint64_t mark_fmt, mark_flag;
832 : : int rc, i;
833 : :
834 : 0 : rc = cnxk_nix_tm_mark_ip_dscp(eth_dev, mark_green, mark_yellow,
835 : : mark_red, error);
836 [ # # ]: 0 : if (rc)
837 : 0 : goto exit;
838 : :
839 : 0 : mark_fmt = roc_nix_tm_mark_format_get(roc_nix, &mark_flag);
840 [ # # ]: 0 : if (mark_flag) {
841 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
842 : 0 : dev->tx_mark = true;
843 : : } else {
844 : 0 : dev->tx_mark = false;
845 [ # # ]: 0 : if (!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT ||
846 : : dev->tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT))
847 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_VLAN_QINQ_F;
848 : : }
849 : :
850 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++) {
851 : 0 : struct cn10k_eth_txq *txq = eth_dev->data->tx_queues[i];
852 : :
853 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
854 : 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
855 : : }
856 : 0 : cn10k_eth_set_tx_function(eth_dev);
857 : 0 : exit:
858 : 0 : return rc;
859 : : }
860 : :
861 : : /* Update platform specific eth dev ops */
862 : : static void
863 : 0 : nix_eth_dev_ops_override(void)
864 : : {
865 : : static int init_once;
866 : :
867 [ # # ]: 0 : if (init_once)
868 : : return;
869 : 0 : init_once = 1;
870 : :
871 : : /* Update platform specific ops */
872 : 0 : cnxk_eth_dev_ops.dev_configure = cn10k_nix_configure;
873 : 0 : cnxk_eth_dev_ops.tx_queue_setup = cn10k_nix_tx_queue_setup;
874 : 0 : cnxk_eth_dev_ops.rx_queue_setup = cn10k_nix_rx_queue_setup;
875 : 0 : cnxk_eth_dev_ops.tx_queue_release = cn10k_nix_tx_queue_release;
876 : 0 : cnxk_eth_dev_ops.tx_queue_stop = cn10k_nix_tx_queue_stop;
877 : 0 : cnxk_eth_dev_ops.dev_start = cn10k_nix_dev_start;
878 : 0 : cnxk_eth_dev_ops.dev_ptypes_set = cn10k_nix_ptypes_set;
879 : 0 : cnxk_eth_dev_ops.timesync_enable = cn10k_nix_timesync_enable;
880 : 0 : cnxk_eth_dev_ops.timesync_disable = cn10k_nix_timesync_disable;
881 : 0 : cnxk_eth_dev_ops.timesync_read_tx_timestamp =
882 : : cn10k_nix_timesync_read_tx_timestamp;
883 : 0 : cnxk_eth_dev_ops.ip_reassembly_capability_get =
884 : : cn10k_nix_reassembly_capability_get;
885 : 0 : cnxk_eth_dev_ops.ip_reassembly_conf_get = cn10k_nix_reassembly_conf_get;
886 : 0 : cnxk_eth_dev_ops.ip_reassembly_conf_set = cn10k_nix_reassembly_conf_set;
887 : 0 : cnxk_eth_dev_ops.eth_rx_descriptor_dump = cn10k_rx_descriptor_dump;
888 : : }
889 : :
890 : : /* Update platform specific tm ops */
891 : : static void
892 : : nix_tm_ops_override(void)
893 : : {
894 : : static int init_once;
895 : :
896 [ # # ]: 0 : if (init_once)
897 : : return;
898 : 0 : init_once = 1;
899 : :
900 : : /* Update platform specific ops */
901 : 0 : cnxk_tm_ops.mark_vlan_dei = cn10k_nix_tm_mark_vlan_dei;
902 : 0 : cnxk_tm_ops.mark_ip_ecn = cn10k_nix_tm_mark_ip_ecn;
903 : 0 : cnxk_tm_ops.mark_ip_dscp = cn10k_nix_tm_mark_ip_dscp;
904 : : }
905 : :
906 : : static void
907 : : npc_flow_ops_override(void)
908 : : {
909 : : static int init_once;
910 : :
911 [ # # ]: 0 : if (init_once)
912 : : return;
913 : 0 : init_once = 1;
914 : :
915 : : /* Update platform specific ops */
916 : 0 : cnxk_flow_ops.create = cn10k_flow_create;
917 : 0 : cnxk_flow_ops.destroy = cn10k_flow_destroy;
918 : 0 : cnxk_flow_ops.info_get = cn10k_flow_info_get;
919 : : }
920 : :
921 : : static int
922 : 0 : cn10k_nix_remove(struct rte_pci_device *pci_dev)
923 : : {
924 : 0 : return cnxk_nix_remove(pci_dev);
925 : : }
926 : :
927 : : static int
928 : 0 : cn10k_nix_probe(struct rte_pci_driver *pci_drv, struct rte_pci_device *pci_dev)
929 : : {
930 : : struct rte_eth_dev *eth_dev;
931 : : struct cnxk_eth_dev *dev;
932 : : int rc;
933 : :
934 : 0 : rc = roc_plt_init();
935 [ # # ]: 0 : if (rc) {
936 : 0 : plt_err("Failed to initialize platform model, rc=%d", rc);
937 : 0 : return rc;
938 : : }
939 : :
940 : 0 : nix_eth_dev_ops_override();
941 : : nix_tm_ops_override();
942 : : npc_flow_ops_override();
943 : :
944 : 0 : cn10k_eth_sec_ops_override();
945 : :
946 : : /* Common probe */
947 : 0 : rc = cnxk_nix_probe(pci_drv, pci_dev);
948 [ # # ]: 0 : if (rc)
949 : : return rc;
950 : :
951 : : /* Find eth dev allocated */
952 : 0 : eth_dev = rte_eth_dev_allocated(pci_dev->device.name);
953 [ # # ]: 0 : if (!eth_dev) {
954 : : /* Ignore if ethdev is in mid of detach state in secondary */
955 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY)
956 : : return 0;
957 : 0 : return -ENOENT;
958 : : }
959 : :
960 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY) {
961 : : /* Setup callbacks for secondary process */
962 : 0 : cn10k_eth_set_tx_function(eth_dev);
963 : 0 : cn10k_eth_set_rx_function(eth_dev);
964 : 0 : return 0;
965 : : }
966 : :
967 : : dev = cnxk_eth_pmd_priv(eth_dev);
968 : :
969 : : /* DROP_RE is not supported with inline IPSec for CN10K A0 and
970 : : * when vector mode is enabled.
971 : : */
972 [ # # # # ]: 0 : if (roc_errata_nix_has_no_drop_re() && !roc_env_is_asim()) {
973 : 0 : dev->ipsecd_drop_re_dis = 1;
974 : 0 : dev->vec_drop_re_dis = 1;
975 : : }
976 : :
977 : : /* Register up msg callbacks for PTP information */
978 : 0 : roc_nix_ptp_info_cb_register(&dev->nix, cn10k_nix_ptp_info_update_cb);
979 : :
980 : 0 : return 0;
981 : : }
982 : :
983 : : static const struct rte_pci_id cn10k_pci_nix_map[] = {
984 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KA, PCI_DEVID_CNXK_RVU_PF),
985 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KAS, PCI_DEVID_CNXK_RVU_PF),
986 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CNF10KA, PCI_DEVID_CNXK_RVU_PF),
987 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KB, PCI_DEVID_CNXK_RVU_PF),
988 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CNF10KB, PCI_DEVID_CNXK_RVU_PF),
989 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KA, PCI_DEVID_CNXK_RVU_VF),
990 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KA, PCI_DEVID_CNXK_RVU_ESWITCH_VF),
991 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KB, PCI_DEVID_CNXK_RVU_ESWITCH_VF),
992 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CNF10KA, PCI_DEVID_CNXK_RVU_ESWITCH_VF),
993 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KAS, PCI_DEVID_CNXK_RVU_VF),
994 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CNF10KA, PCI_DEVID_CNXK_RVU_VF),
995 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KB, PCI_DEVID_CNXK_RVU_VF),
996 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CNF10KB, PCI_DEVID_CNXK_RVU_VF),
997 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KA, PCI_DEVID_CNXK_RVU_AF_VF),
998 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KAS, PCI_DEVID_CNXK_RVU_AF_VF),
999 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CNF10KA, PCI_DEVID_CNXK_RVU_AF_VF),
1000 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KB, PCI_DEVID_CNXK_RVU_AF_VF),
1001 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CNF10KB, PCI_DEVID_CNXK_RVU_AF_VF),
1002 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KA, PCI_DEVID_CNXK_RVU_SDP_VF),
1003 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KAS, PCI_DEVID_CNXK_RVU_SDP_VF),
1004 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CNF10KA, PCI_DEVID_CNXK_RVU_SDP_VF),
1005 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN10KB, PCI_DEVID_CNXK_RVU_SDP_VF),
1006 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CNF10KB, PCI_DEVID_CNXK_RVU_SDP_VF),
1007 : : {
1008 : : .vendor_id = 0,
1009 : : },
1010 : : };
1011 : :
1012 : : static struct rte_pci_driver cn10k_pci_nix = {
1013 : : .id_table = cn10k_pci_nix_map,
1014 : : .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_NEED_IOVA_AS_VA |
1015 : : RTE_PCI_DRV_INTR_LSC,
1016 : : .probe = cn10k_nix_probe,
1017 : : .remove = cn10k_nix_remove,
1018 : : };
1019 : :
1020 : 252 : RTE_PMD_REGISTER_PCI(net_cn10k, cn10k_pci_nix);
1021 : : RTE_PMD_REGISTER_PCI_TABLE(net_cn10k, cn10k_pci_nix_map);
1022 : : RTE_PMD_REGISTER_KMOD_DEP(net_cn10k, "vfio-pci");
|