Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright(C) 2024 Marvell.
3 : : */
4 : : #include "cn20k_ethdev.h"
5 : : #include "cn20k_flow.h"
6 : : #include "cn20k_rx.h"
7 : : #include "cn20k_tx.h"
8 : :
9 : : static uint16_t
10 [ # # ]: 0 : nix_rx_offload_flags(struct rte_eth_dev *eth_dev)
11 : : {
12 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
13 : : struct rte_eth_dev_data *data = eth_dev->data;
14 : : struct rte_eth_conf *conf = &data->dev_conf;
15 : : struct rte_eth_rxmode *rxmode = &conf->rxmode;
16 : : uint16_t flags = 0;
17 : :
18 [ # # ]: 0 : if (rxmode->mq_mode == RTE_ETH_MQ_RX_RSS &&
19 [ # # ]: 0 : (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_RSS_HASH))
20 : : flags |= NIX_RX_OFFLOAD_RSS_F;
21 : :
22 [ # # ]: 0 : if (dev->rx_offloads & (RTE_ETH_RX_OFFLOAD_TCP_CKSUM | RTE_ETH_RX_OFFLOAD_UDP_CKSUM))
23 : 0 : flags |= NIX_RX_OFFLOAD_CHECKSUM_F;
24 : :
25 [ # # ]: 0 : if (dev->rx_offloads &
26 : : (RTE_ETH_RX_OFFLOAD_IPV4_CKSUM | RTE_ETH_RX_OFFLOAD_OUTER_IPV4_CKSUM))
27 : 0 : flags |= NIX_RX_OFFLOAD_CHECKSUM_F;
28 : :
29 [ # # ]: 0 : if (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SCATTER)
30 : 0 : flags |= NIX_RX_MULTI_SEG_F;
31 : :
32 [ # # ]: 0 : if ((dev->rx_offloads & RTE_ETH_RX_OFFLOAD_TIMESTAMP))
33 : 0 : flags |= NIX_RX_OFFLOAD_TSTAMP_F;
34 : :
35 [ # # ]: 0 : if (!dev->ptype_disable)
36 : 0 : flags |= NIX_RX_OFFLOAD_PTYPE_F;
37 : :
38 [ # # # # ]: 0 : if (dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY && !dev->nix.custom_inb_sa)
39 : 0 : flags |= NIX_RX_OFFLOAD_SECURITY_F;
40 : :
41 : 0 : return flags;
42 : : }
43 : :
44 : : static uint16_t
45 [ # # ]: 0 : nix_tx_offload_flags(struct rte_eth_dev *eth_dev)
46 : : {
47 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
48 : 0 : uint64_t conf = dev->tx_offloads;
49 : : struct roc_nix *nix = &dev->nix;
50 : : uint16_t flags = 0;
51 : :
52 : : /* Fastpath is dependent on these enums */
53 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_TCP_CKSUM != (1ULL << 52));
54 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_SCTP_CKSUM != (2ULL << 52));
55 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_UDP_CKSUM != (3ULL << 52));
56 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_IP_CKSUM != (1ULL << 54));
57 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_IPV4 != (1ULL << 55));
58 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_IP_CKSUM != (1ULL << 58));
59 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_IPV4 != (1ULL << 59));
60 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_IPV6 != (1ULL << 60));
61 : : RTE_BUILD_BUG_ON(RTE_MBUF_F_TX_OUTER_UDP_CKSUM != (1ULL << 41));
62 : : RTE_BUILD_BUG_ON(RTE_MBUF_L2_LEN_BITS != 7);
63 : : RTE_BUILD_BUG_ON(RTE_MBUF_L3_LEN_BITS != 9);
64 : : RTE_BUILD_BUG_ON(RTE_MBUF_OUTL2_LEN_BITS != 7);
65 : : RTE_BUILD_BUG_ON(RTE_MBUF_OUTL3_LEN_BITS != 9);
66 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, data_off) !=
67 : : offsetof(struct rte_mbuf, buf_addr) + 16);
68 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, ol_flags) !=
69 : : offsetof(struct rte_mbuf, buf_addr) + 24);
70 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, pkt_len) !=
71 : : offsetof(struct rte_mbuf, ol_flags) + 12);
72 : : RTE_BUILD_BUG_ON(offsetof(struct rte_mbuf, tx_offload) !=
73 : : offsetof(struct rte_mbuf, pool) + 2 * sizeof(void *));
74 : :
75 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_VLAN_INSERT || conf & RTE_ETH_TX_OFFLOAD_QINQ_INSERT)
76 : : flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
77 : :
78 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_OUTER_IPV4_CKSUM || conf & RTE_ETH_TX_OFFLOAD_OUTER_UDP_CKSUM)
79 : 0 : flags |= NIX_TX_OFFLOAD_OL3_OL4_CSUM_F;
80 : :
81 : 0 : if (conf & RTE_ETH_TX_OFFLOAD_IPV4_CKSUM || conf & RTE_ETH_TX_OFFLOAD_TCP_CKSUM ||
82 [ # # ]: 0 : conf & RTE_ETH_TX_OFFLOAD_UDP_CKSUM || conf & RTE_ETH_TX_OFFLOAD_SCTP_CKSUM)
83 : 0 : flags |= NIX_TX_OFFLOAD_L3_L4_CSUM_F;
84 : :
85 [ # # ]: 0 : if (!(conf & RTE_ETH_TX_OFFLOAD_MBUF_FAST_FREE))
86 : 0 : flags |= NIX_TX_OFFLOAD_MBUF_NOFF_F;
87 : :
88 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_MULTI_SEGS)
89 : 0 : flags |= NIX_TX_MULTI_SEG_F;
90 : :
91 : : /* Enable Inner checksum for TSO */
92 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_TCP_TSO)
93 : 0 : flags |= (NIX_TX_OFFLOAD_TSO_F | NIX_TX_OFFLOAD_L3_L4_CSUM_F);
94 : :
95 : : /* Enable Inner and Outer checksum for Tunnel TSO */
96 [ # # ]: 0 : if (conf & (RTE_ETH_TX_OFFLOAD_VXLAN_TNL_TSO | RTE_ETH_TX_OFFLOAD_GENEVE_TNL_TSO |
97 : : RTE_ETH_TX_OFFLOAD_GRE_TNL_TSO))
98 : 0 : flags |= (NIX_TX_OFFLOAD_TSO_F | NIX_TX_OFFLOAD_OL3_OL4_CSUM_F |
99 : : NIX_TX_OFFLOAD_L3_L4_CSUM_F);
100 : :
101 [ # # ]: 0 : if ((dev->rx_offloads & RTE_ETH_RX_OFFLOAD_TIMESTAMP))
102 : 0 : flags |= NIX_TX_OFFLOAD_TSTAMP_F;
103 : :
104 [ # # ]: 0 : if (conf & RTE_ETH_TX_OFFLOAD_SECURITY)
105 : 0 : flags |= NIX_TX_OFFLOAD_SECURITY_F;
106 : :
107 [ # # ]: 0 : if (dev->tx_mark)
108 : 0 : flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
109 : :
110 [ # # ]: 0 : if (nix->tx_compl_ena)
111 : 0 : flags |= NIX_TX_OFFLOAD_MBUF_NOFF_F;
112 : :
113 : 0 : return flags;
114 : : }
115 : :
116 : : static int
117 [ # # ]: 0 : cn20k_nix_ptypes_set(struct rte_eth_dev *eth_dev, uint32_t ptype_mask)
118 : : {
119 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
120 : :
121 [ # # ]: 0 : if (ptype_mask) {
122 : 0 : dev->rx_offload_flags |= NIX_RX_OFFLOAD_PTYPE_F;
123 : 0 : dev->ptype_disable = 0;
124 : : } else {
125 : 0 : dev->rx_offload_flags &= ~NIX_RX_OFFLOAD_PTYPE_F;
126 : 0 : dev->ptype_disable = 1;
127 : : }
128 : :
129 : 0 : cn20k_eth_set_rx_function(eth_dev);
130 : 0 : return 0;
131 : : }
132 : :
133 : : static void
134 : : nix_form_default_desc(struct cnxk_eth_dev *dev, struct cn20k_eth_txq *txq, uint16_t qid)
135 : : {
136 : : union nix_send_hdr_w0_u send_hdr_w0;
137 : :
138 : : /* Initialize the fields based on basic single segment packet */
139 : 0 : send_hdr_w0.u = 0;
140 : 0 : if (dev->tx_offload_flags & NIX_TX_NEED_EXT_HDR) {
141 : : /* 2(HDR) + 2(EXT_HDR) + 1(SG) + 1(IOVA) = 6/2 - 1 = 2 */
142 : 0 : send_hdr_w0.sizem1 = 2;
143 [ # # # # : 0 : if (dev->tx_offload_flags & NIX_TX_OFFLOAD_TSTAMP_F) {
# # ]
144 : : /* Default: one seg packet would have:
145 : : * 2(HDR) + 2(EXT) + 1(SG) + 1(IOVA) + 2(MEM)
146 : : * => 8/2 - 1 = 3
147 : : */
148 : 0 : send_hdr_w0.sizem1 = 3;
149 : :
150 : : /* To calculate the offset for send_mem,
151 : : * send_hdr->w0.sizem1 * 2
152 : : */
153 : 0 : txq->ts_mem = dev->tstamp.tx_tstamp_iova;
154 : : }
155 : : } else {
156 : : /* 2(HDR) + 1(SG) + 1(IOVA) = 4/2 - 1 = 1 */
157 : 0 : send_hdr_w0.sizem1 = 1;
158 : : }
159 : 0 : send_hdr_w0.sq = qid;
160 : 0 : txq->send_hdr_w0 = send_hdr_w0.u;
161 : : rte_wmb();
162 : : }
163 : :
164 : : static int
165 : 0 : cn20k_nix_tx_compl_setup(struct cnxk_eth_dev *dev, struct cn20k_eth_txq *txq, struct roc_nix_sq *sq,
166 : : uint16_t nb_desc)
167 : : {
168 : : struct roc_nix_cq *cq;
169 : :
170 : 0 : cq = &dev->cqs[sq->cqid];
171 : 0 : txq->tx_compl.desc_base = (uintptr_t)cq->desc_base;
172 : 0 : txq->tx_compl.cq_door = cq->door;
173 : 0 : txq->tx_compl.cq_status = cq->status;
174 : 0 : txq->tx_compl.wdata = cq->wdata;
175 : 0 : txq->tx_compl.head = cq->head;
176 : 0 : txq->tx_compl.qmask = cq->qmask;
177 : : /* Total array size holding buffers is equal to
178 : : * number of entries in cq and sq
179 : : * max buffer in array = desc in cq + desc in sq
180 : : */
181 : 0 : txq->tx_compl.nb_desc_mask = (2 * rte_align32pow2(nb_desc)) - 1;
182 : 0 : txq->tx_compl.ena = true;
183 : :
184 : 0 : txq->tx_compl.ptr = (struct rte_mbuf **)plt_zmalloc(txq->tx_compl.nb_desc_mask *
185 : : sizeof(struct rte_mbuf *), 0);
186 [ # # ]: 0 : if (!txq->tx_compl.ptr)
187 : 0 : return -1;
188 : :
189 : : return 0;
190 : : }
191 : :
192 : : static void
193 : 0 : cn20k_nix_tx_queue_release(struct rte_eth_dev *eth_dev, uint16_t qid)
194 : : {
195 [ # # ]: 0 : struct cn20k_eth_txq *txq = eth_dev->data->tx_queues[qid];
196 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
197 : : struct roc_nix *nix = &dev->nix;
198 : :
199 [ # # ]: 0 : if (nix->tx_compl_ena) {
200 : : /* First process all CQ entries */
201 : 0 : handle_tx_completion_pkts(txq, 0);
202 : 0 : plt_free(txq->tx_compl.ptr);
203 : : }
204 : 0 : cnxk_nix_tx_queue_release(eth_dev, qid);
205 : 0 : }
206 : :
207 : : static int
208 : 0 : cn20k_nix_tx_queue_setup(struct rte_eth_dev *eth_dev, uint16_t qid, uint16_t nb_desc,
209 : : unsigned int socket, const struct rte_eth_txconf *tx_conf)
210 : : {
211 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
212 : 0 : struct roc_nix *nix = &dev->nix;
213 : : uint64_t mark_fmt, mark_flag;
214 : : struct roc_cpt_lf *inl_lf;
215 : : struct cn20k_eth_txq *txq;
216 : : struct roc_nix_sq *sq;
217 : : uint16_t crypto_qid;
218 : : int rc;
219 : :
220 : : RTE_SET_USED(socket);
221 : :
222 : : /* Common Tx queue setup */
223 : 0 : rc = cnxk_nix_tx_queue_setup(eth_dev, qid, nb_desc, sizeof(struct cn20k_eth_txq), tx_conf);
224 [ # # ]: 0 : if (rc)
225 : : return rc;
226 : :
227 : 0 : sq = &dev->sqs[qid];
228 : : /* Update fast path queue */
229 : 0 : txq = eth_dev->data->tx_queues[qid];
230 : 0 : txq->fc_mem = sq->fc;
231 [ # # ]: 0 : if (nix->tx_compl_ena) {
232 : 0 : rc = cn20k_nix_tx_compl_setup(dev, txq, sq, nb_desc);
233 [ # # ]: 0 : if (rc)
234 : : return rc;
235 : : }
236 : :
237 : : /* Set Txq flag for MT_LOCKFREE */
238 : 0 : txq->flag = !!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_MT_LOCKFREE);
239 : :
240 : : /* Store lmt base in tx queue for easy access */
241 : 0 : txq->lmt_base = nix->lmt_base;
242 : 0 : txq->io_addr = sq->io_addr;
243 : 0 : txq->nb_sqb_bufs_adj = sq->nb_sqb_bufs_adj;
244 : 0 : txq->sqes_per_sqb_log2 = sq->sqes_per_sqb_log2;
245 : :
246 : : /* Fetch CPT LF info for outbound if present */
247 [ # # ]: 0 : if (dev->outb.lf_base) {
248 : 0 : crypto_qid = qid % dev->outb.nb_crypto_qs;
249 : 0 : inl_lf = dev->outb.lf_base + crypto_qid;
250 : :
251 : 0 : txq->cpt_io_addr = inl_lf->io_addr;
252 : 0 : txq->cpt_fc = (uint64_t __rte_atomic *)inl_lf->fc_addr;
253 : 0 : txq->cpt_fc_sw = (int32_t __rte_atomic *)((uintptr_t)dev->outb.fc_sw_mem +
254 : 0 : crypto_qid * RTE_CACHE_LINE_SIZE);
255 : :
256 : 0 : txq->cpt_desc = inl_lf->nb_desc * 0.7;
257 : 0 : txq->sa_base = (uint64_t)dev->outb.sa_base;
258 : 0 : txq->sa_base |= (uint64_t)eth_dev->data->port_id;
259 : : PLT_STATIC_ASSERT(BIT_ULL(16) == ROC_NIX_INL_SA_BASE_ALIGN);
260 : : }
261 : :
262 : : /* Restore marking flag from roc */
263 : 0 : mark_fmt = roc_nix_tm_mark_format_get(nix, &mark_flag);
264 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
265 [ # # ]: 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
266 : :
267 : : nix_form_default_desc(dev, txq, qid);
268 : 0 : txq->lso_tun_fmt = dev->lso_tun_fmt;
269 : 0 : return 0;
270 : : }
271 : :
272 : : static int
273 [ # # ]: 0 : cn20k_nix_rx_queue_setup(struct rte_eth_dev *eth_dev, uint16_t qid, uint16_t nb_desc,
274 : : unsigned int socket, const struct rte_eth_rxconf *rx_conf,
275 : : struct rte_mempool *mp)
276 : : {
277 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
278 : : struct cn20k_eth_rxq *rxq;
279 : : struct roc_nix_rq *rq;
280 : : struct roc_nix_cq *cq;
281 : : int rc;
282 : :
283 : : RTE_SET_USED(socket);
284 : :
285 : : /* CQ Errata needs min 4K ring */
286 [ # # ]: 0 : if (dev->cq_min_4k && nb_desc < 4096)
287 : : nb_desc = 4096;
288 : :
289 : : /* Common Rx queue setup */
290 : 0 : rc = cnxk_nix_rx_queue_setup(eth_dev, qid, nb_desc, sizeof(struct cn20k_eth_rxq), rx_conf,
291 : : mp);
292 [ # # ]: 0 : if (rc)
293 : : return rc;
294 : :
295 : : /* Do initial mtu setup for RQ0 before device start */
296 [ # # ]: 0 : if (!qid) {
297 : 0 : rc = nix_recalc_mtu(eth_dev);
298 [ # # ]: 0 : if (rc)
299 : : return rc;
300 : :
301 : : /* Update offload flags */
302 : 0 : dev->rx_offload_flags = nix_rx_offload_flags(eth_dev);
303 : 0 : dev->tx_offload_flags = nix_tx_offload_flags(eth_dev);
304 : : }
305 : :
306 : 0 : rq = &dev->rqs[qid];
307 : 0 : cq = &dev->cqs[qid];
308 : :
309 : : /* Update fast path queue */
310 : 0 : rxq = eth_dev->data->rx_queues[qid];
311 : 0 : rxq->rq = qid;
312 : 0 : rxq->desc = (uintptr_t)cq->desc_base;
313 : 0 : rxq->cq_door = cq->door;
314 : 0 : rxq->cq_status = cq->status;
315 : 0 : rxq->wdata = cq->wdata;
316 : 0 : rxq->head = cq->head;
317 : 0 : rxq->qmask = cq->qmask;
318 : 0 : rxq->tstamp = &dev->tstamp;
319 : :
320 : : /* Data offset from data to start of mbuf is first_skip */
321 : 0 : rxq->data_off = rq->first_skip;
322 : 0 : rxq->mbuf_initializer = cnxk_nix_rxq_mbuf_setup(dev);
323 : 0 : rxq->mp_buf_sz = (mp->elt_size + mp->header_size + mp->trailer_size) & 0xFFFFFFFF;
324 : 0 : rxq->mp_buf_sz |= (uint64_t)mp->header_size << 32;
325 : :
326 : : /* Setup security related info */
327 [ # # ]: 0 : if (dev->rx_offload_flags & NIX_RX_OFFLOAD_SECURITY_F) {
328 : 0 : rxq->lmt_base = dev->nix.lmt_base;
329 : 0 : rxq->sa_base = roc_nix_inl_inb_sa_base_get(&dev->nix, dev->inb.inl_dev);
330 : : }
331 : :
332 : : /* Lookup mem */
333 : 0 : rxq->lookup_mem = cnxk_nix_fastpath_lookup_mem_get();
334 : 0 : return 0;
335 : : }
336 : :
337 : : static void
338 : 0 : cn20k_nix_rx_queue_meta_aura_update(struct rte_eth_dev *eth_dev)
339 : : {
340 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
341 : : struct cnxk_eth_rxq_sp *rxq_sp;
342 : : struct cn20k_eth_rxq *rxq;
343 : : struct roc_nix_rq *rq;
344 : : int i;
345 : :
346 : : /* Update Aura handle for fastpath rx queues */
347 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_rx_queues; i++) {
348 : 0 : rq = &dev->rqs[i];
349 : 0 : rxq = eth_dev->data->rx_queues[i];
350 : 0 : rxq->meta_aura = rq->meta_aura_handle;
351 : 0 : rxq->meta_pool = dev->nix.meta_mempool;
352 : : /* Assume meta packet from normal aura if meta aura is not setup
353 : : */
354 [ # # ]: 0 : if (!rxq->meta_aura) {
355 : : rxq_sp = cnxk_eth_rxq_to_sp(rxq);
356 : 0 : rxq->meta_aura = rxq_sp->qconf.mp->pool_id;
357 : 0 : rxq->meta_pool = (uintptr_t)rxq_sp->qconf.mp;
358 : : }
359 : : }
360 : : /* Store mempool in lookup mem */
361 : 0 : cnxk_nix_lookup_mem_metapool_set(dev);
362 : 0 : }
363 : :
364 : : static void
365 : : cn20k_nix_rx_queue_bufsize_update(struct rte_eth_dev *eth_dev)
366 : : {
367 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
368 : : struct cn20k_eth_rxq *rxq;
369 : :
370 : 0 : rxq = eth_dev->data->rx_queues[0];
371 : :
372 : : /* Store bufsize in lookup mem */
373 : 0 : cnxk_nix_lookup_mem_bufsize_set(dev, rxq->mp_buf_sz);
374 : : }
375 : :
376 : : static int
377 : 0 : cn20k_nix_tx_queue_stop(struct rte_eth_dev *eth_dev, uint16_t qidx)
378 : : {
379 : 0 : struct cn20k_eth_txq *txq = eth_dev->data->tx_queues[qidx];
380 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
381 : 0 : uint16_t flags = dev->tx_offload_flags;
382 : 0 : struct roc_nix *nix = &dev->nix;
383 : 0 : uint32_t head = 0, tail = 0;
384 : : int rc;
385 : :
386 : 0 : rc = cnxk_nix_tx_queue_stop(eth_dev, qidx);
387 [ # # ]: 0 : if (rc)
388 : : return rc;
389 : :
390 : : /* Clear fc cache pkts to trigger worker stop */
391 : 0 : txq->fc_cache_pkts = 0;
392 : :
393 [ # # # # ]: 0 : if ((flags & NIX_TX_OFFLOAD_MBUF_NOFF_F) && txq->tx_compl.ena) {
394 : 0 : struct roc_nix_sq *sq = &dev->sqs[qidx];
395 : : do {
396 : 0 : handle_tx_completion_pkts(txq, flags & NIX_TX_VWQE_F);
397 : : /* Check if SQ is empty */
398 : 0 : roc_nix_sq_head_tail_get(nix, sq->qid, &head, &tail);
399 [ # # ]: 0 : if (head != tail)
400 : 0 : continue;
401 : :
402 : : /* Check if completion CQ is empty */
403 : 0 : roc_nix_cq_head_tail_get(nix, sq->cqid, &head, &tail);
404 [ # # ]: 0 : } while (head != tail);
405 : : }
406 : :
407 : : return 0;
408 : : }
409 : :
410 : : static int
411 : 0 : cn20k_nix_configure(struct rte_eth_dev *eth_dev)
412 : : {
413 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
414 : : int rc;
415 : :
416 : : /* Common nix configure */
417 : 0 : rc = cnxk_nix_configure(eth_dev);
418 [ # # ]: 0 : if (rc)
419 : : return rc;
420 : :
421 [ # # ]: 0 : if (dev->tx_offloads & RTE_ETH_TX_OFFLOAD_SECURITY ||
422 [ # # ]: 0 : dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY) {
423 : : /* Register callback to handle security error work */
424 : 0 : roc_nix_inl_cb_register(cn20k_eth_sec_sso_work_cb, NULL);
425 : : }
426 : :
427 : : /* Update offload flags */
428 : 0 : dev->rx_offload_flags = nix_rx_offload_flags(eth_dev);
429 : 0 : dev->tx_offload_flags = nix_tx_offload_flags(eth_dev);
430 : :
431 : : /* reset reassembly dynfield/flag offset */
432 : 0 : dev->reass_dynfield_off = -1;
433 : 0 : dev->reass_dynflag_bit = -1;
434 : :
435 : 0 : plt_nix_dbg("Configured port%d platform specific rx_offload_flags=%x"
436 : : " tx_offload_flags=0x%x",
437 : : eth_dev->data->port_id, dev->rx_offload_flags, dev->tx_offload_flags);
438 : 0 : return 0;
439 : : }
440 : :
441 : : /* Function to enable ptp config for VFs */
442 : : static void
443 : 0 : nix_ptp_enable_vf(struct rte_eth_dev *eth_dev)
444 : : {
445 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
446 : :
447 [ # # ]: 0 : if (nix_recalc_mtu(eth_dev))
448 : 0 : plt_err("Failed to set MTU size for ptp");
449 : :
450 : 0 : dev->rx_offload_flags |= NIX_RX_OFFLOAD_TSTAMP_F;
451 : :
452 : : /* Setting up the function pointers as per new offload flags */
453 : 0 : cn20k_eth_set_rx_function(eth_dev);
454 : 0 : cn20k_eth_set_tx_function(eth_dev);
455 : 0 : }
456 : :
457 : : static uint16_t
458 : 0 : nix_ptp_vf_burst(void *queue, struct rte_mbuf **mbufs, uint16_t pkts)
459 : : {
460 : : struct cn20k_eth_rxq *rxq = queue;
461 : : struct cnxk_eth_rxq_sp *rxq_sp;
462 : : struct rte_eth_dev *eth_dev;
463 : :
464 : : RTE_SET_USED(mbufs);
465 : : RTE_SET_USED(pkts);
466 : :
467 : : rxq_sp = cnxk_eth_rxq_to_sp(rxq);
468 : 0 : eth_dev = rxq_sp->dev->eth_dev;
469 : 0 : nix_ptp_enable_vf(eth_dev);
470 : :
471 : 0 : return 0;
472 : : }
473 : :
474 : : static int
475 : 0 : cn20k_nix_ptp_info_update_cb(struct roc_nix *nix, bool ptp_en)
476 : : {
477 : : struct cnxk_eth_dev *dev = (struct cnxk_eth_dev *)nix;
478 : : struct rte_eth_dev *eth_dev;
479 : : struct cn20k_eth_rxq *rxq;
480 : : int i;
481 : :
482 [ # # ]: 0 : if (!dev)
483 : : return -EINVAL;
484 : :
485 : 0 : eth_dev = dev->eth_dev;
486 [ # # ]: 0 : if (!eth_dev)
487 : : return -EINVAL;
488 : :
489 : 0 : dev->ptp_en = ptp_en;
490 : :
491 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_rx_queues; i++) {
492 : 0 : rxq = eth_dev->data->rx_queues[i];
493 : 0 : rxq->mbuf_initializer = cnxk_nix_rxq_mbuf_setup(dev);
494 : : }
495 : :
496 [ # # # # : 0 : if (roc_nix_is_vf_or_sdp(nix) && !(roc_nix_is_sdp(nix)) && !(roc_nix_is_lbk(nix))) {
# # ]
497 : : /* In case of VF, setting of MTU cannot be done directly in this
498 : : * function as this is running as part of MBOX request(PF->VF)
499 : : * and MTU setting also requires MBOX message to be
500 : : * sent(VF->PF)
501 : : */
502 : 0 : eth_dev->rx_pkt_burst = nix_ptp_vf_burst;
503 : : rte_mb();
504 : : }
505 : :
506 : : return 0;
507 : : }
508 : :
509 : : static int
510 : 0 : cn20k_nix_timesync_enable(struct rte_eth_dev *eth_dev)
511 : : {
512 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
513 : : int i, rc;
514 : :
515 : 0 : rc = cnxk_nix_timesync_enable(eth_dev);
516 [ # # ]: 0 : if (rc)
517 : : return rc;
518 : :
519 : 0 : dev->rx_offload_flags |= NIX_RX_OFFLOAD_TSTAMP_F;
520 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_TSTAMP_F;
521 : :
522 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++)
523 [ # # ]: 0 : nix_form_default_desc(dev, eth_dev->data->tx_queues[i], i);
524 : :
525 : : /* Setting up the rx[tx]_offload_flags due to change
526 : : * in rx[tx]_offloads.
527 : : */
528 : 0 : cn20k_eth_set_rx_function(eth_dev);
529 : 0 : cn20k_eth_set_tx_function(eth_dev);
530 : 0 : return 0;
531 : : }
532 : :
533 : : static int
534 : 0 : cn20k_nix_timesync_disable(struct rte_eth_dev *eth_dev)
535 : : {
536 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
537 : : int i, rc;
538 : :
539 : 0 : rc = cnxk_nix_timesync_disable(eth_dev);
540 [ # # ]: 0 : if (rc)
541 : : return rc;
542 : :
543 : 0 : dev->rx_offload_flags &= ~NIX_RX_OFFLOAD_TSTAMP_F;
544 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_TSTAMP_F;
545 : :
546 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++)
547 [ # # ]: 0 : nix_form_default_desc(dev, eth_dev->data->tx_queues[i], i);
548 : :
549 : : /* Setting up the rx[tx]_offload_flags due to change
550 : : * in rx[tx]_offloads.
551 : : */
552 : 0 : cn20k_eth_set_rx_function(eth_dev);
553 : 0 : cn20k_eth_set_tx_function(eth_dev);
554 : 0 : return 0;
555 : : }
556 : :
557 : : static int
558 [ # # ]: 0 : cn20k_nix_timesync_read_tx_timestamp(struct rte_eth_dev *eth_dev, struct timespec *timestamp)
559 : : {
560 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
561 : : struct cnxk_timesync_info *tstamp = &dev->tstamp;
562 : : uint64_t ns;
563 : :
564 [ # # ]: 0 : if (*tstamp->tx_tstamp == 0)
565 : : return -EINVAL;
566 : :
567 : 0 : *tstamp->tx_tstamp =
568 [ # # ]: 0 : ((*tstamp->tx_tstamp >> 32) * NSEC_PER_SEC) + (*tstamp->tx_tstamp & 0xFFFFFFFFUL);
569 : : ns = rte_timecounter_update(&dev->tx_tstamp_tc, *tstamp->tx_tstamp);
570 : 0 : *timestamp = rte_ns_to_timespec(ns);
571 : 0 : *tstamp->tx_tstamp = 0;
572 : : rte_wmb();
573 : :
574 : 0 : return 0;
575 : : }
576 : :
577 : : static int
578 : 0 : cn20k_nix_dev_start(struct rte_eth_dev *eth_dev)
579 : : {
580 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
581 : 0 : struct roc_nix *nix = &dev->nix;
582 : : int rc;
583 : :
584 : : /* Common eth dev start */
585 : 0 : rc = cnxk_nix_dev_start(eth_dev);
586 [ # # ]: 0 : if (rc)
587 : : return rc;
588 : :
589 : : /* Update VF about data off shifted by 8 bytes if PTP already
590 : : * enabled in PF owning this VF
591 : : */
592 [ # # # # : 0 : if (dev->ptp_en && (!roc_nix_is_pf(nix) && (!roc_nix_is_sdp(nix))))
# # ]
593 : 0 : nix_ptp_enable_vf(eth_dev);
594 : :
595 : : /* Setting up the rx[tx]_offload_flags due to change
596 : : * in rx[tx]_offloads.
597 : : */
598 : 0 : dev->rx_offload_flags |= nix_rx_offload_flags(eth_dev);
599 : 0 : dev->tx_offload_flags |= nix_tx_offload_flags(eth_dev);
600 : :
601 [ # # ]: 0 : if (dev->rx_offload_flags & NIX_RX_OFFLOAD_SECURITY_F)
602 : 0 : cn20k_nix_rx_queue_meta_aura_update(eth_dev);
603 : :
604 : : /* Set flags for Rx Inject feature */
605 [ # # ]: 0 : if (roc_idev_nix_rx_inject_get(nix->port_id))
606 : 0 : dev->rx_offload_flags |= NIX_RX_SEC_REASSEMBLY_F;
607 : :
608 : : cn20k_nix_rx_queue_bufsize_update(eth_dev);
609 : :
610 : 0 : cn20k_eth_set_tx_function(eth_dev);
611 : 0 : cn20k_eth_set_rx_function(eth_dev);
612 : 0 : return 0;
613 : : }
614 : :
615 : : static int
616 [ # # ]: 0 : cn20k_nix_reassembly_capability_get(struct rte_eth_dev *eth_dev,
617 : : struct rte_eth_ip_reassembly_params *reassembly_capa)
618 : : {
619 : : RTE_SET_USED(eth_dev);
620 : :
621 [ # # ]: 0 : if (!roc_feature_nix_has_reass())
622 : : return -ENOTSUP;
623 : :
624 : 0 : reassembly_capa->timeout_ms = 60 * 1000;
625 : 0 : reassembly_capa->max_frags = 8;
626 : 0 : reassembly_capa->flags =
627 : : RTE_ETH_DEV_REASSEMBLY_F_IPV4 | RTE_ETH_DEV_REASSEMBLY_F_IPV6;
628 : :
629 : 0 : return 0;
630 : : }
631 : :
632 : : static int
633 : 0 : cn20k_nix_reassembly_conf_get(struct rte_eth_dev *eth_dev,
634 : : struct rte_eth_ip_reassembly_params *conf)
635 : : {
636 : : RTE_SET_USED(eth_dev);
637 : : RTE_SET_USED(conf);
638 : 0 : return -ENOTSUP;
639 : : }
640 : :
641 : : static int
642 [ # # ]: 0 : cn20k_nix_reassembly_conf_set(struct rte_eth_dev *eth_dev,
643 : : const struct rte_eth_ip_reassembly_params *conf)
644 : : {
645 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
646 : 0 : struct roc_cpt_rxc_time_cfg rxc_time_cfg = {0};
647 [ # # ]: 0 : uint16_t nb_rxq = dev->nb_rxq;
648 : : int rc = 0, i, rxq_cnt = 0;
649 : : struct cn20k_eth_rxq *rxq;
650 : : struct roc_nix_rq *rq;
651 : :
652 [ # # ]: 0 : if (!roc_feature_nix_has_reass())
653 : : return -ENOTSUP;
654 : :
655 [ # # ]: 0 : if (!conf->flags) {
656 : : /* Clear offload flags on disable */
657 [ # # ]: 0 : if (!dev->inb.nb_oop)
658 : 0 : dev->rx_offload_flags &= ~NIX_RX_REAS_F;
659 : 0 : dev->inb.reass_en = false;
660 [ # # ]: 0 : if (dev->ip_reass_en) {
661 : 0 : cnxk_nix_ip_reass_rule_clr(eth_dev);
662 : 0 : dev->ip_reass_en = false;
663 : : }
664 : 0 : return 0;
665 : : }
666 : :
667 [ # # ]: 0 : if (!(dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY)) {
668 : 0 : rc = cnxk_nix_inline_inbound_setup(dev);
669 [ # # ]: 0 : if (rc) {
670 : 0 : plt_err("Nix inline inbound setup failed rc=%d", rc);
671 : 0 : goto done;
672 : : }
673 : :
674 : 0 : rc = cnxk_nix_inline_inbound_mode_setup(dev);
675 [ # # ]: 0 : if (rc) {
676 : 0 : plt_err("Nix inline inbound mode setup failed rc=%d", rc);
677 : 0 : goto cleanup;
678 : : }
679 : :
680 [ # # ]: 0 : for (i = 0; i < nb_rxq; i++) {
681 : 0 : rq = &dev->rqs[i];
682 : 0 : rxq = eth_dev->data->rx_queues[i];
683 : :
684 [ # # ]: 0 : if (!rxq) {
685 : 0 : plt_err("Receive queue = %d not enabled", i);
686 : : rc = -EINVAL;
687 : 0 : goto cleanup;
688 : : }
689 : :
690 : 0 : roc_nix_inl_dev_xaq_realloc(rq->aura_handle);
691 : :
692 : 0 : rq->tag_mask = 0x0FF00000 | ((uint32_t)RTE_EVENT_TYPE_ETHDEV << 28);
693 : 0 : rc = roc_nix_inl_dev_rq_get(rq, !!eth_dev->data->dev_started);
694 [ # # ]: 0 : if (rc)
695 : 0 : goto cleanup;
696 : :
697 : 0 : rxq->lmt_base = dev->nix.lmt_base;
698 : 0 : rxq->sa_base = roc_nix_inl_inb_sa_base_get(&dev->nix, dev->inb.inl_dev);
699 : 0 : rc = roc_npa_buf_type_update(rq->aura_handle,
700 : : ROC_NPA_BUF_TYPE_PACKET_IPSEC, 1);
701 [ # # ]: 0 : if (rc)
702 : 0 : goto cleanup;
703 : :
704 : 0 : rxq_cnt = i + 1;
705 : : }
706 : : }
707 : :
708 : 0 : rxc_time_cfg.step = dev->nix.rxc_step;
709 : 0 : rc = roc_nix_reassembly_configure(&rxc_time_cfg, conf->timeout_ms);
710 [ # # ]: 0 : if (rc) {
711 : 0 : plt_err("Nix reassembly_configure failed rc=%d", rc);
712 : 0 : goto cleanup;
713 : : }
714 : :
715 : 0 : dev->rx_offload_flags |= NIX_RX_REAS_F | NIX_RX_OFFLOAD_SECURITY_F;
716 : 0 : dev->inb.reass_en = !!((dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY));
717 : :
718 [ # # ]: 0 : if (!dev->ip_reass_en) {
719 : 0 : rc = cnxk_nix_ip_reass_rule_set(eth_dev, 0);
720 [ # # ]: 0 : if (rc) {
721 : 0 : plt_err("Nix reassembly rule setup failed rc=%d", rc);
722 : 0 : goto cleanup;
723 : : }
724 : : }
725 : :
726 : : return 0;
727 : 0 : cleanup:
728 : 0 : dev->inb.reass_en = false;
729 [ # # ]: 0 : if (!(dev->rx_offloads & RTE_ETH_RX_OFFLOAD_SECURITY)) {
730 : 0 : rc |= cnxk_nix_inl_inb_fini(dev);
731 [ # # ]: 0 : for (i = 0; i < rxq_cnt; i++) {
732 : 0 : struct roc_nix_rq *rq = &dev->rqs[i];
733 : :
734 : 0 : roc_nix_inl_dev_rq_put(rq);
735 : : }
736 : : }
737 : 0 : done:
738 : : return rc;
739 : : }
740 : :
741 : : static int
742 : : cn20k_nix_rx_avail_get(struct cn20k_eth_rxq *rxq)
743 : : {
744 : : uint32_t qmask = rxq->qmask;
745 : : uint64_t reg, head, tail;
746 : : int available;
747 : :
748 : : /* Use LDADDA version to avoid reorder */
749 : : reg = roc_atomic64_add_sync(rxq->wdata, rxq->cq_status);
750 : : /* CQ_OP_STATUS operation error */
751 : : if (reg & BIT_ULL(NIX_CQ_OP_STAT_OP_ERR) || reg & BIT_ULL(NIX_CQ_OP_STAT_CQ_ERR))
752 : : return 0;
753 : : tail = reg & 0xFFFFF;
754 : : head = (reg >> 20) & 0xFFFFF;
755 : : if (tail < head)
756 : : available = tail - head + qmask + 1;
757 : : else
758 : : available = tail - head;
759 : :
760 : : return available;
761 : : }
762 : :
763 : : static int
764 : 0 : cn20k_rx_descriptor_dump(const struct rte_eth_dev *eth_dev, uint16_t qid, uint16_t offset,
765 : : uint16_t num, FILE *file)
766 : : {
767 : : struct cn20k_eth_rxq *rxq = eth_dev->data->rx_queues[qid];
768 : : const uint64_t data_off = rxq->data_off;
769 : : const uint32_t qmask = rxq->qmask;
770 : : const uintptr_t desc = rxq->desc;
771 : : union cpt_parse_hdr_u *cpth;
772 : : uint32_t head = rxq->head;
773 : : struct nix_cqe_hdr_s *cq;
774 : : uint16_t count = 0;
775 : : int available_pkts;
776 : : uint64_t cq_w1;
777 : :
778 : : available_pkts = cn20k_nix_rx_avail_get(rxq);
779 : :
780 [ # # ]: 0 : if ((offset + num - 1) >= available_pkts) {
781 : 0 : plt_err("Invalid BD num=%u", num);
782 : 0 : return -EINVAL;
783 : : }
784 : :
785 : : while (count < num) {
786 : : cq = (struct nix_cqe_hdr_s *)(desc + CQE_SZ(head) + count + offset);
787 : : cq_w1 = *((const uint64_t *)cq + 1);
788 : : if (cq_w1 & BIT(11)) {
789 : : rte_iova_t buff = *((rte_iova_t *)((uint64_t *)cq + 9));
790 : : struct rte_mbuf *mbuf = (struct rte_mbuf *)(buff - data_off);
791 : : cpth = (union cpt_parse_hdr_u *)((uintptr_t)mbuf + (uint16_t)data_off);
792 : : roc_cpt_parse_hdr_dump(file, cpth);
793 : : } else {
794 : : roc_nix_cqe_dump(file, cq);
795 : : }
796 : :
797 : : count++;
798 : : head &= qmask;
799 : : }
800 : : return 0;
801 : : }
802 : :
803 : : static int
804 : 0 : cn20k_nix_tm_mark_vlan_dei(struct rte_eth_dev *eth_dev, int mark_green, int mark_yellow,
805 : : int mark_red, struct rte_tm_error *error)
806 : : {
807 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
808 : 0 : struct roc_nix *roc_nix = &dev->nix;
809 : : uint64_t mark_fmt, mark_flag;
810 : : int rc, i;
811 : :
812 : 0 : rc = cnxk_nix_tm_mark_vlan_dei(eth_dev, mark_green, mark_yellow, mark_red, error);
813 : :
814 [ # # ]: 0 : if (rc)
815 : 0 : goto exit;
816 : :
817 : 0 : mark_fmt = roc_nix_tm_mark_format_get(roc_nix, &mark_flag);
818 [ # # ]: 0 : if (mark_flag) {
819 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
820 : 0 : dev->tx_mark = true;
821 : : } else {
822 : 0 : dev->tx_mark = false;
823 [ # # ]: 0 : if (!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT ||
824 : : dev->tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT))
825 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_VLAN_QINQ_F;
826 : : }
827 : :
828 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++) {
829 : 0 : struct cn20k_eth_txq *txq = eth_dev->data->tx_queues[i];
830 : :
831 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
832 : 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
833 : : }
834 : 0 : cn20k_eth_set_tx_function(eth_dev);
835 : 0 : exit:
836 : 0 : return rc;
837 : : }
838 : :
839 : : static int
840 : 0 : cn20k_nix_tm_mark_ip_ecn(struct rte_eth_dev *eth_dev, int mark_green, int mark_yellow, int mark_red,
841 : : struct rte_tm_error *error)
842 : : {
843 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
844 : 0 : struct roc_nix *roc_nix = &dev->nix;
845 : : uint64_t mark_fmt, mark_flag;
846 : : int rc, i;
847 : :
848 : 0 : rc = cnxk_nix_tm_mark_ip_ecn(eth_dev, mark_green, mark_yellow, mark_red, error);
849 [ # # ]: 0 : if (rc)
850 : 0 : goto exit;
851 : :
852 : 0 : mark_fmt = roc_nix_tm_mark_format_get(roc_nix, &mark_flag);
853 [ # # ]: 0 : if (mark_flag) {
854 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
855 : 0 : dev->tx_mark = true;
856 : : } else {
857 : 0 : dev->tx_mark = false;
858 [ # # ]: 0 : if (!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT ||
859 : : dev->tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT))
860 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_VLAN_QINQ_F;
861 : : }
862 : :
863 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++) {
864 : 0 : struct cn20k_eth_txq *txq = eth_dev->data->tx_queues[i];
865 : :
866 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
867 : 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
868 : : }
869 : 0 : cn20k_eth_set_tx_function(eth_dev);
870 : 0 : exit:
871 : 0 : return rc;
872 : : }
873 : :
874 : : static int
875 : 0 : cn20k_nix_tm_mark_ip_dscp(struct rte_eth_dev *eth_dev, int mark_green, int mark_yellow,
876 : : int mark_red, struct rte_tm_error *error)
877 : : {
878 : : struct cnxk_eth_dev *dev = cnxk_eth_pmd_priv(eth_dev);
879 : 0 : struct roc_nix *roc_nix = &dev->nix;
880 : : uint64_t mark_fmt, mark_flag;
881 : : int rc, i;
882 : :
883 : 0 : rc = cnxk_nix_tm_mark_ip_dscp(eth_dev, mark_green, mark_yellow, mark_red, error);
884 [ # # ]: 0 : if (rc)
885 : 0 : goto exit;
886 : :
887 : 0 : mark_fmt = roc_nix_tm_mark_format_get(roc_nix, &mark_flag);
888 [ # # ]: 0 : if (mark_flag) {
889 : 0 : dev->tx_offload_flags |= NIX_TX_OFFLOAD_VLAN_QINQ_F;
890 : 0 : dev->tx_mark = true;
891 : : } else {
892 : 0 : dev->tx_mark = false;
893 [ # # ]: 0 : if (!(dev->tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT ||
894 : : dev->tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT))
895 : 0 : dev->tx_offload_flags &= ~NIX_TX_OFFLOAD_VLAN_QINQ_F;
896 : : }
897 : :
898 [ # # ]: 0 : for (i = 0; i < eth_dev->data->nb_tx_queues; i++) {
899 : 0 : struct cn20k_eth_txq *txq = eth_dev->data->tx_queues[i];
900 : :
901 : 0 : txq->mark_flag = mark_flag & CNXK_TM_MARK_MASK;
902 : 0 : txq->mark_fmt = mark_fmt & CNXK_TX_MARK_FMT_MASK;
903 : : }
904 : 0 : cn20k_eth_set_tx_function(eth_dev);
905 : 0 : exit:
906 : 0 : return rc;
907 : : }
908 : :
909 : : /* Update platform specific eth dev ops */
910 : : static void
911 : 0 : nix_eth_dev_ops_override(void)
912 : : {
913 : : static int init_once;
914 : :
915 [ # # ]: 0 : if (init_once)
916 : : return;
917 : 0 : init_once = 1;
918 : :
919 : : /* Update platform specific ops */
920 : 0 : cnxk_eth_dev_ops.dev_configure = cn20k_nix_configure;
921 : 0 : cnxk_eth_dev_ops.tx_queue_setup = cn20k_nix_tx_queue_setup;
922 : 0 : cnxk_eth_dev_ops.rx_queue_setup = cn20k_nix_rx_queue_setup;
923 : 0 : cnxk_eth_dev_ops.tx_queue_release = cn20k_nix_tx_queue_release;
924 : 0 : cnxk_eth_dev_ops.tx_queue_stop = cn20k_nix_tx_queue_stop;
925 : 0 : cnxk_eth_dev_ops.dev_start = cn20k_nix_dev_start;
926 : 0 : cnxk_eth_dev_ops.dev_ptypes_set = cn20k_nix_ptypes_set;
927 : 0 : cnxk_eth_dev_ops.timesync_enable = cn20k_nix_timesync_enable;
928 : 0 : cnxk_eth_dev_ops.timesync_disable = cn20k_nix_timesync_disable;
929 : 0 : cnxk_eth_dev_ops.timesync_read_tx_timestamp = cn20k_nix_timesync_read_tx_timestamp;
930 : 0 : cnxk_eth_dev_ops.ip_reassembly_capability_get = cn20k_nix_reassembly_capability_get;
931 : 0 : cnxk_eth_dev_ops.ip_reassembly_conf_get = cn20k_nix_reassembly_conf_get;
932 : 0 : cnxk_eth_dev_ops.ip_reassembly_conf_set = cn20k_nix_reassembly_conf_set;
933 : 0 : cnxk_eth_dev_ops.eth_rx_descriptor_dump = cn20k_rx_descriptor_dump;
934 : : }
935 : :
936 : : /* Update platform specific tm ops */
937 : : static void
938 : : nix_tm_ops_override(void)
939 : : {
940 : : static int init_once;
941 : :
942 [ # # ]: 0 : if (init_once)
943 : : return;
944 : 0 : init_once = 1;
945 : :
946 : : /* Update platform specific ops */
947 : 0 : cnxk_tm_ops.mark_vlan_dei = cn20k_nix_tm_mark_vlan_dei;
948 : 0 : cnxk_tm_ops.mark_ip_ecn = cn20k_nix_tm_mark_ip_ecn;
949 : 0 : cnxk_tm_ops.mark_ip_dscp = cn20k_nix_tm_mark_ip_dscp;
950 : : }
951 : :
952 : : static void
953 : : npc_flow_ops_override(void)
954 : : {
955 : : static int init_once;
956 : :
957 [ # # ]: 0 : if (init_once)
958 : : return;
959 : 0 : init_once = 1;
960 : :
961 : : /* Update platform specific ops */
962 : 0 : cnxk_flow_ops.create = cn20k_flow_create;
963 : 0 : cnxk_flow_ops.destroy = cn20k_flow_destroy;
964 : 0 : cnxk_flow_ops.info_get = cn20k_flow_info_get;
965 : : }
966 : :
967 : : static int
968 : 0 : cn20k_nix_remove(struct rte_pci_device *pci_dev)
969 : : {
970 : 0 : return cnxk_nix_remove(pci_dev);
971 : : }
972 : :
973 : : static int
974 : 0 : cn20k_nix_probe(struct rte_pci_driver *pci_drv, struct rte_pci_device *pci_dev)
975 : : {
976 : : struct rte_eth_dev *eth_dev;
977 : : struct cnxk_eth_dev *dev;
978 : : int rc;
979 : :
980 : 0 : rc = roc_plt_init();
981 [ # # ]: 0 : if (rc) {
982 : 0 : plt_err("Failed to initialize platform model, rc=%d", rc);
983 : 0 : return rc;
984 : : }
985 : :
986 : 0 : nix_eth_dev_ops_override();
987 : : nix_tm_ops_override();
988 : : npc_flow_ops_override();
989 : :
990 : 0 : cn20k_eth_sec_ops_override();
991 : :
992 : : /* Common probe */
993 : 0 : rc = cnxk_nix_probe(pci_drv, pci_dev);
994 [ # # ]: 0 : if (rc)
995 : : return rc;
996 : :
997 : : /* Find eth dev allocated */
998 : 0 : eth_dev = rte_eth_dev_allocated(pci_dev->device.name);
999 [ # # ]: 0 : if (!eth_dev) {
1000 : : /* Ignore if ethdev is in mid of detach state in secondary */
1001 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY)
1002 : : return 0;
1003 : 0 : return -ENOENT;
1004 : : }
1005 : :
1006 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY) {
1007 : : /* Setup callbacks for secondary process */
1008 : 0 : cn20k_eth_set_tx_function(eth_dev);
1009 : 0 : cn20k_eth_set_rx_function(eth_dev);
1010 : 0 : return 0;
1011 : : }
1012 : :
1013 : : dev = cnxk_eth_pmd_priv(eth_dev);
1014 : :
1015 : : /* Register up msg callbacks for PTP information */
1016 : 0 : roc_nix_ptp_info_cb_register(&dev->nix, cn20k_nix_ptp_info_update_cb);
1017 : :
1018 : : /* Skip WRITE SA for inline IPsec */
1019 : 0 : dev->nix.use_write_sa = false;
1020 : :
1021 : 0 : return 0;
1022 : : }
1023 : :
1024 : : static const struct rte_pci_id cn20k_pci_nix_map[] = {
1025 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN20KA, PCI_DEVID_CNXK_RVU_PF),
1026 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN20KA, PCI_DEVID_CNXK_RVU_VF),
1027 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN20KA, PCI_DEVID_CNXK_RVU_AF_VF),
1028 : : CNXK_PCI_ID(PCI_SUBSYSTEM_DEVID_CN20KA, PCI_DEVID_CNXK_RVU_SDP_VF),
1029 : : {
1030 : : .vendor_id = 0,
1031 : : },
1032 : : };
1033 : :
1034 : : static struct rte_pci_driver cn20k_pci_nix = {
1035 : : .id_table = cn20k_pci_nix_map,
1036 : : .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_NEED_IOVA_AS_VA | RTE_PCI_DRV_INTR_LSC,
1037 : : .probe = cn20k_nix_probe,
1038 : : .remove = cn20k_nix_remove,
1039 : : };
1040 : :
1041 : 276 : RTE_PMD_REGISTER_PCI(net_cn20k, cn20k_pci_nix);
1042 : : RTE_PMD_REGISTER_PCI_TABLE(net_cn20k, cn20k_pci_nix_map);
1043 : : RTE_PMD_REGISTER_KMOD_DEP(net_cn20k, "vfio-pci");
|