Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright 2021 6WIND S.A.
3 : : * Copyright 2021 Mellanox Technologies, Ltd
4 : : */
5 : :
6 : : #ifndef RTE_PMD_MLX5_TX_H_
7 : : #define RTE_PMD_MLX5_TX_H_
8 : :
9 : : #include <stdint.h>
10 : : #include <sys/queue.h>
11 : :
12 : : #include <rte_mbuf.h>
13 : : #include <rte_mempool.h>
14 : : #include <rte_common.h>
15 : : #include <rte_spinlock.h>
16 : : #include <rte_trace_point.h>
17 : :
18 : : #include <mlx5_common.h>
19 : : #include <mlx5_common_mr.h>
20 : :
21 : : #include "mlx5.h"
22 : : #include "mlx5_autoconf.h"
23 : : #include "mlx5_rxtx.h"
24 : : #include "mlx5_trace.h"
25 : :
26 : : /* TX burst subroutines return codes. */
27 : : enum mlx5_txcmp_code {
28 : : MLX5_TXCMP_CODE_EXIT = 0,
29 : : MLX5_TXCMP_CODE_ERROR,
30 : : MLX5_TXCMP_CODE_SINGLE,
31 : : MLX5_TXCMP_CODE_MULTI,
32 : : MLX5_TXCMP_CODE_TSO,
33 : : MLX5_TXCMP_CODE_EMPW,
34 : : };
35 : :
36 : : /*
37 : : * These defines are used to configure Tx burst routine option set supported
38 : : * at compile time. The not specified options are optimized out due to if
39 : : * conditions can be explicitly calculated at compile time.
40 : : * The offloads with bigger runtime check (require more CPU cycles toskip)
41 : : * overhead should have the bigger index - this is needed to select the better
42 : : * matching routine function if no exact match and some offloads are not
43 : : * actually requested.
44 : : */
45 : : #define MLX5_TXOFF_CONFIG_MULTI (1u << 0) /* Multi-segment packets.*/
46 : : #define MLX5_TXOFF_CONFIG_TSO (1u << 1) /* TCP send offload supported.*/
47 : : #define MLX5_TXOFF_CONFIG_SWP (1u << 2) /* Tunnels/SW Parser offloads.*/
48 : : #define MLX5_TXOFF_CONFIG_CSUM (1u << 3) /* Check Sums offloaded. */
49 : : #define MLX5_TXOFF_CONFIG_INLINE (1u << 4) /* Data inlining supported. */
50 : : #define MLX5_TXOFF_CONFIG_VLAN (1u << 5) /* VLAN insertion supported.*/
51 : : #define MLX5_TXOFF_CONFIG_METADATA (1u << 6) /* Flow metadata. */
52 : : #define MLX5_TXOFF_CONFIG_EMPW (1u << 8) /* Enhanced MPW supported.*/
53 : : #define MLX5_TXOFF_CONFIG_MPW (1u << 9) /* Legacy MPW supported.*/
54 : : #define MLX5_TXOFF_CONFIG_TXPP (1u << 10) /* Scheduling on timestamp.*/
55 : :
56 : : /* The most common offloads groups. */
57 : : #define MLX5_TXOFF_CONFIG_NONE 0
58 : : #define MLX5_TXOFF_CONFIG_FULL (MLX5_TXOFF_CONFIG_MULTI | \
59 : : MLX5_TXOFF_CONFIG_TSO | \
60 : : MLX5_TXOFF_CONFIG_SWP | \
61 : : MLX5_TXOFF_CONFIG_CSUM | \
62 : : MLX5_TXOFF_CONFIG_INLINE | \
63 : : MLX5_TXOFF_CONFIG_VLAN | \
64 : : MLX5_TXOFF_CONFIG_METADATA)
65 : :
66 : : #define MLX5_TXOFF_CONFIG(mask) (olx & MLX5_TXOFF_CONFIG_##mask)
67 : :
68 : : #define MLX5_TXOFF_PRE_DECL(func) \
69 : : uint16_t mlx5_tx_burst_##func(void *txq, \
70 : : struct rte_mbuf **pkts, \
71 : : uint16_t pkts_n)
72 : :
73 : : #define MLX5_TXOFF_DECL(func, olx) \
74 : : uint16_t mlx5_tx_burst_##func(void *txq, \
75 : : struct rte_mbuf **pkts, \
76 : : uint16_t pkts_n) \
77 : : { \
78 : : return mlx5_tx_burst_tmpl((struct mlx5_txq_data *)txq, \
79 : : pkts, pkts_n, (olx)); \
80 : : }
81 : :
82 : : /* Mbuf dynamic flag offset for inline. */
83 : : extern uint64_t rte_net_mlx5_dynf_inline_mask;
84 : : #define RTE_MBUF_F_TX_DYNF_NOINLINE rte_net_mlx5_dynf_inline_mask
85 : :
86 : : extern alignas(RTE_CACHE_LINE_SIZE) uint32_t mlx5_ptype_table[];
87 : : extern alignas(RTE_CACHE_LINE_SIZE) uint8_t mlx5_cksum_table[1 << 10];
88 : : extern alignas(RTE_CACHE_LINE_SIZE) uint8_t mlx5_swp_types_table[1 << 10];
89 : :
90 : : struct mlx5_txq_stats {
91 : : #ifdef MLX5_PMD_SOFT_COUNTERS
92 : : uint64_t opackets; /**< Total of successfully sent packets. */
93 : : uint64_t obytes; /**< Total of successfully sent bytes. */
94 : : #endif
95 : : uint64_t oerrors; /**< Total number of failed transmitted packets. */
96 : : };
97 : :
98 : : /* TX queue send local data. */
99 : : __extension__
100 : : struct mlx5_txq_local {
101 : : struct mlx5_wqe *wqe_last; /* last sent WQE pointer. */
102 : : struct rte_mbuf *mbuf; /* first mbuf to process. */
103 : : uint16_t pkts_copy; /* packets copied to elts. */
104 : : uint16_t pkts_sent; /* packets sent. */
105 : : uint16_t pkts_loop; /* packets sent on loop entry. */
106 : : uint16_t elts_free; /* available elts remain. */
107 : : uint16_t wqe_free; /* available wqe remain. */
108 : : uint16_t mbuf_off; /* data offset in current mbuf. */
109 : : uint16_t mbuf_nseg; /* number of remaining mbuf. */
110 : : uint16_t mbuf_free; /* number of inline mbufs to free. */
111 : : };
112 : :
113 : : /* TX queue descriptor. */
114 : : __extension__
115 : : struct __rte_cache_aligned mlx5_txq_data {
116 : : uint16_t elts_head; /* Current counter in (*elts)[]. */
117 : : uint16_t elts_tail; /* Counter of first element awaiting completion. */
118 : : uint16_t elts_comp; /* elts index since last completion request. */
119 : : uint16_t elts_s; /* Number of mbuf elements. */
120 : : uint16_t elts_m; /* Mask for mbuf elements indices. */
121 : : /* Fields related to elts mbuf storage. */
122 : : uint16_t wqe_ci; /* Consumer index for work queue. */
123 : : uint16_t wqe_pi; /* Producer index for work queue. */
124 : : uint16_t wqe_s; /* Number of WQ elements. */
125 : : uint16_t wqe_m; /* Mask Number for WQ elements. */
126 : : uint16_t wqe_comp; /* WQE index since last completion request. */
127 : : uint16_t wqe_thres; /* WQE threshold to request completion in CQ. */
128 : : /* WQ related fields. */
129 : : uint16_t cq_ci; /* Consumer index for completion queue. */
130 : : uint16_t cq_pi; /* Production index for completion queue. */
131 : : uint16_t cqe_s; /* Number of CQ elements. */
132 : : uint16_t cqe_m; /* Mask for CQ indices. */
133 : : /* CQ related fields. */
134 : : uint16_t elts_n:4; /* elts[] length (in log2). */
135 : : uint16_t cqe_n:4; /* Number of CQ elements (in log2). */
136 : : uint16_t wqe_n:4; /* Number of WQ elements (in log2). */
137 : : uint16_t tso_en:1; /* When set hardware TSO is enabled. */
138 : : uint16_t tunnel_en:1;
139 : : /* When set TX offload for tunneled packets are supported. */
140 : : uint16_t swp_en:1; /* Whether SW parser is enabled. */
141 : : uint16_t vlan_en:1; /* VLAN insertion in WQE is supported. */
142 : : uint16_t db_nc:1; /* Doorbell mapped to non-cached region. */
143 : : uint16_t db_heu:1; /* Doorbell heuristic write barrier. */
144 : : uint16_t rt_timestamp:1; /* Realtime timestamp format. */
145 : : uint16_t wait_on_time:1; /* WQE with timestamp is supported. */
146 : : uint16_t fast_free:1; /* mbuf fast free on Tx is enabled. */
147 : : uint16_t inlen_send; /* Ordinary send data inline size. */
148 : : uint16_t inlen_empw; /* eMPW max packet size to inline. */
149 : : uint16_t inlen_mode; /* Minimal data length to inline. */
150 : : uint8_t tx_aggr_affinity; /* TxQ affinity configuration. */
151 : : uint32_t qp_num_8s; /* QP number shifted by 8. */
152 : : uint64_t offloads; /* Offloads for Tx Queue. */
153 : : struct mlx5_mr_ctrl mr_ctrl; /* MR control descriptor. */
154 : : struct mlx5_wqe *wqes; /* Work queue. */
155 : : struct mlx5_wqe *wqes_end; /* Work queue array limit. */
156 : : #ifdef RTE_LIBRTE_MLX5_DEBUG
157 : : uint32_t *fcqs; /* Free completion queue (debug extended). */
158 : : #else
159 : : uint16_t *fcqs; /* Free completion queue. */
160 : : #endif
161 : : volatile struct mlx5_cqe *cqes; /* Completion queue. */
162 : : volatile uint32_t *qp_db; /* Work queue doorbell. */
163 : : volatile uint32_t *cq_db; /* Completion queue doorbell. */
164 : : uint16_t port_id; /* Port ID of device. */
165 : : uint16_t idx; /* Queue index. */
166 : : uint64_t rt_timemask; /* Scheduling timestamp mask. */
167 : : uint64_t ts_mask; /* Timestamp flag dynamic mask. */
168 : : uint64_t ts_last; /* Last scheduled timestamp. */
169 : : int32_t ts_offset; /* Timestamp field dynamic offset. */
170 : : struct mlx5_dev_ctx_shared *sh; /* Shared context. */
171 : : struct mlx5_txq_stats stats; /* TX queue counters. */
172 : : struct mlx5_txq_stats stats_reset; /* stats on last reset. */
173 : : struct mlx5_uar_data uar_data;
174 : : struct rte_mbuf *elts[];
175 : : /* Storage for queued packets, must be the last field. */
176 : : };
177 : :
178 : : /* TX queue control descriptor. */
179 : : __extension__
180 : : struct mlx5_txq_ctrl {
181 : : LIST_ENTRY(mlx5_txq_ctrl) next; /* Pointer to the next element. */
182 : : RTE_ATOMIC(uint32_t) refcnt; /* Reference counter. */
183 : : unsigned int socket; /* CPU socket ID for allocations. */
184 : : bool is_hairpin; /* Whether TxQ type is Hairpin. */
185 : : unsigned int max_inline_data; /* Max inline data. */
186 : : unsigned int max_tso_header; /* Max TSO header size. */
187 : : struct mlx5_txq_obj *obj; /* Verbs/DevX queue object. */
188 : : struct mlx5_priv *priv; /* Back pointer to private data. */
189 : : off_t uar_mmap_offset; /* UAR mmap offset for non-primary process. */
190 : : uint16_t dump_file_n; /* Number of dump files. */
191 : : struct rte_eth_hairpin_conf hairpin_conf; /* Hairpin configuration. */
192 : : uint32_t hairpin_status; /* Hairpin binding status. */
193 : : struct mlx5_txq_data txq; /* Data path structure. */
194 : : /* Must be the last field in the structure, contains elts[]. */
195 : : };
196 : :
197 : : /* mlx5_txq.c */
198 : :
199 : : int mlx5_tx_queue_start(struct rte_eth_dev *dev, uint16_t queue_id);
200 : : int mlx5_tx_queue_stop(struct rte_eth_dev *dev, uint16_t queue_id);
201 : : int mlx5_tx_queue_start_primary(struct rte_eth_dev *dev, uint16_t queue_id);
202 : : int mlx5_tx_queue_stop_primary(struct rte_eth_dev *dev, uint16_t queue_id);
203 : : int mlx5_tx_queue_setup(struct rte_eth_dev *dev, uint16_t idx, uint16_t desc,
204 : : unsigned int socket, const struct rte_eth_txconf *conf);
205 : : int mlx5_tx_hairpin_queue_setup
206 : : (struct rte_eth_dev *dev, uint16_t idx, uint16_t desc,
207 : : const struct rte_eth_hairpin_conf *hairpin_conf);
208 : : void mlx5_tx_queue_release(struct rte_eth_dev *dev, uint16_t qid);
209 : : int mlx5_tx_uar_init_secondary(struct rte_eth_dev *dev, int fd);
210 : : void mlx5_tx_uar_uninit_secondary(struct rte_eth_dev *dev);
211 : : int mlx5_txq_obj_verify(struct rte_eth_dev *dev);
212 : : struct mlx5_txq_ctrl *mlx5_txq_new(struct rte_eth_dev *dev, uint16_t idx,
213 : : uint16_t desc, unsigned int socket,
214 : : const struct rte_eth_txconf *conf);
215 : : struct mlx5_txq_ctrl *mlx5_txq_hairpin_new
216 : : (struct rte_eth_dev *dev, uint16_t idx, uint16_t desc,
217 : : const struct rte_eth_hairpin_conf *hairpin_conf);
218 : : struct mlx5_txq_ctrl *mlx5_txq_get(struct rte_eth_dev *dev, uint16_t idx);
219 : : int mlx5_txq_release(struct rte_eth_dev *dev, uint16_t idx);
220 : : int mlx5_txq_releasable(struct rte_eth_dev *dev, uint16_t idx);
221 : : int mlx5_txq_verify(struct rte_eth_dev *dev);
222 : : int mlx5_txq_get_sqn(struct mlx5_txq_ctrl *txq);
223 : : void txq_alloc_elts(struct mlx5_txq_ctrl *txq_ctrl);
224 : : void txq_free_elts(struct mlx5_txq_ctrl *txq_ctrl);
225 : : uint64_t mlx5_get_tx_port_offloads(struct rte_eth_dev *dev);
226 : : void mlx5_txq_dynf_timestamp_set(struct rte_eth_dev *dev);
227 : : int mlx5_count_aggr_ports(struct rte_eth_dev *dev);
228 : : int mlx5_map_aggr_tx_affinity(struct rte_eth_dev *dev, uint16_t tx_queue_id,
229 : : uint8_t affinity);
230 : : int mlx5_ext_txq_verify(struct rte_eth_dev *dev);
231 : : struct mlx5_external_q *mlx5_ext_txq_get(struct rte_eth_dev *dev, uint16_t idx);
232 : :
233 : : /* mlx5_tx.c */
234 : :
235 : : void mlx5_tx_handle_completion(struct mlx5_txq_data *__rte_restrict txq,
236 : : unsigned int olx __rte_unused);
237 : : int mlx5_tx_descriptor_status(void *tx_queue, uint16_t offset);
238 : : void mlx5_txq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
239 : : struct rte_eth_txq_info *qinfo);
240 : : int mlx5_tx_burst_mode_get(struct rte_eth_dev *dev, uint16_t tx_queue_id,
241 : : struct rte_eth_burst_mode *mode);
242 : :
243 : : /* mlx5_tx_empw.c */
244 : :
245 : : MLX5_TXOFF_PRE_DECL(full_empw);
246 : : MLX5_TXOFF_PRE_DECL(none_empw);
247 : : MLX5_TXOFF_PRE_DECL(md_empw);
248 : : MLX5_TXOFF_PRE_DECL(mt_empw);
249 : : MLX5_TXOFF_PRE_DECL(mtsc_empw);
250 : : MLX5_TXOFF_PRE_DECL(mti_empw);
251 : : MLX5_TXOFF_PRE_DECL(mtv_empw);
252 : : MLX5_TXOFF_PRE_DECL(mtiv_empw);
253 : : MLX5_TXOFF_PRE_DECL(sc_empw);
254 : : MLX5_TXOFF_PRE_DECL(sci_empw);
255 : : MLX5_TXOFF_PRE_DECL(scv_empw);
256 : : MLX5_TXOFF_PRE_DECL(sciv_empw);
257 : : MLX5_TXOFF_PRE_DECL(i_empw);
258 : : MLX5_TXOFF_PRE_DECL(v_empw);
259 : : MLX5_TXOFF_PRE_DECL(iv_empw);
260 : :
261 : : /* mlx5_tx_nompw.c */
262 : :
263 : : MLX5_TXOFF_PRE_DECL(full);
264 : : MLX5_TXOFF_PRE_DECL(none);
265 : : MLX5_TXOFF_PRE_DECL(md);
266 : : MLX5_TXOFF_PRE_DECL(mt);
267 : : MLX5_TXOFF_PRE_DECL(mtsc);
268 : : MLX5_TXOFF_PRE_DECL(mti);
269 : : MLX5_TXOFF_PRE_DECL(mtv);
270 : : MLX5_TXOFF_PRE_DECL(mtiv);
271 : : MLX5_TXOFF_PRE_DECL(sc);
272 : : MLX5_TXOFF_PRE_DECL(sci);
273 : : MLX5_TXOFF_PRE_DECL(scv);
274 : : MLX5_TXOFF_PRE_DECL(sciv);
275 : : MLX5_TXOFF_PRE_DECL(i);
276 : : MLX5_TXOFF_PRE_DECL(v);
277 : : MLX5_TXOFF_PRE_DECL(iv);
278 : :
279 : : /* mlx5_tx_txpp.c */
280 : :
281 : : MLX5_TXOFF_PRE_DECL(full_ts_nompw);
282 : : MLX5_TXOFF_PRE_DECL(full_ts_nompwi);
283 : : MLX5_TXOFF_PRE_DECL(full_ts);
284 : : MLX5_TXOFF_PRE_DECL(full_ts_noi);
285 : : MLX5_TXOFF_PRE_DECL(none_ts);
286 : : MLX5_TXOFF_PRE_DECL(mdi_ts);
287 : : MLX5_TXOFF_PRE_DECL(mti_ts);
288 : : MLX5_TXOFF_PRE_DECL(mtiv_ts);
289 : :
290 : : /* mlx5_tx_mpw.c */
291 : :
292 : : MLX5_TXOFF_PRE_DECL(none_mpw);
293 : : MLX5_TXOFF_PRE_DECL(mci_mpw);
294 : : MLX5_TXOFF_PRE_DECL(mc_mpw);
295 : : MLX5_TXOFF_PRE_DECL(i_mpw);
296 : :
297 : : static __rte_always_inline struct mlx5_uar_data *
298 : : mlx5_tx_bfreg(struct mlx5_txq_data *txq)
299 : : {
300 : 0 : return &MLX5_PROC_PRIV(txq->port_id)->uar_table[txq->idx];
301 : : }
302 : :
303 : : /**
304 : : * Ring TX queue doorbell and flush the update by write memory barrier.
305 : : *
306 : : * @param txq
307 : : * Pointer to TX queue structure.
308 : : * @param wqe
309 : : * Pointer to the last WQE posted in the NIC.
310 : : */
311 : : static __rte_always_inline void
312 : : mlx5_tx_dbrec(struct mlx5_txq_data *txq, volatile struct mlx5_wqe *wqe)
313 : : {
314 : : mlx5_doorbell_ring(mlx5_tx_bfreg(txq), *(volatile uint64_t *)wqe,
315 : : txq->wqe_ci, txq->qp_db, 1);
316 : : }
317 : :
318 : : /**
319 : : * Convert timestamp from mbuf format to linear counter
320 : : * of Clock Queue completions (24 bits).
321 : : *
322 : : * @param sh
323 : : * Pointer to the device shared context to fetch Tx
324 : : * packet pacing timestamp and parameters.
325 : : * @param ts
326 : : * Timestamp from mbuf to convert.
327 : : * @return
328 : : * positive or zero value - completion ID to wait.
329 : : * negative value - conversion error.
330 : : */
331 : : static __rte_always_inline int32_t
332 : : mlx5_txpp_convert_tx_ts(struct mlx5_dev_ctx_shared *sh, uint64_t mts)
333 : : {
334 : : uint64_t ts, ci;
335 : : uint32_t tick;
336 : :
337 : : do {
338 : : /*
339 : : * Read atomically two uint64_t fields and compare lsb bits.
340 : : * It there is no match - the timestamp was updated in
341 : : * the service thread, data should be re-read.
342 : : */
343 : 0 : rte_compiler_barrier();
344 : 0 : ci = rte_atomic_load_explicit(&sh->txpp.ts.ci_ts, rte_memory_order_relaxed);
345 : 0 : ts = rte_atomic_load_explicit(&sh->txpp.ts.ts, rte_memory_order_relaxed);
346 : 0 : rte_compiler_barrier();
347 [ # # # # : 0 : if (!((ts ^ ci) << (64 - MLX5_CQ_INDEX_WIDTH)))
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
348 : : break;
349 : : } while (true);
350 : : /* Perform the skew correction, positive value to send earlier. */
351 : 0 : mts -= sh->txpp.skew;
352 : 0 : mts -= ts;
353 [ # # # # : 0 : if (unlikely(mts >= UINT64_MAX / 2)) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
354 : : /* We have negative integer, mts is in the past. */
355 : 0 : rte_atomic_fetch_add_explicit(&sh->txpp.err_ts_past,
356 : : 1, rte_memory_order_relaxed);
357 : 0 : return -1;
358 : : }
359 : 0 : tick = sh->txpp.tick;
360 : : MLX5_ASSERT(tick);
361 : : /* Convert delta to completions, round up. */
362 : 0 : mts = (mts + tick - 1) / tick;
363 [ # # # # : 0 : if (unlikely(mts >= (1 << MLX5_CQ_INDEX_WIDTH) / 2 - 1)) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
364 : : /* We have mts is too distant future. */
365 : 0 : rte_atomic_fetch_add_explicit(&sh->txpp.err_ts_future,
366 : : 1, rte_memory_order_relaxed);
367 : 0 : return -1;
368 : : }
369 : 0 : mts <<= 64 - MLX5_CQ_INDEX_WIDTH;
370 : 0 : ci += mts;
371 : 0 : ci >>= 64 - MLX5_CQ_INDEX_WIDTH;
372 : 0 : return ci;
373 : : }
374 : :
375 : : /**
376 : : * Read real time clock counter directly from the device PCI BAR area.
377 : : * The PCI BAR must be mapped to the process memory space at initialization.
378 : : *
379 : : * @param dev
380 : : * Device to read clock counter from
381 : : *
382 : : * @return
383 : : * 0 - if HCA BAR is not supported or not mapped.
384 : : * !=0 - read 64-bit value of real-time in UTC formatv (nanoseconds)
385 : : */
386 : : static __rte_always_inline uint64_t mlx5_read_pcibar_clock(struct rte_eth_dev *dev)
387 : : {
388 : 0 : struct mlx5_proc_priv *ppriv = dev->process_private;
389 : :
390 [ # # # # ]: 0 : if (ppriv && ppriv->hca_bar) {
391 : : struct mlx5_priv *priv = dev->data->dev_private;
392 : : struct mlx5_dev_ctx_shared *sh = priv->sh;
393 : 0 : uint64_t *hca_ptr = (uint64_t *)(ppriv->hca_bar) +
394 : : __mlx5_64_off(initial_seg, real_time);
395 : : uint64_t __rte_atomic *ts_addr;
396 : : uint64_t ts;
397 : :
398 : : ts_addr = (uint64_t __rte_atomic *)hca_ptr;
399 : 0 : ts = rte_atomic_load_explicit(ts_addr, rte_memory_order_seq_cst);
400 [ # # ]: 0 : ts = rte_be_to_cpu_64(ts);
401 : : ts = mlx5_txpp_convert_rx_ts(sh, ts);
402 : : return ts;
403 : : }
404 : : return 0;
405 : : }
406 : :
407 : : static __rte_always_inline uint64_t mlx5_read_pcibar_clock_from_txq(struct mlx5_txq_data *txq)
408 : : {
409 : : struct mlx5_txq_ctrl *txq_ctrl = container_of(txq, struct mlx5_txq_ctrl, txq);
410 : : struct rte_eth_dev *dev = ETH_DEV(txq_ctrl->priv);
411 : :
412 : : return mlx5_read_pcibar_clock(dev);
413 : : }
414 : :
415 : : /**
416 : : * Set Software Parser flags and offsets in Ethernet Segment of WQE.
417 : : * Flags must be preliminary initialized to zero.
418 : : *
419 : : * @param loc
420 : : * Pointer to burst routine local context.
421 : : * @param swp_flags
422 : : * Pointer to store Software Parser flags.
423 : : * @param olx
424 : : * Configured Tx offloads mask. It is fully defined at
425 : : * compile time and may be used for optimization.
426 : : *
427 : : * @return
428 : : * Software Parser offsets packed in dword.
429 : : * Software Parser flags are set by pointer.
430 : : */
431 : : static __rte_always_inline uint32_t
432 : : txq_mbuf_to_swp(struct mlx5_txq_local *__rte_restrict loc,
433 : : uint8_t *swp_flags,
434 : : unsigned int olx)
435 : : {
436 : : uint64_t ol, tunnel;
437 : : unsigned int idx, off;
438 : : uint32_t set;
439 : :
440 : : if (!MLX5_TXOFF_CONFIG(SWP))
441 : : return 0;
442 : : ol = loc->mbuf->ol_flags;
443 : : tunnel = ol & RTE_MBUF_F_TX_TUNNEL_MASK;
444 : : /*
445 : : * Check whether Software Parser is required.
446 : : * Only customized tunnels may ask for.
447 : : */
448 : 0 : if (likely(tunnel != RTE_MBUF_F_TX_TUNNEL_UDP && tunnel != RTE_MBUF_F_TX_TUNNEL_IP))
449 : : return 0;
450 : : /*
451 : : * The index should have:
452 : : * bit[0:1] = RTE_MBUF_F_TX_L4_MASK
453 : : * bit[4] = RTE_MBUF_F_TX_IPV6
454 : : * bit[8] = RTE_MBUF_F_TX_OUTER_IPV6
455 : : * bit[9] = RTE_MBUF_F_TX_OUTER_UDP
456 : : */
457 : 0 : idx = (ol & (RTE_MBUF_F_TX_L4_MASK | RTE_MBUF_F_TX_IPV6 | RTE_MBUF_F_TX_OUTER_IPV6)) >> 52;
458 [ # # # # : 0 : idx |= (tunnel == RTE_MBUF_F_TX_TUNNEL_UDP) ? (1 << 9) : 0;
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # #
# ]
459 : 0 : *swp_flags = mlx5_swp_types_table[idx];
460 : : /*
461 : : * Set offsets for SW parser. Since ConnectX-5, SW parser just
462 : : * complements HW parser. SW parser starts to engage only if HW parser
463 : : * can't reach a header. For the older devices, HW parser will not kick
464 : : * in if any of SWP offsets is set. Therefore, all of the L3 offsets
465 : : * should be set regardless of HW offload.
466 : : */
467 : 0 : off = loc->mbuf->outer_l2_len;
468 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(VLAN) && ol & RTE_MBUF_F_TX_VLAN)
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
469 : 0 : off += sizeof(struct rte_vlan_hdr);
470 : 0 : set = (off >> 1) << 8; /* Outer L3 offset. */
471 : 0 : off += loc->mbuf->outer_l3_len;
472 [ # # # # : 0 : if (tunnel == RTE_MBUF_F_TX_TUNNEL_UDP)
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # #
# ]
473 : 0 : set |= off >> 1; /* Outer L4 offset. */
474 [ # # # # : 0 : if (ol & (RTE_MBUF_F_TX_IPV4 | RTE_MBUF_F_TX_IPV6)) { /* Inner IP. */
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # #
# ]
475 : 0 : const uint64_t csum = ol & RTE_MBUF_F_TX_L4_MASK;
476 : 0 : off += loc->mbuf->l2_len;
477 : 0 : set |= (off >> 1) << 24; /* Inner L3 offset. */
478 : 0 : if (csum == RTE_MBUF_F_TX_TCP_CKSUM ||
479 [ # # # # : 0 : csum == RTE_MBUF_F_TX_UDP_CKSUM ||
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # #
# ]
480 [ # # # # : 0 : (MLX5_TXOFF_CONFIG(TSO) && ol & RTE_MBUF_F_TX_TCP_SEG)) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # #
# ]
481 : 0 : off += loc->mbuf->l3_len;
482 : 0 : set |= (off >> 1) << 16; /* Inner L4 offset. */
483 : : }
484 : : }
485 : : set = rte_cpu_to_le_32(set);
486 : : return set;
487 : : }
488 : :
489 : : /**
490 : : * Convert the Checksum offloads to Verbs.
491 : : *
492 : : * @param buf
493 : : * Pointer to the mbuf.
494 : : *
495 : : * @return
496 : : * Converted checksum flags.
497 : : */
498 : : static __rte_always_inline uint8_t
499 : : txq_ol_cksum_to_cs(struct rte_mbuf *buf)
500 : : {
501 : : uint32_t idx;
502 : 0 : uint8_t is_tunnel = !!(buf->ol_flags & RTE_MBUF_F_TX_TUNNEL_MASK);
503 : : const uint64_t ol_flags_mask = RTE_MBUF_F_TX_TCP_SEG | RTE_MBUF_F_TX_L4_MASK |
504 : : RTE_MBUF_F_TX_IP_CKSUM | RTE_MBUF_F_TX_OUTER_IP_CKSUM;
505 : :
506 : : /*
507 : : * The index should have:
508 : : * bit[0] = RTE_MBUF_F_TX_TCP_SEG
509 : : * bit[2:3] = RTE_MBUF_F_TX_UDP_CKSUM, RTE_MBUF_F_TX_TCP_CKSUM
510 : : * bit[4] = RTE_MBUF_F_TX_IP_CKSUM
511 : : * bit[8] = RTE_MBUF_F_TX_OUTER_IP_CKSUM
512 : : * bit[9] = tunnel
513 : : */
514 [ # # # # : 0 : idx = ((buf->ol_flags & ol_flags_mask) >> 50) | (!!is_tunnel << 9);
# # # # #
# # # ]
515 : 0 : return mlx5_cksum_table[idx];
516 : : }
517 : :
518 : : /**
519 : : * Free the mbufs from the linear array of pointers.
520 : : *
521 : : * @param txq
522 : : * Pointer to Tx queue structure.
523 : : * @param pkts
524 : : * Pointer to array of packets to be free.
525 : : * @param pkts_n
526 : : * Number of packets to be freed.
527 : : * @param olx
528 : : * Configured Tx offloads mask. It is fully defined at
529 : : * compile time and may be used for optimization.
530 : : */
531 : : static __rte_always_inline void
532 : : mlx5_tx_free_mbuf(struct mlx5_txq_data *__rte_restrict txq,
533 : : struct rte_mbuf **__rte_restrict pkts,
534 : : unsigned int pkts_n,
535 : : unsigned int olx __rte_unused)
536 : : {
537 : : struct rte_mempool *pool = NULL;
538 : : struct rte_mbuf **p_free = NULL;
539 : : struct rte_mbuf *mbuf;
540 : : unsigned int n_free = 0;
541 : :
542 : : /*
543 : : * The implemented algorithm eliminates
544 : : * copying pointers to temporary array
545 : : * for rte_mempool_put_bulk() calls.
546 : : */
547 : : MLX5_ASSERT(pkts);
548 : : MLX5_ASSERT(pkts_n);
549 : : /*
550 : : * Free mbufs directly to the pool in bulk
551 : : * if fast free offload is engaged
552 : : */
553 [ # # ]: 0 : if (!MLX5_TXOFF_CONFIG(MULTI) && txq->fast_free) {
554 : 0 : mbuf = *pkts;
555 [ # # ]: 0 : pool = mbuf->pool;
556 : : rte_mempool_put_bulk(pool, (void *)pkts, pkts_n);
557 : : return;
558 : : }
559 : : for (;;) {
560 : : for (;;) {
561 : : /*
562 : : * Decrement mbuf reference counter, detach
563 : : * indirect and external buffers if needed.
564 : : */
565 [ # # ]: 0 : mbuf = rte_pktmbuf_prefree_seg(*pkts);
566 [ # # ]: 0 : if (likely(mbuf != NULL)) {
567 : : MLX5_ASSERT(mbuf == *pkts);
568 [ # # ]: 0 : if (likely(n_free != 0)) {
569 [ # # ]: 0 : if (unlikely(pool != mbuf->pool))
570 : : /* From different pool. */
571 : : break;
572 : : } else {
573 : : /* Start new scan array. */
574 : 0 : pool = mbuf->pool;
575 : : p_free = pkts;
576 : : }
577 : 0 : ++n_free;
578 : 0 : ++pkts;
579 : 0 : --pkts_n;
580 [ # # ]: 0 : if (unlikely(pkts_n == 0)) {
581 : : mbuf = NULL;
582 : : break;
583 : : }
584 : : } else {
585 : : /*
586 : : * This happens if mbuf is still referenced.
587 : : * We can't put it back to the pool, skip.
588 : : */
589 : 0 : ++pkts;
590 : 0 : --pkts_n;
591 [ # # ]: 0 : if (unlikely(n_free != 0))
592 : : /* There is some array to free.*/
593 : : break;
594 [ # # ]: 0 : if (unlikely(pkts_n == 0))
595 : : /* Last mbuf, nothing to free. */
596 : : return;
597 : : }
598 : : }
599 : : for (;;) {
600 : : /*
601 : : * This loop is implemented to avoid multiple
602 : : * inlining of rte_mempool_put_bulk().
603 : : */
604 : 0 : MLX5_ASSERT(pool);
605 : : MLX5_ASSERT(p_free);
606 : : MLX5_ASSERT(n_free);
607 : : /*
608 : : * Free the array of pre-freed mbufs
609 : : * belonging to the same memory pool.
610 : : */
611 : : rte_mempool_put_bulk(pool, (void *)p_free, n_free);
612 [ # # ]: 0 : if (unlikely(mbuf != NULL)) {
613 : : /* There is the request to start new scan. */
614 : 0 : pool = mbuf->pool;
615 : 0 : p_free = pkts++;
616 : : n_free = 1;
617 : 0 : --pkts_n;
618 [ # # ]: 0 : if (likely(pkts_n != 0))
619 : : break;
620 : : /*
621 : : * This is the last mbuf to be freed.
622 : : * Do one more loop iteration to complete.
623 : : * This is rare case of the last unique mbuf.
624 : : */
625 : : mbuf = NULL;
626 : : continue;
627 : : }
628 [ # # ]: 0 : if (likely(pkts_n == 0))
629 : : return;
630 : : n_free = 0;
631 : : break;
632 : : }
633 : : }
634 : : }
635 : :
636 : : /**
637 : : * No inline version to free buffers for optimal call
638 : : * on the tx_burst completion.
639 : : */
640 : : static __rte_noinline void
641 [ # # ]: 0 : __mlx5_tx_free_mbuf(struct mlx5_txq_data *__rte_restrict txq,
642 : : struct rte_mbuf **__rte_restrict pkts,
643 : : unsigned int pkts_n,
644 : : unsigned int olx __rte_unused)
645 : : {
646 : : mlx5_tx_free_mbuf(txq, pkts, pkts_n, olx);
647 : 0 : }
648 : :
649 : : /**
650 : : * Free the mbuf from the elts ring buffer till new tail.
651 : : *
652 : : * @param txq
653 : : * Pointer to Tx queue structure.
654 : : * @param tail
655 : : * Index in elts to free up to, becomes new elts tail.
656 : : * @param olx
657 : : * Configured Tx offloads mask. It is fully defined at
658 : : * compile time and may be used for optimization.
659 : : */
660 : : static __rte_always_inline void
661 : : mlx5_tx_free_elts(struct mlx5_txq_data *__rte_restrict txq,
662 : : uint16_t tail,
663 : : unsigned int olx __rte_unused)
664 : : {
665 : 0 : uint16_t n_elts = tail - txq->elts_tail;
666 : :
667 : : MLX5_ASSERT(n_elts);
668 : : MLX5_ASSERT(n_elts <= txq->elts_s);
669 : : /*
670 : : * Implement a loop to support ring buffer wraparound
671 : : * with single inlining of mlx5_tx_free_mbuf().
672 : : */
673 : : do {
674 : : unsigned int part;
675 : :
676 : 0 : part = txq->elts_s - (txq->elts_tail & txq->elts_m);
677 : 0 : part = RTE_MIN(part, n_elts);
678 : : MLX5_ASSERT(part);
679 : : MLX5_ASSERT(part <= txq->elts_s);
680 [ # # ]: 0 : mlx5_tx_free_mbuf(txq,
681 : : &txq->elts[txq->elts_tail & txq->elts_m],
682 : : part, olx);
683 : 0 : txq->elts_tail += part;
684 : 0 : n_elts -= part;
685 [ # # ]: 0 : } while (n_elts);
686 : : }
687 : :
688 : : /**
689 : : * Store the mbuf being sent into elts ring buffer.
690 : : * On Tx completion these mbufs will be freed.
691 : : *
692 : : * @param txq
693 : : * Pointer to Tx queue structure.
694 : : * @param pkts
695 : : * Pointer to array of packets to be stored.
696 : : * @param pkts_n
697 : : * Number of packets to be stored.
698 : : * @param olx
699 : : * Configured Tx offloads mask. It is fully defined at
700 : : * compile time and may be used for optimization.
701 : : */
702 : : static __rte_always_inline void
703 : : mlx5_tx_copy_elts(struct mlx5_txq_data *__rte_restrict txq,
704 : : struct rte_mbuf **__rte_restrict pkts,
705 : : unsigned int pkts_n,
706 : : unsigned int olx __rte_unused)
707 : : {
708 : : unsigned int part;
709 : 0 : struct rte_mbuf **elts = (struct rte_mbuf **)txq->elts;
710 : :
711 : : MLX5_ASSERT(pkts);
712 : : MLX5_ASSERT(pkts_n);
713 : 0 : part = txq->elts_s - (txq->elts_head & txq->elts_m);
714 : : MLX5_ASSERT(part);
715 : : MLX5_ASSERT(part <= txq->elts_s);
716 : : /* This code is a good candidate for vectorizing with SIMD. */
717 : 0 : rte_memcpy((void *)(elts + (txq->elts_head & txq->elts_m)),
718 : : (void *)pkts,
719 : 0 : RTE_MIN(part, pkts_n) * sizeof(struct rte_mbuf *));
720 : 0 : txq->elts_head += pkts_n;
721 [ # # # # : 0 : if (unlikely(part < pkts_n))
# # # # #
# # # # #
# # # # #
# # # ]
722 : : /* The copy is wrapping around the elts array. */
723 : 0 : rte_memcpy((void *)elts, (void *)(pkts + part),
724 [ # # # # : 0 : (pkts_n - part) * sizeof(struct rte_mbuf *));
# # # # #
# # # # #
# # # # #
# # # ]
725 : : }
726 : :
727 : : /**
728 : : * Check if the completion request flag should be set in the last WQE.
729 : : * Both pushed mbufs and WQEs are monitored and the completion request
730 : : * flag is set if any of thresholds is reached.
731 : : *
732 : : * @param txq
733 : : * Pointer to TX queue structure.
734 : : * @param loc
735 : : * Pointer to burst routine local context.
736 : : * @param olx
737 : : * Configured Tx offloads mask. It is fully defined at
738 : : * compile time and may be used for optimization.
739 : : */
740 : : static __rte_always_inline void
741 : : mlx5_tx_request_completion(struct mlx5_txq_data *__rte_restrict txq,
742 : : struct mlx5_txq_local *__rte_restrict loc,
743 : : unsigned int olx)
744 : : {
745 : 0 : uint16_t head = txq->elts_head;
746 : : unsigned int part;
747 : :
748 : : part = MLX5_TXOFF_CONFIG(INLINE) ?
749 : 0 : 0 : loc->pkts_sent - loc->pkts_copy;
750 : 0 : head += part;
751 [ # # # # : 0 : if ((uint16_t)(head - txq->elts_comp) >= MLX5_TX_COMP_THRESH ||
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
752 : 0 : (MLX5_TXOFF_CONFIG(INLINE) &&
753 [ # # # # : 0 : (uint16_t)(txq->wqe_ci - txq->wqe_comp) >= txq->wqe_thres)) {
# # # # #
# # # #
# ]
754 : : volatile struct mlx5_wqe *last = loc->wqe_last;
755 : :
756 : : MLX5_ASSERT(last);
757 : 0 : txq->elts_comp = head;
758 : : if (MLX5_TXOFF_CONFIG(INLINE))
759 : 0 : txq->wqe_comp = txq->wqe_ci;
760 : : /* Request unconditional completion on last WQE. */
761 : 0 : last->cseg.flags = RTE_BE32(MLX5_COMP_ALWAYS <<
762 : : MLX5_COMP_MODE_OFFSET);
763 : : /* Save elts_head in dedicated free on completion queue. */
764 : : #ifdef RTE_LIBRTE_MLX5_DEBUG
765 : : txq->fcqs[txq->cq_pi++ & txq->cqe_m] = head |
766 : : (last->cseg.opcode >> 8) << 16;
767 : : #else
768 : 0 : txq->fcqs[txq->cq_pi++ & txq->cqe_m] = head;
769 : : #endif
770 : : /* A CQE slot must always be available. */
771 : : MLX5_ASSERT((txq->cq_pi - txq->cq_ci) <= txq->cqe_s);
772 : : }
773 : : }
774 : :
775 : : /**
776 : : * Set completion request flag for all issued WQEs.
777 : : * This routine is intended to be used with enabled fast path tracing
778 : : * and send scheduling on time to provide the detailed report in trace
779 : : * for send completions on every WQE.
780 : : *
781 : : * @param txq
782 : : * Pointer to TX queue structure.
783 : : * @param loc
784 : : * Pointer to burst routine local context.
785 : : * @param olx
786 : : * Configured Tx offloads mask. It is fully defined at
787 : : * compile time and may be used for optimization.
788 : : */
789 : : static __rte_always_inline void
790 : : mlx5_tx_request_completion_trace(struct mlx5_txq_data *__rte_restrict txq,
791 : : struct mlx5_txq_local *__rte_restrict loc,
792 : : unsigned int olx)
793 : : {
794 : : uint16_t head = txq->elts_comp;
795 : :
796 : : while (txq->wqe_comp != txq->wqe_ci) {
797 : : volatile struct mlx5_wqe *wqe;
798 : : uint32_t wqe_n;
799 : :
800 : : MLX5_ASSERT(loc->wqe_last);
801 : : wqe = txq->wqes + (txq->wqe_comp & txq->wqe_m);
802 : : if (wqe == loc->wqe_last) {
803 : : head = txq->elts_head;
804 : : head += MLX5_TXOFF_CONFIG(INLINE) ?
805 : : 0 : loc->pkts_sent - loc->pkts_copy;
806 : : txq->elts_comp = head;
807 : : }
808 : : /* Completion request flag was set on cseg constructing. */
809 : : #ifdef RTE_LIBRTE_MLX5_DEBUG
810 : : txq->fcqs[txq->cq_pi++ & txq->cqe_m] = head |
811 : : (wqe->cseg.opcode >> 8) << 16;
812 : : #else
813 : : txq->fcqs[txq->cq_pi++ & txq->cqe_m] = head;
814 : : #endif
815 : : /* A CQE slot must always be available. */
816 : : MLX5_ASSERT((txq->cq_pi - txq->cq_ci) <= txq->cqe_s);
817 : : /* Advance to the next WQE in the queue. */
818 : : wqe_n = rte_be_to_cpu_32(wqe->cseg.sq_ds) & 0x3F;
819 : : txq->wqe_comp += RTE_ALIGN(wqe_n, 4) / 4;
820 : : }
821 : : }
822 : :
823 : : /**
824 : : * Build the Control Segment with specified opcode:
825 : : * - MLX5_OPCODE_SEND
826 : : * - MLX5_OPCODE_ENHANCED_MPSW
827 : : * - MLX5_OPCODE_TSO
828 : : *
829 : : * @param txq
830 : : * Pointer to TX queue structure.
831 : : * @param loc
832 : : * Pointer to burst routine local context.
833 : : * @param wqe
834 : : * Pointer to WQE to fill with built Control Segment.
835 : : * @param ds
836 : : * Supposed length of WQE in segments.
837 : : * @param opcode
838 : : * SQ WQE opcode to put into Control Segment.
839 : : * @param olx
840 : : * Configured Tx offloads mask. It is fully defined at
841 : : * compile time and may be used for optimization.
842 : : */
843 : : static __rte_always_inline void
844 : : mlx5_tx_cseg_init(struct mlx5_txq_data *__rte_restrict txq,
845 : : struct mlx5_txq_local *__rte_restrict loc __rte_unused,
846 : : struct mlx5_wqe *__rte_restrict wqe,
847 : : unsigned int ds,
848 : : unsigned int opcode,
849 : : unsigned int olx)
850 : : {
851 : : struct mlx5_wqe_cseg *__rte_restrict cs = &wqe->cseg;
852 : : uint64_t real_time;
853 : :
854 : : /* For legacy MPW replace the EMPW by TSO with modifier. */
855 : : if (MLX5_TXOFF_CONFIG(MPW) && opcode == MLX5_OPCODE_ENHANCED_MPSW)
856 : : opcode = MLX5_OPCODE_TSO | MLX5_OPC_MOD_MPW << 24;
857 [ # # # # : 0 : cs->opcode = rte_cpu_to_be_32((txq->wqe_ci << 8) | opcode);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
858 [ # # # # : 0 : cs->sq_ds = rte_cpu_to_be_32(txq->qp_num_8s | ds);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # ]
859 : : if (MLX5_TXOFF_CONFIG(TXPP) && __rte_trace_point_fp_is_enabled())
860 : : cs->flags = RTE_BE32(MLX5_COMP_ALWAYS <<
861 : : MLX5_COMP_MODE_OFFSET);
862 : : else
863 : 0 : cs->flags = RTE_BE32(MLX5_COMP_ONLY_FIRST_ERR <<
864 : : MLX5_COMP_MODE_OFFSET);
865 [ # # # # : 0 : cs->misc = RTE_BE32(0);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # ]
866 : : if (__rte_trace_point_fp_is_enabled()) {
867 : : real_time = mlx5_read_pcibar_clock_from_txq(txq);
868 : : if (!loc->pkts_sent)
869 : : rte_pmd_mlx5_trace_tx_entry(real_time, txq->port_id, txq->idx);
870 : : rte_pmd_mlx5_trace_tx_wqe(real_time, (txq->wqe_ci << 8) | opcode);
871 : : }
872 : : }
873 : :
874 : : /**
875 : : * Build the Synchronize Queue Segment with specified completion index.
876 : : *
877 : : * @param txq
878 : : * Pointer to TX queue structure.
879 : : * @param loc
880 : : * Pointer to burst routine local context.
881 : : * @param wqe
882 : : * Pointer to WQE to fill with built Control Segment.
883 : : * @param wci
884 : : * Completion index in Clock Queue to wait.
885 : : * @param olx
886 : : * Configured Tx offloads mask. It is fully defined at
887 : : * compile time and may be used for optimization.
888 : : */
889 : : static __rte_always_inline void
890 : : mlx5_tx_qseg_init(struct mlx5_txq_data *restrict txq,
891 : : struct mlx5_txq_local *restrict loc __rte_unused,
892 : : struct mlx5_wqe *restrict wqe,
893 : : unsigned int wci,
894 : : unsigned int olx __rte_unused)
895 : : {
896 : : struct mlx5_wqe_qseg *qs;
897 : :
898 : 0 : qs = RTE_PTR_ADD(wqe, MLX5_WSEG_SIZE);
899 : 0 : qs->max_index = rte_cpu_to_be_32(wci);
900 [ # # # # : 0 : qs->qpn_cqn = rte_cpu_to_be_32(txq->sh->txpp.clock_queue.cq_obj.cq->id);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
901 : 0 : qs->reserved0 = RTE_BE32(0);
902 : 0 : qs->reserved1 = RTE_BE32(0);
903 : 0 : }
904 : :
905 : : /**
906 : : * Build the Wait on Time Segment with specified timestamp value.
907 : : *
908 : : * @param txq
909 : : * Pointer to TX queue structure.
910 : : * @param loc
911 : : * Pointer to burst routine local context.
912 : : * @param wqe
913 : : * Pointer to WQE to fill with built Control Segment.
914 : : * @param ts
915 : : * Timesatmp value to wait.
916 : : * @param olx
917 : : * Configured Tx offloads mask. It is fully defined at
918 : : * compile time and may be used for optimization.
919 : : */
920 : : static __rte_always_inline void
921 : : mlx5_tx_wseg_init(struct mlx5_txq_data *restrict txq,
922 : : struct mlx5_txq_local *restrict loc __rte_unused,
923 : : struct mlx5_wqe *restrict wqe,
924 : : uint64_t ts,
925 : : unsigned int olx __rte_unused)
926 : : {
927 : : struct mlx5_wqe_wseg *ws;
928 : :
929 : 0 : ws = RTE_PTR_ADD(wqe, MLX5_WSEG_SIZE);
930 : 0 : ws->operation = rte_cpu_to_be_32(MLX5_WAIT_COND_CYCLIC_SMALLER);
931 : 0 : ws->lkey = RTE_BE32(0);
932 : 0 : ws->va_high = RTE_BE32(0);
933 : 0 : ws->va_low = RTE_BE32(0);
934 [ # # # # : 0 : if (txq->rt_timestamp) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
935 : 0 : ts = ts % (uint64_t)NS_PER_S
936 : 0 : | (ts / (uint64_t)NS_PER_S) << 32;
937 : : }
938 [ # # # # : 0 : ws->value = rte_cpu_to_be_64(ts);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
939 : 0 : ws->mask = txq->rt_timemask;
940 : 0 : }
941 : :
942 : : /**
943 : : * Build the Ethernet Segment without inlined data.
944 : : * Supports Software Parser, Checksums and VLAN insertion Tx offload features.
945 : : *
946 : : * @param txq
947 : : * Pointer to TX queue structure.
948 : : * @param loc
949 : : * Pointer to burst routine local context.
950 : : * @param wqe
951 : : * Pointer to WQE to fill with built Ethernet Segment.
952 : : * @param olx
953 : : * Configured Tx offloads mask. It is fully defined at
954 : : * compile time and may be used for optimization.
955 : : */
956 : : static __rte_always_inline void
957 : : mlx5_tx_eseg_none(struct mlx5_txq_data *__rte_restrict txq __rte_unused,
958 : : struct mlx5_txq_local *__rte_restrict loc,
959 : : struct mlx5_wqe *__rte_restrict wqe,
960 : : unsigned int olx)
961 : : {
962 : : struct mlx5_wqe_eseg *__rte_restrict es = &wqe->eseg;
963 : : uint32_t csum;
964 : :
965 : : /*
966 : : * Calculate and set check sum flags first, dword field
967 : : * in segment may be shared with Software Parser flags.
968 : : */
969 : 0 : csum = MLX5_TXOFF_CONFIG(CSUM) ? txq_ol_cksum_to_cs(loc->mbuf) : 0;
970 [ # # # # : 0 : es->flags = rte_cpu_to_le_32(csum);
# # # # #
# # # # #
# # # # #
# # # ]
971 : : /*
972 : : * Calculate and set Software Parser offsets and flags.
973 : : * These flags a set for custom UDP and IP tunnel packets.
974 : : */
975 : 0 : es->swp_offs = txq_mbuf_to_swp(loc, &es->swp_flags, olx);
976 : : /* Fill metadata field if needed. */
977 : 0 : es->metadata = MLX5_TXOFF_CONFIG(METADATA) ?
978 : 0 : loc->mbuf->ol_flags & RTE_MBUF_DYNFLAG_TX_METADATA ?
979 [ # # # # : 0 : rte_cpu_to_be_32(*RTE_FLOW_DYNF_METADATA(loc->mbuf)) :
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # ]
980 : : 0 : 0;
981 : : /* Engage VLAN tag insertion feature if requested. */
982 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(VLAN) &&
# # # # ]
983 [ # # # # : 0 : loc->mbuf->ol_flags & RTE_MBUF_F_TX_VLAN) {
# # # # #
# # # # #
# # ]
984 : : /*
985 : : * We should get here only if device support
986 : : * this feature correctly.
987 : : */
988 : : MLX5_ASSERT(txq->vlan_en);
989 [ # # # # : 0 : es->inline_hdr = rte_cpu_to_be_32(MLX5_ETH_WQE_VLAN_INSERT |
# # # # #
# # # # #
# # # # #
# ]
990 : : loc->mbuf->vlan_tci);
991 : : } else {
992 : 0 : es->inline_hdr = RTE_BE32(0);
993 : : }
994 : : }
995 : :
996 : : /**
997 : : * Build the Ethernet Segment with minimal inlined data
998 : : * of MLX5_ESEG_MIN_INLINE_SIZE bytes length. This is
999 : : * used to fill the gap in single WQEBB WQEs.
1000 : : * Supports Software Parser, Checksums and VLAN
1001 : : * insertion Tx offload features.
1002 : : *
1003 : : * @param txq
1004 : : * Pointer to TX queue structure.
1005 : : * @param loc
1006 : : * Pointer to burst routine local context.
1007 : : * @param wqe
1008 : : * Pointer to WQE to fill with built Ethernet Segment.
1009 : : * @param vlan
1010 : : * Length of VLAN tag insertion if any.
1011 : : * @param olx
1012 : : * Configured Tx offloads mask. It is fully defined at
1013 : : * compile time and may be used for optimization.
1014 : : */
1015 : : static __rte_always_inline void
1016 : : mlx5_tx_eseg_dmin(struct mlx5_txq_data *__rte_restrict txq __rte_unused,
1017 : : struct mlx5_txq_local *__rte_restrict loc,
1018 : : struct mlx5_wqe *__rte_restrict wqe,
1019 : : unsigned int vlan,
1020 : : unsigned int olx)
1021 : : {
1022 : : struct mlx5_wqe_eseg *__rte_restrict es = &wqe->eseg;
1023 : : uint32_t csum;
1024 : : uint8_t *psrc, *pdst;
1025 : :
1026 : : /*
1027 : : * Calculate and set check sum flags first, dword field
1028 : : * in segment may be shared with Software Parser flags.
1029 : : */
1030 : 0 : csum = MLX5_TXOFF_CONFIG(CSUM) ? txq_ol_cksum_to_cs(loc->mbuf) : 0;
1031 [ # # # # : 0 : es->flags = rte_cpu_to_le_32(csum);
# # ]
1032 : : /*
1033 : : * Calculate and set Software Parser offsets and flags.
1034 : : * These flags a set for custom UDP and IP tunnel packets.
1035 : : */
1036 : 0 : es->swp_offs = txq_mbuf_to_swp(loc, &es->swp_flags, olx);
1037 : : /* Fill metadata field if needed. */
1038 : 0 : es->metadata = MLX5_TXOFF_CONFIG(METADATA) ?
1039 : 0 : loc->mbuf->ol_flags & RTE_MBUF_DYNFLAG_TX_METADATA ?
1040 [ # # # # : 0 : rte_cpu_to_be_32(*RTE_FLOW_DYNF_METADATA(loc->mbuf)) :
# # # # #
# # # # #
# # # # #
# # # # #
# # # # ]
1041 : : 0 : 0;
1042 : 0 : psrc = rte_pktmbuf_mtod(loc->mbuf, uint8_t *);
1043 : 0 : es->inline_hdr_sz = RTE_BE16(MLX5_ESEG_MIN_INLINE_SIZE);
1044 [ # # # # : 0 : es->inline_data = *(unaligned_uint16_t *)psrc;
# # ]
1045 : 0 : psrc += sizeof(uint16_t);
1046 : 0 : pdst = (uint8_t *)(es + 1);
1047 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(VLAN) && vlan) {
# # # # ]
1048 : : /* Implement VLAN tag insertion as part inline data. */
1049 : : memcpy(pdst, psrc, 2 * RTE_ETHER_ADDR_LEN - sizeof(uint16_t));
1050 : : pdst += 2 * RTE_ETHER_ADDR_LEN - sizeof(uint16_t);
1051 : : psrc += 2 * RTE_ETHER_ADDR_LEN - sizeof(uint16_t);
1052 : : /* Insert VLAN ethertype + VLAN tag. */
1053 [ # # # # : 0 : *(unaligned_uint32_t *)pdst = rte_cpu_to_be_32
# # # # ]
1054 : : ((RTE_ETHER_TYPE_VLAN << 16) |
1055 : : loc->mbuf->vlan_tci);
1056 : : pdst += sizeof(struct rte_vlan_hdr);
1057 : : /* Copy the rest two bytes from packet data. */
1058 : : MLX5_ASSERT(pdst == RTE_PTR_ALIGN(pdst, sizeof(uint16_t)));
1059 : 0 : *(uint16_t *)pdst = *(unaligned_uint16_t *)psrc;
1060 : : } else {
1061 : : /* Fill the gap in the title WQEBB with inline data. */
1062 : : rte_mov16(pdst, psrc);
1063 : : }
1064 : : }
1065 : :
1066 : : /**
1067 : : * Build the Ethernet Segment with entire packet data inlining. Checks the
1068 : : * boundary of WQEBB and ring buffer wrapping, supports Software Parser,
1069 : : * Checksums and VLAN insertion Tx offload features.
1070 : : *
1071 : : * @param txq
1072 : : * Pointer to TX queue structure.
1073 : : * @param loc
1074 : : * Pointer to burst routine local context.
1075 : : * @param wqe
1076 : : * Pointer to WQE to fill with built Ethernet Segment.
1077 : : * @param vlan
1078 : : * Length of VLAN tag insertion if any.
1079 : : * @param inlen
1080 : : * Length of data to inline (VLAN included, if any).
1081 : : * @param tso
1082 : : * TSO flag, set mss field from the packet.
1083 : : * @param olx
1084 : : * Configured Tx offloads mask. It is fully defined at
1085 : : * compile time and may be used for optimization.
1086 : : *
1087 : : * @return
1088 : : * Pointer to the next Data Segment (aligned and wrapped around).
1089 : : */
1090 : : static __rte_always_inline struct mlx5_wqe_dseg *
1091 : : mlx5_tx_eseg_data(struct mlx5_txq_data *__rte_restrict txq,
1092 : : struct mlx5_txq_local *__rte_restrict loc,
1093 : : struct mlx5_wqe *__rte_restrict wqe,
1094 : : unsigned int vlan,
1095 : : unsigned int inlen,
1096 : : unsigned int tso,
1097 : : unsigned int olx)
1098 : : {
1099 : : struct mlx5_wqe_eseg *__rte_restrict es = &wqe->eseg;
1100 : : uint32_t csum;
1101 : : uint8_t *psrc, *pdst;
1102 : : unsigned int part;
1103 : :
1104 : : /*
1105 : : * Calculate and set check sum flags first, dword field
1106 : : * in segment may be shared with Software Parser flags.
1107 : : */
1108 : 0 : csum = MLX5_TXOFF_CONFIG(CSUM) ? txq_ol_cksum_to_cs(loc->mbuf) : 0;
1109 : : if (tso) {
1110 : 0 : csum <<= 24;
1111 : 0 : csum |= loc->mbuf->tso_segsz;
1112 [ # # # # : 0 : es->flags = rte_cpu_to_be_32(csum);
# # # # #
# # # # #
# # # # #
# ]
1113 : : } else {
1114 [ # # # # : 0 : es->flags = rte_cpu_to_le_32(csum);
# # # # #
# # # ]
1115 : : }
1116 : : /*
1117 : : * Calculate and set Software Parser offsets and flags.
1118 : : * These flags a set for custom UDP and IP tunnel packets.
1119 : : */
1120 : 0 : es->swp_offs = txq_mbuf_to_swp(loc, &es->swp_flags, olx);
1121 : : /* Fill metadata field if needed. */
1122 : 0 : es->metadata = MLX5_TXOFF_CONFIG(METADATA) ?
1123 : 0 : loc->mbuf->ol_flags & RTE_MBUF_DYNFLAG_TX_METADATA ?
1124 [ # # # # : 0 : rte_cpu_to_be_32(*RTE_FLOW_DYNF_METADATA(loc->mbuf)) :
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # ]
1125 : : 0 : 0;
1126 : 0 : psrc = rte_pktmbuf_mtod(loc->mbuf, uint8_t *);
1127 [ # # # # : 0 : es->inline_hdr_sz = rte_cpu_to_be_16(inlen);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1128 [ # # # # : 0 : es->inline_data = *(unaligned_uint16_t *)psrc;
# # # # #
# # # ]
1129 : 0 : psrc += sizeof(uint16_t);
1130 : 0 : pdst = (uint8_t *)(es + 1);
1131 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(VLAN) && vlan) {
# # # # #
# # # # #
# # # # #
# # # ]
1132 : : /* Implement VLAN tag insertion as part inline data. */
1133 : : memcpy(pdst, psrc, 2 * RTE_ETHER_ADDR_LEN - sizeof(uint16_t));
1134 : : pdst += 2 * RTE_ETHER_ADDR_LEN - sizeof(uint16_t);
1135 : : psrc += 2 * RTE_ETHER_ADDR_LEN - sizeof(uint16_t);
1136 : : /* Insert VLAN ethertype + VLAN tag. */
1137 [ # # # # : 0 : *(unaligned_uint32_t *)pdst = rte_cpu_to_be_32
# # # # #
# # # # #
# # # # #
# # # ]
1138 : : ((RTE_ETHER_TYPE_VLAN << 16) |
1139 : : loc->mbuf->vlan_tci);
1140 : : pdst += sizeof(struct rte_vlan_hdr);
1141 : : /* Copy the rest two bytes from packet data. */
1142 : : MLX5_ASSERT(pdst == RTE_PTR_ALIGN(pdst, sizeof(uint16_t)));
1143 : 0 : *(uint16_t *)pdst = *(unaligned_uint16_t *)psrc;
1144 : 0 : psrc += sizeof(uint16_t);
1145 : : } else {
1146 : : /* Fill the gap in the title WQEBB with inline data. */
1147 : : rte_mov16(pdst, psrc);
1148 : 0 : psrc += sizeof(rte_v128u32_t);
1149 : : }
1150 : 0 : pdst = (uint8_t *)(es + 2);
1151 : : MLX5_ASSERT(inlen >= MLX5_ESEG_MIN_INLINE_SIZE);
1152 : : MLX5_ASSERT(pdst < (uint8_t *)txq->wqes_end);
1153 : 0 : inlen -= MLX5_ESEG_MIN_INLINE_SIZE;
1154 [ # # # # : 0 : if (!inlen) {
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1155 : : MLX5_ASSERT(pdst == RTE_PTR_ALIGN(pdst, MLX5_WSEG_SIZE));
1156 : : return (struct mlx5_wqe_dseg *)pdst;
1157 : : }
1158 : : /*
1159 : : * The WQEBB space availability is checked by caller.
1160 : : * Here we should be aware of WQE ring buffer wraparound only.
1161 : : */
1162 : 0 : part = (uint8_t *)txq->wqes_end - pdst;
1163 : 0 : part = RTE_MIN(part, inlen);
1164 : : do {
1165 [ # # # # : 0 : rte_memcpy(pdst, psrc, part);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1166 : 0 : inlen -= part;
1167 [ # # # # : 0 : if (likely(!inlen)) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1168 : : /*
1169 : : * If return value is not used by the caller
1170 : : * the code below will be optimized out.
1171 : : */
1172 : 0 : pdst += part;
1173 : 0 : pdst = RTE_PTR_ALIGN(pdst, MLX5_WSEG_SIZE);
1174 [ # # # # : 0 : if (unlikely(pdst >= (uint8_t *)txq->wqes_end))
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1175 : 0 : pdst = (uint8_t *)txq->wqes;
1176 : : return (struct mlx5_wqe_dseg *)pdst;
1177 : : }
1178 : 0 : pdst = (uint8_t *)txq->wqes;
1179 : 0 : psrc += part;
1180 : : part = inlen;
1181 : : } while (true);
1182 : : }
1183 : :
1184 : : /**
1185 : : * Copy data from chain of mbuf to the specified linear buffer.
1186 : : * Checksums and VLAN insertion Tx offload features. If data
1187 : : * from some mbuf copied completely this mbuf is freed. Local
1188 : : * structure is used to keep the byte stream state.
1189 : : *
1190 : : * @param pdst
1191 : : * Pointer to the destination linear buffer.
1192 : : * @param loc
1193 : : * Pointer to burst routine local context.
1194 : : * @param len
1195 : : * Length of data to be copied.
1196 : : * @param must
1197 : : * Length of data to be copied ignoring no inline hint.
1198 : : * @param olx
1199 : : * Configured Tx offloads mask. It is fully defined at
1200 : : * compile time and may be used for optimization.
1201 : : *
1202 : : * @return
1203 : : * Number of actual copied data bytes. This is always greater than or
1204 : : * equal to must parameter and might be lesser than len in no inline
1205 : : * hint flag is encountered.
1206 : : */
1207 : : static __rte_always_inline unsigned int
1208 : : mlx5_tx_mseg_memcpy(uint8_t *pdst,
1209 : : struct mlx5_txq_local *__rte_restrict loc,
1210 : : unsigned int len,
1211 : : unsigned int must,
1212 : : unsigned int olx __rte_unused)
1213 : : {
1214 : : struct rte_mbuf *mbuf;
1215 : : unsigned int part, dlen, copy = 0;
1216 : : uint8_t *psrc;
1217 : :
1218 : : MLX5_ASSERT(len);
1219 : : do {
1220 : : /* Allow zero length packets, must check first. */
1221 : 0 : dlen = rte_pktmbuf_data_len(loc->mbuf);
1222 [ # # # # : 0 : if (dlen <= loc->mbuf_off) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1223 : : /* Exhausted packet, just free. */
1224 : : mbuf = loc->mbuf;
1225 : 0 : loc->mbuf = mbuf->next;
1226 : : rte_pktmbuf_free_seg(mbuf);
1227 : : loc->mbuf_off = 0;
1228 : : MLX5_ASSERT(loc->mbuf_nseg > 1);
1229 : : MLX5_ASSERT(loc->mbuf);
1230 : 0 : --loc->mbuf_nseg;
1231 [ # # # # : 0 : if (loc->mbuf->ol_flags & RTE_MBUF_F_TX_DYNF_NOINLINE) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1232 : : unsigned int diff;
1233 : :
1234 [ # # # # : 0 : if (copy >= must) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1235 : : /*
1236 : : * We already copied the minimal
1237 : : * requested amount of data.
1238 : : */
1239 : : return copy;
1240 : : }
1241 : 0 : diff = must - copy;
1242 [ # # # # : 0 : if (diff <= rte_pktmbuf_data_len(loc->mbuf)) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1243 : : /*
1244 : : * Copy only the minimal required
1245 : : * part of the data buffer. Limit amount
1246 : : * of data to be copied to the length of
1247 : : * available space.
1248 : : */
1249 : 0 : len = RTE_MIN(len, diff);
1250 : : }
1251 : : }
1252 : 0 : continue;
1253 : : }
1254 : 0 : dlen -= loc->mbuf_off;
1255 : 0 : psrc = rte_pktmbuf_mtod_offset(loc->mbuf, uint8_t *,
1256 : : loc->mbuf_off);
1257 : 0 : part = RTE_MIN(len, dlen);
1258 [ # # # # : 0 : rte_memcpy(pdst, psrc, part);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1259 : 0 : copy += part;
1260 : 0 : loc->mbuf_off += part;
1261 : 0 : len -= part;
1262 [ # # # # : 0 : if (!len) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1263 [ # # # # : 0 : if (loc->mbuf_off >= rte_pktmbuf_data_len(loc->mbuf)) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1264 : : loc->mbuf_off = 0;
1265 : : /* Exhausted packet, just free. */
1266 : : mbuf = loc->mbuf;
1267 : 0 : loc->mbuf = mbuf->next;
1268 : : rte_pktmbuf_free_seg(mbuf);
1269 : : loc->mbuf_off = 0;
1270 : : MLX5_ASSERT(loc->mbuf_nseg >= 1);
1271 : 0 : --loc->mbuf_nseg;
1272 : : }
1273 : : return copy;
1274 : : }
1275 : 0 : pdst += part;
1276 : : } while (true);
1277 : : }
1278 : :
1279 : : /**
1280 : : * Build the Ethernet Segment with inlined data from multi-segment packet.
1281 : : * Checks the boundary of WQEBB and ring buffer wrapping, supports Software
1282 : : * Parser, Checksums and VLAN insertion Tx offload features.
1283 : : *
1284 : : * @param txq
1285 : : * Pointer to TX queue structure.
1286 : : * @param loc
1287 : : * Pointer to burst routine local context.
1288 : : * @param wqe
1289 : : * Pointer to WQE to fill with built Ethernet Segment.
1290 : : * @param vlan
1291 : : * Length of VLAN tag insertion if any.
1292 : : * @param inlen
1293 : : * Length of data to inline (VLAN included, if any).
1294 : : * @param tso
1295 : : * TSO flag, set mss field from the packet.
1296 : : * @param olx
1297 : : * Configured Tx offloads mask. It is fully defined at
1298 : : * compile time and may be used for optimization.
1299 : : *
1300 : : * @return
1301 : : * Pointer to the next Data Segment (aligned and possible NOT wrapped
1302 : : * around - caller should do wrapping check on its own).
1303 : : */
1304 : : static __rte_always_inline struct mlx5_wqe_dseg *
1305 : : mlx5_tx_eseg_mdat(struct mlx5_txq_data *__rte_restrict txq,
1306 : : struct mlx5_txq_local *__rte_restrict loc,
1307 : : struct mlx5_wqe *__rte_restrict wqe,
1308 : : unsigned int vlan,
1309 : : unsigned int inlen,
1310 : : unsigned int tso,
1311 : : unsigned int olx)
1312 : : {
1313 : : struct mlx5_wqe_eseg *__rte_restrict es = &wqe->eseg;
1314 : : uint32_t csum;
1315 : : uint8_t *pdst;
1316 : : unsigned int part, tlen = 0;
1317 : :
1318 : : /*
1319 : : * Calculate and set check sum flags first, uint32_t field
1320 : : * in segment may be shared with Software Parser flags.
1321 : : */
1322 : 0 : csum = MLX5_TXOFF_CONFIG(CSUM) ? txq_ol_cksum_to_cs(loc->mbuf) : 0;
1323 : : if (tso) {
1324 : 0 : csum <<= 24;
1325 : 0 : csum |= loc->mbuf->tso_segsz;
1326 [ # # # # : 0 : es->flags = rte_cpu_to_be_32(csum);
# # # # #
# # # # #
# # # # #
# ]
1327 : : } else {
1328 [ # # # # ]: 0 : es->flags = rte_cpu_to_le_32(csum);
1329 : : }
1330 : : /*
1331 : : * Calculate and set Software Parser offsets and flags.
1332 : : * These flags a set for custom UDP and IP tunnel packets.
1333 : : */
1334 : 0 : es->swp_offs = txq_mbuf_to_swp(loc, &es->swp_flags, olx);
1335 : : /* Fill metadata field if needed. */
1336 : 0 : es->metadata = MLX5_TXOFF_CONFIG(METADATA) ?
1337 : 0 : loc->mbuf->ol_flags & RTE_MBUF_DYNFLAG_TX_METADATA ?
1338 [ # # # # : 0 : rte_cpu_to_be_32(*RTE_FLOW_DYNF_METADATA(loc->mbuf)) :
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1339 : : 0 : 0;
1340 : : MLX5_ASSERT(inlen >= MLX5_ESEG_MIN_INLINE_SIZE);
1341 : 0 : pdst = (uint8_t *)&es->inline_data;
1342 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(VLAN) && vlan) {
# # # # #
# # # # #
# # ]
1343 : : /* Implement VLAN tag insertion as part inline data. */
1344 : : mlx5_tx_mseg_memcpy(pdst, loc,
1345 : : 2 * RTE_ETHER_ADDR_LEN,
1346 : : 2 * RTE_ETHER_ADDR_LEN, olx);
1347 : : pdst += 2 * RTE_ETHER_ADDR_LEN;
1348 [ # # # # : 0 : *(unaligned_uint32_t *)pdst = rte_cpu_to_be_32
# # # # #
# # # # #
# # ]
1349 : : ((RTE_ETHER_TYPE_VLAN << 16) |
1350 : : loc->mbuf->vlan_tci);
1351 : 0 : pdst += sizeof(struct rte_vlan_hdr);
1352 : : tlen += 2 * RTE_ETHER_ADDR_LEN + sizeof(struct rte_vlan_hdr);
1353 : : }
1354 : : MLX5_ASSERT(pdst < (uint8_t *)txq->wqes_end);
1355 : : /*
1356 : : * The WQEBB space availability is checked by caller.
1357 : : * Here we should be aware of WQE ring buffer wraparound only.
1358 : : */
1359 : 0 : part = (uint8_t *)txq->wqes_end - pdst;
1360 : 0 : part = RTE_MIN(part, inlen - tlen);
1361 : : MLX5_ASSERT(part);
1362 : 0 : do {
1363 : : unsigned int copy;
1364 : :
1365 : : /*
1366 : : * Copying may be interrupted inside the routine
1367 : : * if run into no inline hint flag.
1368 : : */
1369 : 0 : copy = tso ? inlen : txq->inlen_mode;
1370 [ # # # # : 0 : copy = tlen >= copy ? 0 : (copy - tlen);
# # # # #
# # # # #
# # # # #
# ]
1371 : : copy = mlx5_tx_mseg_memcpy(pdst, loc, part, copy, olx);
1372 : 0 : tlen += copy;
1373 [ # # # # : 0 : if (likely(inlen <= tlen) || copy < part) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1374 [ # # # # : 0 : es->inline_hdr_sz = rte_cpu_to_be_16(tlen);
# # # # #
# # # # #
# # # # #
# ]
1375 : 0 : pdst += copy;
1376 : 0 : pdst = RTE_PTR_ALIGN(pdst, MLX5_WSEG_SIZE);
1377 : : return (struct mlx5_wqe_dseg *)pdst;
1378 : : }
1379 : 0 : pdst = (uint8_t *)txq->wqes;
1380 : 0 : part = inlen - tlen;
1381 : : } while (true);
1382 : : }
1383 : :
1384 : : /**
1385 : : * Build the Data Segment of pointer type.
1386 : : *
1387 : : * @param txq
1388 : : * Pointer to TX queue structure.
1389 : : * @param loc
1390 : : * Pointer to burst routine local context.
1391 : : * @param dseg
1392 : : * Pointer to WQE to fill with built Data Segment.
1393 : : * @param buf
1394 : : * Data buffer to point.
1395 : : * @param len
1396 : : * Data buffer length.
1397 : : * @param olx
1398 : : * Configured Tx offloads mask. It is fully defined at
1399 : : * compile time and may be used for optimization.
1400 : : */
1401 : : static __rte_always_inline void
1402 : : mlx5_tx_dseg_ptr(struct mlx5_txq_data *__rte_restrict txq,
1403 : : struct mlx5_txq_local *__rte_restrict loc,
1404 : : struct mlx5_wqe_dseg *__rte_restrict dseg,
1405 : : uint8_t *buf,
1406 : : unsigned int len,
1407 : : unsigned int olx __rte_unused)
1408 : :
1409 : : {
1410 : : MLX5_ASSERT(len);
1411 [ # # # # : 0 : dseg->bcount = rte_cpu_to_be_32(len);
# # # # ]
1412 [ # # # # : 0 : dseg->lkey = mlx5_mr_mb2mr(&txq->mr_ctrl, loc->mbuf);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # ]
1413 : 0 : dseg->pbuf = rte_cpu_to_be_64((uintptr_t)buf);
1414 : : }
1415 : :
1416 : : /**
1417 : : * Build the Data Segment of pointer type or inline if data length is less than
1418 : : * buffer in minimal Data Segment size.
1419 : : *
1420 : : * @param txq
1421 : : * Pointer to TX queue structure.
1422 : : * @param loc
1423 : : * Pointer to burst routine local context.
1424 : : * @param dseg
1425 : : * Pointer to WQE to fill with built Data Segment.
1426 : : * @param buf
1427 : : * Data buffer to point.
1428 : : * @param len
1429 : : * Data buffer length.
1430 : : * @param olx
1431 : : * Configured Tx offloads mask. It is fully defined at
1432 : : * compile time and may be used for optimization.
1433 : : */
1434 : : static __rte_always_inline void
1435 : : mlx5_tx_dseg_iptr(struct mlx5_txq_data *__rte_restrict txq,
1436 : : struct mlx5_txq_local *__rte_restrict loc,
1437 : : struct mlx5_wqe_dseg *__rte_restrict dseg,
1438 : : uint8_t *buf,
1439 : : unsigned int len,
1440 : : unsigned int olx __rte_unused)
1441 : :
1442 : : {
1443 : : uintptr_t dst, src;
1444 : :
1445 : : MLX5_ASSERT(len);
1446 [ # # # # : 0 : if (len > MLX5_DSEG_MIN_INLINE_SIZE) {
# # # # #
# # # # #
# # # # #
# ]
1447 [ # # # # : 0 : dseg->bcount = rte_cpu_to_be_32(len);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1448 [ # # # # : 0 : dseg->lkey = mlx5_mr_mb2mr(&txq->mr_ctrl, loc->mbuf);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1449 : 0 : dseg->pbuf = rte_cpu_to_be_64((uintptr_t)buf);
1450 : :
1451 : 0 : return;
1452 : : }
1453 [ # # # # : 0 : dseg->bcount = rte_cpu_to_be_32(len | MLX5_ETH_WQE_DATA_INLINE);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1454 : : /* Unrolled implementation of generic rte_memcpy. */
1455 : 0 : dst = (uintptr_t)&dseg->inline_data[0];
1456 : 0 : src = (uintptr_t)buf;
1457 [ # # # # : 0 : if (len & 0x08) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1458 : : #ifdef RTE_ARCH_STRICT_ALIGN
1459 : : MLX5_ASSERT(dst == RTE_PTR_ALIGN(dst, sizeof(uint32_t)));
1460 : : *(uint32_t *)dst = *(unaligned_uint32_t *)src;
1461 : : dst += sizeof(uint32_t);
1462 : : src += sizeof(uint32_t);
1463 : : *(uint32_t *)dst = *(unaligned_uint32_t *)src;
1464 : : dst += sizeof(uint32_t);
1465 : : src += sizeof(uint32_t);
1466 : : #else
1467 : 0 : *(uint64_t *)dst = *(unaligned_uint64_t *)src;
1468 : 0 : dst += sizeof(uint64_t);
1469 : 0 : src += sizeof(uint64_t);
1470 : : #endif
1471 : : }
1472 [ # # # # : 0 : if (len & 0x04) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1473 : 0 : *(uint32_t *)dst = *(unaligned_uint32_t *)src;
1474 : 0 : dst += sizeof(uint32_t);
1475 : 0 : src += sizeof(uint32_t);
1476 : : }
1477 [ # # # # : 0 : if (len & 0x02) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1478 : 0 : *(uint16_t *)dst = *(unaligned_uint16_t *)src;
1479 : 0 : dst += sizeof(uint16_t);
1480 : 0 : src += sizeof(uint16_t);
1481 : : }
1482 [ # # # # : 0 : if (len & 0x01)
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1483 : 0 : *(uint8_t *)dst = *(uint8_t *)src;
1484 : : }
1485 : :
1486 : : /**
1487 : : * Build the Data Segment of inlined data from single
1488 : : * segment packet, no VLAN insertion.
1489 : : *
1490 : : * @param txq
1491 : : * Pointer to TX queue structure.
1492 : : * @param loc
1493 : : * Pointer to burst routine local context.
1494 : : * @param dseg
1495 : : * Pointer to WQE to fill with built Data Segment.
1496 : : * @param buf
1497 : : * Data buffer to point.
1498 : : * @param len
1499 : : * Data buffer length.
1500 : : * @param olx
1501 : : * Configured Tx offloads mask. It is fully defined at
1502 : : * compile time and may be used for optimization.
1503 : : *
1504 : : * @return
1505 : : * Pointer to the next Data Segment after inlined data.
1506 : : * Ring buffer wraparound check is needed. We do not do it here because it
1507 : : * may not be needed for the last packet in the eMPW session.
1508 : : */
1509 : : static __rte_always_inline struct mlx5_wqe_dseg *
1510 : : mlx5_tx_dseg_empw(struct mlx5_txq_data *__rte_restrict txq,
1511 : : struct mlx5_txq_local *__rte_restrict loc __rte_unused,
1512 : : struct mlx5_wqe_dseg *__rte_restrict dseg,
1513 : : uint8_t *buf,
1514 : : unsigned int len,
1515 : : unsigned int olx __rte_unused)
1516 : : {
1517 : : unsigned int part;
1518 : : uint8_t *pdst;
1519 : :
1520 : : if (!MLX5_TXOFF_CONFIG(MPW)) {
1521 : : /* Store the descriptor byte counter for eMPW sessions. */
1522 [ # # # # : 0 : dseg->bcount = rte_cpu_to_be_32(len | MLX5_ETH_WQE_DATA_INLINE);
# # # # #
# # # #
# ]
1523 : 0 : pdst = &dseg->inline_data[0];
1524 : : } else {
1525 : : /* The entire legacy MPW session counter is stored on close. */
1526 : : pdst = (uint8_t *)dseg;
1527 : : }
1528 : : /*
1529 : : * The WQEBB space availability is checked by caller.
1530 : : * Here we should be aware of WQE ring buffer wraparound only.
1531 : : */
1532 : 0 : part = (uint8_t *)txq->wqes_end - pdst;
1533 : 0 : part = RTE_MIN(part, len);
1534 : : do {
1535 [ # # # # : 0 : rte_memcpy(pdst, buf, part);
# # # # #
# # # #
# ]
1536 : 0 : len -= part;
1537 [ # # # # : 0 : if (likely(!len)) {
# # # # #
# # # #
# ]
1538 : 0 : pdst += part;
1539 : : if (!MLX5_TXOFF_CONFIG(MPW))
1540 : 0 : pdst = RTE_PTR_ALIGN(pdst, MLX5_WSEG_SIZE);
1541 : : /* Note: no final wraparound check here. */
1542 : : return (struct mlx5_wqe_dseg *)pdst;
1543 : : }
1544 : 0 : pdst = (uint8_t *)txq->wqes;
1545 : 0 : buf += part;
1546 : : part = len;
1547 : : } while (true);
1548 : : }
1549 : :
1550 : : /**
1551 : : * Build the Data Segment of inlined data from single
1552 : : * segment packet with VLAN insertion.
1553 : : *
1554 : : * @param txq
1555 : : * Pointer to TX queue structure.
1556 : : * @param loc
1557 : : * Pointer to burst routine local context.
1558 : : * @param dseg
1559 : : * Pointer to the dseg fill with built Data Segment.
1560 : : * @param buf
1561 : : * Data buffer to point.
1562 : : * @param len
1563 : : * Data buffer length.
1564 : : * @param olx
1565 : : * Configured Tx offloads mask. It is fully defined at
1566 : : * compile time and may be used for optimization.
1567 : : *
1568 : : * @return
1569 : : * Pointer to the next Data Segment after inlined data.
1570 : : * Ring buffer wraparound check is needed.
1571 : : */
1572 : : static __rte_always_inline struct mlx5_wqe_dseg *
1573 : : mlx5_tx_dseg_vlan(struct mlx5_txq_data *__rte_restrict txq,
1574 : : struct mlx5_txq_local *__rte_restrict loc __rte_unused,
1575 : : struct mlx5_wqe_dseg *__rte_restrict dseg,
1576 : : uint8_t *buf,
1577 : : unsigned int len,
1578 : : unsigned int olx __rte_unused)
1579 : :
1580 : : {
1581 : : unsigned int part;
1582 : : uint8_t *pdst;
1583 : :
1584 : : MLX5_ASSERT(len > MLX5_ESEG_MIN_INLINE_SIZE);
1585 : : if (!MLX5_TXOFF_CONFIG(MPW)) {
1586 : : /* Store the descriptor byte counter for eMPW sessions. */
1587 [ # # # # : 0 : dseg->bcount = rte_cpu_to_be_32
# # # # ]
1588 : : ((len + sizeof(struct rte_vlan_hdr)) |
1589 : : MLX5_ETH_WQE_DATA_INLINE);
1590 [ # # # # : 0 : pdst = &dseg->inline_data[0];
# # # # ]
1591 : : } else {
1592 : : /* The entire legacy MPW session counter is stored on close. */
1593 : : pdst = (uint8_t *)dseg;
1594 : : }
1595 : : memcpy(pdst, buf, MLX5_DSEG_MIN_INLINE_SIZE);
1596 : 0 : buf += MLX5_DSEG_MIN_INLINE_SIZE;
1597 : 0 : pdst += MLX5_DSEG_MIN_INLINE_SIZE;
1598 : 0 : len -= MLX5_DSEG_MIN_INLINE_SIZE;
1599 : : /* Insert VLAN ethertype + VLAN tag. Pointer is aligned. */
1600 : : MLX5_ASSERT(pdst == RTE_PTR_ALIGN(pdst, MLX5_WSEG_SIZE));
1601 [ # # # # : 0 : if (unlikely(pdst >= (uint8_t *)txq->wqes_end))
# # # # ]
1602 : 0 : pdst = (uint8_t *)txq->wqes;
1603 [ # # # # : 0 : *(uint32_t *)pdst = rte_cpu_to_be_32((RTE_ETHER_TYPE_VLAN << 16) |
# # # # ]
1604 : : loc->mbuf->vlan_tci);
1605 : 0 : pdst += sizeof(struct rte_vlan_hdr);
1606 : : /*
1607 : : * The WQEBB space availability is checked by caller.
1608 : : * Here we should be aware of WQE ring buffer wraparound only.
1609 : : */
1610 : 0 : part = (uint8_t *)txq->wqes_end - pdst;
1611 : 0 : part = RTE_MIN(part, len);
1612 : : do {
1613 [ # # # # : 0 : rte_memcpy(pdst, buf, part);
# # # # ]
1614 : 0 : len -= part;
1615 [ # # # # : 0 : if (likely(!len)) {
# # # # ]
1616 : 0 : pdst += part;
1617 : : if (!MLX5_TXOFF_CONFIG(MPW))
1618 : 0 : pdst = RTE_PTR_ALIGN(pdst, MLX5_WSEG_SIZE);
1619 : : /* Note: no final wraparound check here. */
1620 : : return (struct mlx5_wqe_dseg *)pdst;
1621 : : }
1622 : 0 : pdst = (uint8_t *)txq->wqes;
1623 : 0 : buf += part;
1624 : : part = len;
1625 : : } while (true);
1626 : : }
1627 : :
1628 : : /**
1629 : : * Build the Ethernet Segment with optionally inlined data with
1630 : : * VLAN insertion and following Data Segments (if any) from
1631 : : * multi-segment packet. Used by ordinary send and TSO.
1632 : : *
1633 : : * @param txq
1634 : : * Pointer to TX queue structure.
1635 : : * @param loc
1636 : : * Pointer to burst routine local context.
1637 : : * @param wqe
1638 : : * Pointer to WQE to fill with built Ethernet/Data Segments.
1639 : : * @param vlan
1640 : : * Length of VLAN header to insert, 0 means no VLAN insertion.
1641 : : * @param inlen
1642 : : * Data length to inline. For TSO this parameter specifies exact value,
1643 : : * for ordinary send routine can be aligned by caller to provide better WQE
1644 : : * space saving and data buffer start address alignment.
1645 : : * This length includes VLAN header being inserted.
1646 : : * @param tso
1647 : : * Zero means ordinary send, inlined data can be extended,
1648 : : * otherwise this is TSO, inlined data length is fixed.
1649 : : * @param olx
1650 : : * Configured Tx offloads mask. It is fully defined at
1651 : : * compile time and may be used for optimization.
1652 : : *
1653 : : * @return
1654 : : * Actual size of built WQE in segments.
1655 : : */
1656 : : static __rte_always_inline unsigned int
1657 : : mlx5_tx_mseg_build(struct mlx5_txq_data *__rte_restrict txq,
1658 : : struct mlx5_txq_local *__rte_restrict loc,
1659 : : struct mlx5_wqe *__rte_restrict wqe,
1660 : : unsigned int vlan,
1661 : : unsigned int inlen,
1662 : : unsigned int tso,
1663 : : unsigned int olx __rte_unused)
1664 : : {
1665 : : struct mlx5_wqe_dseg *__rte_restrict dseg;
1666 : : unsigned int ds;
1667 : :
1668 : : MLX5_ASSERT((rte_pktmbuf_pkt_len(loc->mbuf) + vlan) >= inlen);
1669 : : loc->mbuf_nseg = NB_SEGS(loc->mbuf);
1670 : : loc->mbuf_off = 0;
1671 : :
1672 : : dseg = mlx5_tx_eseg_mdat(txq, loc, wqe, vlan, inlen, tso, olx);
1673 [ # # # # : 0 : if (!loc->mbuf_nseg)
# # # # #
# # # # #
# # # # #
# ]
1674 : 0 : goto dseg_done;
1675 : : /*
1676 : : * There are still some mbuf remaining, not inlined.
1677 : : * The first mbuf may be partially inlined and we
1678 : : * must process the possible non-zero data offset.
1679 : : */
1680 [ # # # # : 0 : if (loc->mbuf_off) {
# # # # #
# # # # #
# # # # #
# ]
1681 : : unsigned int dlen;
1682 : : uint8_t *dptr;
1683 : :
1684 : : /*
1685 : : * Exhausted packets must be dropped before.
1686 : : * Non-zero offset means there are some data
1687 : : * remained in the packet.
1688 : : */
1689 : : MLX5_ASSERT(loc->mbuf_off < rte_pktmbuf_data_len(loc->mbuf));
1690 : : MLX5_ASSERT(rte_pktmbuf_data_len(loc->mbuf));
1691 : 0 : dptr = rte_pktmbuf_mtod_offset(loc->mbuf, uint8_t *,
1692 : : loc->mbuf_off);
1693 : 0 : dlen = rte_pktmbuf_data_len(loc->mbuf) - loc->mbuf_off;
1694 : : /*
1695 : : * Build the pointer/minimal Data Segment.
1696 : : * Do ring buffer wrapping check in advance.
1697 : : */
1698 [ # # # # : 0 : if ((uintptr_t)dseg >= (uintptr_t)txq->wqes_end)
# # # # #
# # # # #
# # # # #
# ]
1699 : 0 : dseg = (struct mlx5_wqe_dseg *)txq->wqes;
1700 : : mlx5_tx_dseg_iptr(txq, loc, dseg, dptr, dlen, olx);
1701 : : /* Store the mbuf to be freed on completion. */
1702 : : MLX5_ASSERT(loc->elts_free);
1703 : 0 : txq->elts[txq->elts_head++ & txq->elts_m] = loc->mbuf;
1704 : 0 : --loc->elts_free;
1705 : 0 : ++dseg;
1706 [ # # # # : 0 : if (--loc->mbuf_nseg == 0)
# # # # #
# # # # #
# # # # #
# ]
1707 : 0 : goto dseg_done;
1708 : 0 : loc->mbuf = loc->mbuf->next;
1709 : : loc->mbuf_off = 0;
1710 : : }
1711 : : do {
1712 [ # # # # : 0 : if (unlikely(!rte_pktmbuf_data_len(loc->mbuf))) {
# # # # #
# # # # #
# # # # #
# ]
1713 : : struct rte_mbuf *mbuf;
1714 : :
1715 : : /* Zero length segment found, just skip. */
1716 : : mbuf = loc->mbuf;
1717 : 0 : loc->mbuf = loc->mbuf->next;
1718 : : rte_pktmbuf_free_seg(mbuf);
1719 [ # # # # : 0 : if (--loc->mbuf_nseg == 0)
# # # # #
# # # # #
# # # # #
# ]
1720 : : break;
1721 : : } else {
1722 [ # # # # : 0 : if ((uintptr_t)dseg >= (uintptr_t)txq->wqes_end)
# # # # #
# # # # #
# # # # #
# ]
1723 : 0 : dseg = (struct mlx5_wqe_dseg *)txq->wqes;
1724 : 0 : mlx5_tx_dseg_iptr
1725 : : (txq, loc, dseg,
1726 [ # # # # : 0 : rte_pktmbuf_mtod(loc->mbuf, uint8_t *),
# # # # #
# # # # #
# # # # #
# ]
1727 : : rte_pktmbuf_data_len(loc->mbuf), olx);
1728 : : MLX5_ASSERT(loc->elts_free);
1729 : 0 : txq->elts[txq->elts_head++ & txq->elts_m] = loc->mbuf;
1730 : 0 : --loc->elts_free;
1731 : 0 : ++dseg;
1732 [ # # # # : 0 : if (--loc->mbuf_nseg == 0)
# # # # #
# # # # #
# # # # #
# ]
1733 : : break;
1734 : 0 : loc->mbuf = loc->mbuf->next;
1735 : : }
1736 : : } while (true);
1737 : :
1738 : 0 : dseg_done:
1739 : : /* Calculate actual segments used from the dseg pointer. */
1740 [ # # # # : 0 : if ((uintptr_t)wqe < (uintptr_t)dseg)
# # # # #
# # # # #
# # # # #
# ]
1741 : 0 : ds = ((uintptr_t)dseg - (uintptr_t)wqe) / MLX5_WSEG_SIZE;
1742 : : else
1743 : 0 : ds = (((uintptr_t)dseg - (uintptr_t)wqe) +
1744 : 0 : txq->wqe_s * MLX5_WQE_SIZE) / MLX5_WSEG_SIZE;
1745 : : return ds;
1746 : : }
1747 : :
1748 : : /**
1749 : : * The routine checks timestamp flag in the current packet,
1750 : : * and push WAIT WQE into the queue if scheduling is required.
1751 : : *
1752 : : * @param txq
1753 : : * Pointer to TX queue structure.
1754 : : * @param loc
1755 : : * Pointer to burst routine local context.
1756 : : * @param elts
1757 : : * Number of free elements in elts buffer to be checked, for zero
1758 : : * value the check is optimized out by compiler.
1759 : : * @param olx
1760 : : * Configured Tx offloads mask. It is fully defined at
1761 : : * compile time and may be used for optimization.
1762 : : *
1763 : : * @return
1764 : : * MLX5_TXCMP_CODE_EXIT - sending is done or impossible.
1765 : : * MLX5_TXCMP_CODE_SINGLE - continue processing with the packet.
1766 : : * MLX5_TXCMP_CODE_MULTI - the WAIT inserted, continue processing.
1767 : : * Local context variables partially updated.
1768 : : */
1769 : : static __rte_always_inline enum mlx5_txcmp_code
1770 : : mlx5_tx_schedule_send(struct mlx5_txq_data *restrict txq,
1771 : : struct mlx5_txq_local *restrict loc,
1772 : : uint16_t elts,
1773 : : unsigned int olx)
1774 : : {
1775 : 0 : if (MLX5_TXOFF_CONFIG(TXPP) &&
1776 [ # # # # : 0 : loc->mbuf->ol_flags & txq->ts_mask) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
1777 : : struct mlx5_dev_ctx_shared *sh;
1778 : : struct mlx5_wqe *wqe;
1779 : : uint64_t ts;
1780 : :
1781 : : /*
1782 : : * Estimate the required space quickly and roughly.
1783 : : * We would like to ensure the packet can be pushed
1784 : : * to the queue and we won't get the orphan WAIT WQE.
1785 : : */
1786 [ # # # # : 0 : if (loc->wqe_free <= MLX5_WQE_SIZE_MAX / MLX5_WQE_SIZE ||
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1787 : : loc->elts_free < elts)
1788 : : return MLX5_TXCMP_CODE_EXIT;
1789 : : /* Convert the timestamp into completion to wait. */
1790 : 0 : ts = *RTE_MBUF_DYNFIELD(loc->mbuf, txq->ts_offset, uint64_t *);
1791 [ # # # # : 0 : if (txq->ts_last && ts < txq->ts_last)
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # ]
1792 : 0 : rte_atomic_fetch_add_explicit(&txq->sh->txpp.err_ts_order,
1793 : : 1, rte_memory_order_relaxed);
1794 : 0 : txq->ts_last = ts;
1795 : 0 : wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
1796 : 0 : sh = txq->sh;
1797 [ # # # # : 0 : if (txq->wait_on_time) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1798 : : /* The wait on time capability should be used. */
1799 [ # # # # : 0 : ts -= sh->txpp.skew;
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1800 : : rte_pmd_mlx5_trace_tx_wait(ts);
1801 : : mlx5_tx_cseg_init(txq, loc, wqe,
1802 : : 1 + sizeof(struct mlx5_wqe_wseg) /
1803 : : MLX5_WSEG_SIZE,
1804 : : MLX5_OPCODE_WAIT |
1805 : : MLX5_OPC_MOD_WAIT_TIME << 24, olx);
1806 : : mlx5_tx_wseg_init(txq, loc, wqe, ts, olx);
1807 : : } else {
1808 : : /* Legacy cross-channel operation should be used. */
1809 : : int32_t wci;
1810 : :
1811 : : wci = mlx5_txpp_convert_tx_ts(sh, ts);
1812 [ # # # # : 0 : if (unlikely(wci < 0))
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1813 : : return MLX5_TXCMP_CODE_SINGLE;
1814 : : /* Build the WAIT WQE with specified completion. */
1815 : : rte_pmd_mlx5_trace_tx_wait(ts - sh->txpp.skew);
1816 : : mlx5_tx_cseg_init(txq, loc, wqe,
1817 : : 1 + sizeof(struct mlx5_wqe_qseg) /
1818 : : MLX5_WSEG_SIZE,
1819 : : MLX5_OPCODE_WAIT |
1820 : : MLX5_OPC_MOD_WAIT_CQ_PI << 24, olx);
1821 [ # # # # : 0 : mlx5_tx_qseg_init(txq, loc, wqe, wci, olx);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
1822 : : }
1823 : 0 : ++txq->wqe_ci;
1824 : 0 : --loc->wqe_free;
1825 : : return MLX5_TXCMP_CODE_MULTI;
1826 : : }
1827 : : return MLX5_TXCMP_CODE_SINGLE;
1828 : : }
1829 : :
1830 : : /**
1831 : : * Tx one packet function for multi-segment TSO. Supports all
1832 : : * types of Tx offloads, uses MLX5_OPCODE_TSO to build WQEs,
1833 : : * sends one packet per WQE.
1834 : : *
1835 : : * This routine is responsible for storing processed mbuf
1836 : : * into elts ring buffer and update elts_head.
1837 : : *
1838 : : * @param txq
1839 : : * Pointer to TX queue structure.
1840 : : * @param loc
1841 : : * Pointer to burst routine local context.
1842 : : * @param olx
1843 : : * Configured Tx offloads mask. It is fully defined at
1844 : : * compile time and may be used for optimization.
1845 : : *
1846 : : * @return
1847 : : * MLX5_TXCMP_CODE_EXIT - sending is done or impossible.
1848 : : * MLX5_TXCMP_CODE_ERROR - some unrecoverable error occurred.
1849 : : * Local context variables partially updated.
1850 : : */
1851 : : static __rte_always_inline enum mlx5_txcmp_code
1852 : : mlx5_tx_packet_multi_tso(struct mlx5_txq_data *__rte_restrict txq,
1853 : : struct mlx5_txq_local *__rte_restrict loc,
1854 : : unsigned int olx)
1855 : : {
1856 : : struct mlx5_wqe *__rte_restrict wqe;
1857 : : unsigned int ds, dlen, inlen, ntcp, vlan = 0;
1858 : :
1859 : : MLX5_ASSERT(loc->elts_free >= NB_SEGS(loc->mbuf));
1860 : : if (MLX5_TXOFF_CONFIG(TXPP)) {
1861 : : enum mlx5_txcmp_code wret;
1862 : :
1863 : : /* Generate WAIT for scheduling if requested. */
1864 : : wret = mlx5_tx_schedule_send(txq, loc, 0, olx);
1865 : : if (wret == MLX5_TXCMP_CODE_EXIT)
1866 : : return MLX5_TXCMP_CODE_EXIT;
1867 : : if (wret == MLX5_TXCMP_CODE_ERROR)
1868 : : return MLX5_TXCMP_CODE_ERROR;
1869 : : }
1870 : : /*
1871 : : * Calculate data length to be inlined to estimate
1872 : : * the required space in WQE ring buffer.
1873 : : */
1874 : 0 : dlen = rte_pktmbuf_pkt_len(loc->mbuf);
1875 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(VLAN) && loc->mbuf->ol_flags & RTE_MBUF_F_TX_VLAN)
# # # # #
# ]
1876 : : vlan = sizeof(struct rte_vlan_hdr);
1877 : 0 : inlen = loc->mbuf->l2_len + vlan +
1878 : 0 : loc->mbuf->l3_len + loc->mbuf->l4_len;
1879 [ # # # # : 0 : if (unlikely((!inlen || !loc->mbuf->tso_segsz)))
# # # # #
# # # # #
# # # # #
# # # #
# ]
1880 : : return MLX5_TXCMP_CODE_ERROR;
1881 [ # # # # : 0 : if (loc->mbuf->ol_flags & RTE_MBUF_F_TX_TUNNEL_MASK)
# # # # #
# # # ]
1882 : 0 : inlen += loc->mbuf->outer_l2_len + loc->mbuf->outer_l3_len;
1883 : : /* Packet must contain all TSO headers. */
1884 [ # # # # : 0 : if (unlikely(inlen > MLX5_MAX_TSO_HEADER ||
# # # # #
# # # # #
# # # # #
# # # #
# ]
1885 : : inlen <= MLX5_ESEG_MIN_INLINE_SIZE ||
1886 : : inlen > (dlen + vlan)))
1887 : : return MLX5_TXCMP_CODE_ERROR;
1888 : : /*
1889 : : * Check whether there are enough free WQEBBs:
1890 : : * - Control Segment
1891 : : * - Ethernet Segment
1892 : : * - First Segment of inlined Ethernet data
1893 : : * - ... data continued ...
1894 : : * - Data Segments of pointer/min inline type
1895 : : */
1896 : 0 : ds = NB_SEGS(loc->mbuf) + 2 + (inlen -
1897 : : MLX5_ESEG_MIN_INLINE_SIZE +
1898 : : MLX5_WSEG_SIZE +
1899 : 0 : MLX5_WSEG_SIZE - 1) / MLX5_WSEG_SIZE;
1900 [ # # # # : 0 : if (unlikely(loc->wqe_free < ((ds + 3) / 4)))
# # # # #
# # # ]
1901 : : return MLX5_TXCMP_CODE_EXIT;
1902 : : /* Check for maximal WQE size. */
1903 [ # # # # : 0 : if (unlikely((MLX5_WQE_SIZE_MAX / MLX5_WSEG_SIZE) < ds))
# # # # #
# # # ]
1904 : : return MLX5_TXCMP_CODE_ERROR;
1905 : : #ifdef MLX5_PMD_SOFT_COUNTERS
1906 : : /* Update sent data bytes/packets counters. */
1907 : 0 : ntcp = (dlen - (inlen - vlan) + loc->mbuf->tso_segsz - 1) /
1908 : : loc->mbuf->tso_segsz;
1909 : : /*
1910 : : * One will be added for mbuf itself at the end of the mlx5_tx_burst
1911 : : * from loc->pkts_sent field.
1912 : : */
1913 : 0 : --ntcp;
1914 : 0 : txq->stats.opackets += ntcp;
1915 : 0 : txq->stats.obytes += dlen + vlan + ntcp * inlen;
1916 : : #endif
1917 [ # # # # : 0 : wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
# # # # #
# # # ]
1918 : : loc->wqe_last = wqe;
1919 : : mlx5_tx_cseg_init(txq, loc, wqe, 0, MLX5_OPCODE_TSO, olx);
1920 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
1921 : : ds = mlx5_tx_mseg_build(txq, loc, wqe, vlan, inlen, 1, olx);
1922 [ # # # # : 0 : wqe->cseg.sq_ds = rte_cpu_to_be_32(txq->qp_num_8s | ds);
# # # # #
# # # ]
1923 : 0 : txq->wqe_ci += (ds + 3) / 4;
1924 : 0 : loc->wqe_free -= (ds + 3) / 4;
1925 : : return MLX5_TXCMP_CODE_MULTI;
1926 : : }
1927 : :
1928 : : /**
1929 : : * Tx one packet function for multi-segment SEND. Supports all types of Tx
1930 : : * offloads, uses MLX5_OPCODE_SEND to build WQEs, sends one packet per WQE,
1931 : : * without any data inlining in Ethernet Segment.
1932 : : *
1933 : : * This routine is responsible for storing processed mbuf
1934 : : * into elts ring buffer and update elts_head.
1935 : : *
1936 : : * @param txq
1937 : : * Pointer to TX queue structure.
1938 : : * @param loc
1939 : : * Pointer to burst routine local context.
1940 : : * @param olx
1941 : : * Configured Tx offloads mask. It is fully defined at
1942 : : * compile time and may be used for optimization.
1943 : : *
1944 : : * @return
1945 : : * MLX5_TXCMP_CODE_EXIT - sending is done or impossible.
1946 : : * MLX5_TXCMP_CODE_ERROR - some unrecoverable error occurred.
1947 : : * Local context variables partially updated.
1948 : : */
1949 : : static __rte_always_inline enum mlx5_txcmp_code
1950 : : mlx5_tx_packet_multi_send(struct mlx5_txq_data *__rte_restrict txq,
1951 : : struct mlx5_txq_local *__rte_restrict loc,
1952 : : unsigned int olx)
1953 : : {
1954 : : struct mlx5_wqe_dseg *__rte_restrict dseg;
1955 : : struct mlx5_wqe *__rte_restrict wqe;
1956 : : unsigned int ds, nseg;
1957 : :
1958 : : MLX5_ASSERT(NB_SEGS(loc->mbuf) > 1);
1959 : : MLX5_ASSERT(loc->elts_free >= NB_SEGS(loc->mbuf));
1960 : : if (MLX5_TXOFF_CONFIG(TXPP)) {
1961 : : enum mlx5_txcmp_code wret;
1962 : :
1963 : : /* Generate WAIT for scheduling if requested. */
1964 : : wret = mlx5_tx_schedule_send(txq, loc, 0, olx);
1965 : : if (wret == MLX5_TXCMP_CODE_EXIT)
1966 : : return MLX5_TXCMP_CODE_EXIT;
1967 : : if (wret == MLX5_TXCMP_CODE_ERROR)
1968 : : return MLX5_TXCMP_CODE_ERROR;
1969 : : }
1970 : : /*
1971 : : * No inline at all, it means the CPU cycles saving is prioritized at
1972 : : * configuration, we should not copy any packet data to WQE.
1973 : : */
1974 : 0 : nseg = NB_SEGS(loc->mbuf);
1975 : 0 : ds = 2 + nseg;
1976 [ # # # # : 0 : if (unlikely(loc->wqe_free < ((ds + 3) / 4)))
# # # # #
# # # ]
1977 : : return MLX5_TXCMP_CODE_EXIT;
1978 : : /* Check for maximal WQE size. */
1979 [ # # # # : 0 : if (unlikely((MLX5_WQE_SIZE_MAX / MLX5_WSEG_SIZE) < ds))
# # # # #
# # # ]
1980 : : return MLX5_TXCMP_CODE_ERROR;
1981 : : /*
1982 : : * Some Tx offloads may cause an error if packet is not long enough,
1983 : : * check against assumed minimal length.
1984 : : */
1985 [ # # # # : 0 : if (rte_pktmbuf_pkt_len(loc->mbuf) <= MLX5_ESEG_MIN_INLINE_SIZE)
# # # # #
# # # ]
1986 : : return MLX5_TXCMP_CODE_ERROR;
1987 : : #ifdef MLX5_PMD_SOFT_COUNTERS
1988 : : /* Update sent data bytes counter. */
1989 : 0 : txq->stats.obytes += rte_pktmbuf_pkt_len(loc->mbuf);
1990 [ # # # # ]: 0 : if (MLX5_TXOFF_CONFIG(VLAN) &&
1991 [ # # # # : 0 : loc->mbuf->ol_flags & RTE_MBUF_F_TX_VLAN)
# # # # #
# ]
1992 : 0 : txq->stats.obytes += sizeof(struct rte_vlan_hdr);
1993 : : #endif
1994 : : /*
1995 : : * SEND WQE, one WQEBB:
1996 : : * - Control Segment, SEND opcode
1997 : : * - Ethernet Segment, optional VLAN, no inline
1998 : : * - Data Segments, pointer only type
1999 : : */
2000 [ # # # # : 0 : wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
# # # # #
# # # ]
2001 : : loc->wqe_last = wqe;
2002 : : mlx5_tx_cseg_init(txq, loc, wqe, ds, MLX5_OPCODE_SEND, olx);
2003 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
2004 : : mlx5_tx_eseg_none(txq, loc, wqe, olx);
2005 : 0 : dseg = &wqe->dseg[0];
2006 : : do {
2007 [ # # # # : 0 : if (unlikely(!rte_pktmbuf_data_len(loc->mbuf))) {
# # # # #
# # # ]
2008 : : struct rte_mbuf *mbuf;
2009 : :
2010 : : /*
2011 : : * Zero length segment found, have to correct total
2012 : : * size of WQE in segments.
2013 : : * It is supposed to be rare occasion, so in normal
2014 : : * case (no zero length segments) we avoid extra
2015 : : * writing to the Control Segment.
2016 : : */
2017 : 0 : --ds;
2018 : 0 : wqe->cseg.sq_ds -= RTE_BE32(1);
2019 : : mbuf = loc->mbuf;
2020 [ # # ]: 0 : loc->mbuf = mbuf->next;
2021 : : rte_pktmbuf_free_seg(mbuf);
2022 [ # # # # : 0 : if (--nseg == 0)
# # # # #
# # # ]
2023 : : break;
2024 : : } else {
2025 : 0 : mlx5_tx_dseg_ptr
2026 : : (txq, loc, dseg,
2027 [ # # # # : 0 : rte_pktmbuf_mtod(loc->mbuf, uint8_t *),
# # # # #
# # # ]
2028 : : rte_pktmbuf_data_len(loc->mbuf), olx);
2029 : 0 : txq->elts[txq->elts_head++ & txq->elts_m] = loc->mbuf;
2030 : 0 : --loc->elts_free;
2031 [ # # # # : 0 : if (--nseg == 0)
# # # # #
# # # ]
2032 : : break;
2033 : 0 : ++dseg;
2034 [ # # # # : 0 : if ((uintptr_t)dseg >= (uintptr_t)txq->wqes_end)
# # # # #
# # # ]
2035 : 0 : dseg = (struct mlx5_wqe_dseg *)txq->wqes;
2036 : 0 : loc->mbuf = loc->mbuf->next;
2037 : : }
2038 : : } while (true);
2039 : 0 : txq->wqe_ci += (ds + 3) / 4;
2040 : 0 : loc->wqe_free -= (ds + 3) / 4;
2041 : : return MLX5_TXCMP_CODE_MULTI;
2042 : : }
2043 : :
2044 : : /**
2045 : : * Tx one packet function for multi-segment SEND. Supports all
2046 : : * types of Tx offloads, uses MLX5_OPCODE_SEND to build WQEs,
2047 : : * sends one packet per WQE, with data inlining in
2048 : : * Ethernet Segment and minimal Data Segments.
2049 : : *
2050 : : * This routine is responsible for storing processed mbuf
2051 : : * into elts ring buffer and update elts_head.
2052 : : *
2053 : : * @param txq
2054 : : * Pointer to TX queue structure.
2055 : : * @param loc
2056 : : * Pointer to burst routine local context.
2057 : : * @param olx
2058 : : * Configured Tx offloads mask. It is fully defined at
2059 : : * compile time and may be used for optimization.
2060 : : *
2061 : : * @return
2062 : : * MLX5_TXCMP_CODE_EXIT - sending is done or impossible.
2063 : : * MLX5_TXCMP_CODE_ERROR - some unrecoverable error occurred.
2064 : : * Local context variables partially updated.
2065 : : */
2066 : : static __rte_always_inline enum mlx5_txcmp_code
2067 : : mlx5_tx_packet_multi_inline(struct mlx5_txq_data *__rte_restrict txq,
2068 : : struct mlx5_txq_local *__rte_restrict loc,
2069 : : unsigned int olx)
2070 : : {
2071 : : struct mlx5_wqe *__rte_restrict wqe;
2072 : : unsigned int ds, inlen, dlen, vlan = 0;
2073 : :
2074 : : MLX5_ASSERT(MLX5_TXOFF_CONFIG(INLINE));
2075 : : MLX5_ASSERT(NB_SEGS(loc->mbuf) > 1);
2076 : : MLX5_ASSERT(loc->elts_free >= NB_SEGS(loc->mbuf));
2077 : : /*
2078 : : * First calculate data length to be inlined
2079 : : * to estimate the required space for WQE.
2080 : : */
2081 : 0 : dlen = rte_pktmbuf_pkt_len(loc->mbuf);
2082 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(VLAN) && loc->mbuf->ol_flags & RTE_MBUF_F_TX_VLAN)
# # ]
2083 : : vlan = sizeof(struct rte_vlan_hdr);
2084 : 0 : inlen = dlen + vlan;
2085 : : /* Check against minimal length. */
2086 [ # # # # : 0 : if (inlen <= MLX5_ESEG_MIN_INLINE_SIZE)
# # # # ]
2087 : : return MLX5_TXCMP_CODE_ERROR;
2088 : : MLX5_ASSERT(txq->inlen_send >= MLX5_ESEG_MIN_INLINE_SIZE);
2089 [ # # # # : 0 : if (inlen > txq->inlen_send ||
# # # # ]
2090 [ # # # # : 0 : loc->mbuf->ol_flags & RTE_MBUF_F_TX_DYNF_NOINLINE) {
# # # # ]
2091 : : struct rte_mbuf *mbuf;
2092 : : unsigned int nxlen;
2093 : : uintptr_t start;
2094 : :
2095 : : mbuf = loc->mbuf;
2096 : 0 : nxlen = rte_pktmbuf_data_len(mbuf) + vlan;
2097 : : /*
2098 : : * Packet length exceeds the allowed inline data length,
2099 : : * check whether the minimal inlining is required.
2100 : : */
2101 [ # # # # : 0 : if (txq->inlen_mode) {
# # # # ]
2102 : : MLX5_ASSERT(txq->inlen_mode >=
2103 : : MLX5_ESEG_MIN_INLINE_SIZE);
2104 : : MLX5_ASSERT(txq->inlen_mode <= txq->inlen_send);
2105 : 0 : inlen = RTE_MIN(txq->inlen_mode, inlen);
2106 [ # # # # : 0 : } else if (vlan && !txq->vlan_en) {
# # # # #
# # # ]
2107 : : /*
2108 : : * VLAN insertion is requested and hardware does not
2109 : : * support the offload, will do with software inline.
2110 : : */
2111 : : inlen = MLX5_ESEG_MIN_INLINE_SIZE;
2112 [ # # # # : 0 : } else if (mbuf->ol_flags & RTE_MBUF_F_TX_DYNF_NOINLINE ||
# # # # #
# # # # #
# # ]
2113 : : nxlen > txq->inlen_send) {
2114 : : return mlx5_tx_packet_multi_send(txq, loc, olx);
2115 [ # # # # : 0 : } else if (nxlen <= MLX5_ESEG_MIN_INLINE_SIZE) {
# # # # ]
2116 : : inlen = MLX5_ESEG_MIN_INLINE_SIZE;
2117 : : } else {
2118 : 0 : goto do_first;
2119 : : }
2120 [ # # # # : 0 : if (mbuf->ol_flags & RTE_MBUF_F_TX_DYNF_NOINLINE)
# # # # ]
2121 : 0 : goto do_build;
2122 : : /*
2123 : : * Now we know the minimal amount of data is requested
2124 : : * to inline. Check whether we should inline the buffers
2125 : : * from the chain beginning to eliminate some mbufs.
2126 : : */
2127 [ # # # # : 0 : if (unlikely(nxlen <= txq->inlen_send)) {
# # # # ]
2128 : : /* We can inline first mbuf at least. */
2129 [ # # # # : 0 : if (nxlen < inlen) {
# # # # ]
2130 : : unsigned int smlen;
2131 : :
2132 : : /* Scan mbufs till inlen filled. */
2133 : : do {
2134 : : smlen = nxlen;
2135 : 0 : mbuf = NEXT(mbuf);
2136 : : MLX5_ASSERT(mbuf);
2137 : 0 : nxlen = rte_pktmbuf_data_len(mbuf);
2138 : 0 : nxlen += smlen;
2139 [ # # # # : 0 : } while (unlikely(nxlen < inlen));
# # # # ]
2140 [ # # # # : 0 : if (unlikely(nxlen > txq->inlen_send)) {
# # # # ]
2141 : : /* We cannot inline entire mbuf. */
2142 : 0 : smlen = inlen - smlen;
2143 : 0 : start = rte_pktmbuf_mtod_offset
2144 : : (mbuf, uintptr_t, smlen);
2145 : 0 : goto do_align;
2146 : : }
2147 : : }
2148 : 0 : do_first:
2149 : : do {
2150 : : inlen = nxlen;
2151 : 0 : mbuf = NEXT(mbuf);
2152 : : /* There should be not end of packet. */
2153 : : MLX5_ASSERT(mbuf);
2154 [ # # # # : 0 : if (mbuf->ol_flags & RTE_MBUF_F_TX_DYNF_NOINLINE)
# # # # ]
2155 : : break;
2156 : 0 : nxlen = inlen + rte_pktmbuf_data_len(mbuf);
2157 [ # # # # : 0 : } while (unlikely(nxlen < txq->inlen_send));
# # # # ]
2158 : : }
2159 : 0 : start = rte_pktmbuf_mtod(mbuf, uintptr_t);
2160 : : /*
2161 : : * Check whether we can do inline to align start
2162 : : * address of data buffer to cacheline.
2163 : : */
2164 : 0 : do_align:
2165 : 0 : start = (~start + 1) & (RTE_CACHE_LINE_SIZE - 1);
2166 [ # # # # : 0 : if (unlikely(start)) {
# # # # ]
2167 : 0 : start += inlen;
2168 [ # # # # : 0 : if (start <= txq->inlen_send)
# # # # ]
2169 : 0 : inlen = start;
2170 : : }
2171 : : }
2172 : : /*
2173 : : * Check whether there are enough free WQEBBs:
2174 : : * - Control Segment
2175 : : * - Ethernet Segment
2176 : : * - First Segment of inlined Ethernet data
2177 : : * - ... data continued ...
2178 : : * - Data Segments of pointer/min inline type
2179 : : *
2180 : : * Estimate the number of Data Segments conservatively,
2181 : : * supposing no any mbufs is being freed during inlining.
2182 : : */
2183 [ # # # # : 0 : do_build:
# # # # ]
2184 : : if (MLX5_TXOFF_CONFIG(TXPP)) {
2185 : : enum mlx5_txcmp_code wret;
2186 : :
2187 : : /* Generate WAIT for scheduling if requested. */
2188 : : wret = mlx5_tx_schedule_send(txq, loc, 0, olx);
2189 : : if (wret == MLX5_TXCMP_CODE_EXIT)
2190 : : return MLX5_TXCMP_CODE_EXIT;
2191 : : if (wret == MLX5_TXCMP_CODE_ERROR)
2192 : : return MLX5_TXCMP_CODE_ERROR;
2193 : : }
2194 : : MLX5_ASSERT(inlen <= txq->inlen_send);
2195 : 0 : ds = NB_SEGS(loc->mbuf) + 2 + (inlen -
2196 : : MLX5_ESEG_MIN_INLINE_SIZE +
2197 : : MLX5_WSEG_SIZE +
2198 : 0 : MLX5_WSEG_SIZE - 1) / MLX5_WSEG_SIZE;
2199 [ # # # # : 0 : if (unlikely(loc->wqe_free < ((ds + 3) / 4)))
# # # # ]
2200 : : return MLX5_TXCMP_CODE_EXIT;
2201 : : /* Check for maximal WQE size. */
2202 [ # # # # : 0 : if (unlikely((MLX5_WQE_SIZE_MAX / MLX5_WSEG_SIZE) < ds)) {
# # # # ]
2203 : : /* Check if we can adjust the inline length. */
2204 [ # # # # : 0 : if (unlikely(txq->inlen_mode)) {
# # # # ]
2205 : 0 : ds = NB_SEGS(loc->mbuf) + 2 +
2206 : 0 : (txq->inlen_mode -
2207 : : MLX5_ESEG_MIN_INLINE_SIZE +
2208 : : MLX5_WSEG_SIZE +
2209 : 0 : MLX5_WSEG_SIZE - 1) / MLX5_WSEG_SIZE;
2210 [ # # # # : 0 : if (unlikely((MLX5_WQE_SIZE_MAX / MLX5_WSEG_SIZE) < ds))
# # # # ]
2211 : : return MLX5_TXCMP_CODE_ERROR;
2212 : : }
2213 : : /* We have lucky opportunity to adjust. */
2214 : 0 : inlen = RTE_MIN(inlen, MLX5_WQE_SIZE_MAX -
2215 : : MLX5_WSEG_SIZE * 2 -
2216 : : MLX5_WSEG_SIZE * NB_SEGS(loc->mbuf) -
2217 : : MLX5_WSEG_SIZE +
2218 : : MLX5_ESEG_MIN_INLINE_SIZE);
2219 : : }
2220 : : #ifdef MLX5_PMD_SOFT_COUNTERS
2221 : : /* Update sent data bytes/packets counters. */
2222 : 0 : txq->stats.obytes += dlen + vlan;
2223 : : #endif
2224 [ # # # # : 0 : wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
# # # # ]
2225 : : loc->wqe_last = wqe;
2226 : : mlx5_tx_cseg_init(txq, loc, wqe, 0, MLX5_OPCODE_SEND, olx);
2227 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
2228 : : ds = mlx5_tx_mseg_build(txq, loc, wqe, vlan, inlen, 0, olx);
2229 [ # # # # : 0 : wqe->cseg.sq_ds = rte_cpu_to_be_32(txq->qp_num_8s | ds);
# # # # ]
2230 : 0 : txq->wqe_ci += (ds + 3) / 4;
2231 : 0 : loc->wqe_free -= (ds + 3) / 4;
2232 : : return MLX5_TXCMP_CODE_MULTI;
2233 : : }
2234 : :
2235 : : /**
2236 : : * Tx burst function for multi-segment packets. Supports all
2237 : : * types of Tx offloads, uses MLX5_OPCODE_SEND/TSO to build WQEs,
2238 : : * sends one packet per WQE. Function stops sending if it
2239 : : * encounters the single-segment packet.
2240 : : *
2241 : : * This routine is responsible for storing processed mbuf
2242 : : * into elts ring buffer and update elts_head.
2243 : : *
2244 : : * @param txq
2245 : : * Pointer to TX queue structure.
2246 : : * @param[in] pkts
2247 : : * Packets to transmit.
2248 : : * @param pkts_n
2249 : : * Number of packets in array.
2250 : : * @param loc
2251 : : * Pointer to burst routine local context.
2252 : : * @param olx
2253 : : * Configured Tx offloads mask. It is fully defined at
2254 : : * compile time and may be used for optimization.
2255 : : *
2256 : : * @return
2257 : : * MLX5_TXCMP_CODE_EXIT - sending is done or impossible.
2258 : : * MLX5_TXCMP_CODE_ERROR - some unrecoverable error occurred.
2259 : : * MLX5_TXCMP_CODE_SINGLE - single-segment packet encountered.
2260 : : * MLX5_TXCMP_CODE_TSO - TSO single-segment packet encountered.
2261 : : * Local context variables updated.
2262 : : */
2263 : : static __rte_always_inline enum mlx5_txcmp_code
2264 : : mlx5_tx_burst_mseg(struct mlx5_txq_data *__rte_restrict txq,
2265 : : struct rte_mbuf **__rte_restrict pkts,
2266 : : unsigned int pkts_n,
2267 : : struct mlx5_txq_local *__rte_restrict loc,
2268 : : unsigned int olx)
2269 : : {
2270 : : MLX5_ASSERT(loc->elts_free && loc->wqe_free);
2271 : : MLX5_ASSERT(pkts_n > loc->pkts_sent);
2272 : 0 : pkts += loc->pkts_sent + 1;
2273 : 0 : pkts_n -= loc->pkts_sent;
2274 : 0 : for (;;) {
2275 : : enum mlx5_txcmp_code ret;
2276 : :
2277 : : MLX5_ASSERT(NB_SEGS(loc->mbuf) > 1);
2278 : : /*
2279 : : * Estimate the number of free elts quickly but conservatively.
2280 : : * Some segment may be fully inlined and freed,
2281 : : * ignore this here - precise estimation is costly.
2282 : : */
2283 [ # # # # : 0 : if (loc->elts_free < NB_SEGS(loc->mbuf))
# # # # #
# # # ]
2284 : : return MLX5_TXCMP_CODE_EXIT;
2285 : 0 : if (MLX5_TXOFF_CONFIG(TSO) &&
2286 [ # # # # : 0 : unlikely(loc->mbuf->ol_flags & RTE_MBUF_F_TX_TCP_SEG)) {
# # # # #
# # # ]
2287 : : /* Proceed with multi-segment TSO. */
2288 : : ret = mlx5_tx_packet_multi_tso(txq, loc, olx);
2289 : : } else if (MLX5_TXOFF_CONFIG(INLINE)) {
2290 : : /* Proceed with multi-segment SEND with inlining. */
2291 : : ret = mlx5_tx_packet_multi_inline(txq, loc, olx);
2292 : : } else {
2293 : : /* Proceed with multi-segment SEND w/o inlining. */
2294 : : ret = mlx5_tx_packet_multi_send(txq, loc, olx);
2295 : : }
2296 : : if (ret == MLX5_TXCMP_CODE_EXIT)
2297 : : return MLX5_TXCMP_CODE_EXIT;
2298 : : if (ret == MLX5_TXCMP_CODE_ERROR)
2299 : : return MLX5_TXCMP_CODE_ERROR;
2300 : : /* WQE is built, go to the next packet. */
2301 : 0 : ++loc->pkts_sent;
2302 : 0 : --pkts_n;
2303 [ # # # # : 0 : if (unlikely(!pkts_n || !loc->elts_free || !loc->wqe_free))
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
2304 : : return MLX5_TXCMP_CODE_EXIT;
2305 : 0 : loc->mbuf = *pkts++;
2306 [ # # # # : 0 : if (pkts_n > 1)
# # # # #
# # # ]
2307 : 0 : rte_prefetch0(*pkts);
2308 [ # # # # : 0 : if (likely(NB_SEGS(loc->mbuf) > 1))
# # # # #
# # # ]
2309 : : continue;
2310 : : /* Here ends the series of multi-segment packets. */
2311 : 0 : if (MLX5_TXOFF_CONFIG(TSO) &&
2312 [ # # # # : 0 : unlikely(loc->mbuf->ol_flags & RTE_MBUF_F_TX_TCP_SEG))
# # # # #
# # # ]
2313 : 0 : return MLX5_TXCMP_CODE_TSO;
2314 : : return MLX5_TXCMP_CODE_SINGLE;
2315 : : }
2316 : : MLX5_ASSERT(false);
2317 : : }
2318 : :
2319 : : /**
2320 : : * Tx burst function for single-segment packets with TSO.
2321 : : * Supports all types of Tx offloads, except multi-packets.
2322 : : * Uses MLX5_OPCODE_TSO to build WQEs, sends one packet per WQE.
2323 : : * Function stops sending if it encounters the multi-segment
2324 : : * packet or packet without TSO requested.
2325 : : *
2326 : : * The routine is responsible for storing processed mbuf into elts ring buffer
2327 : : * and update elts_head if inline offloads is requested due to possible early
2328 : : * freeing of the inlined mbufs (can not store pkts array in elts as a batch).
2329 : : *
2330 : : * @param txq
2331 : : * Pointer to TX queue structure.
2332 : : * @param[in] pkts
2333 : : * Packets to transmit.
2334 : : * @param pkts_n
2335 : : * Number of packets in array.
2336 : : * @param loc
2337 : : * Pointer to burst routine local context.
2338 : : * @param olx
2339 : : * Configured Tx offloads mask. It is fully defined at
2340 : : * compile time and may be used for optimization.
2341 : : *
2342 : : * @return
2343 : : * MLX5_TXCMP_CODE_EXIT - sending is done or impossible.
2344 : : * MLX5_TXCMP_CODE_ERROR - some unrecoverable error occurred.
2345 : : * MLX5_TXCMP_CODE_SINGLE - single-segment packet encountered.
2346 : : * MLX5_TXCMP_CODE_MULTI - multi-segment packet encountered.
2347 : : * Local context variables updated.
2348 : : */
2349 : : static __rte_always_inline enum mlx5_txcmp_code
2350 : : mlx5_tx_burst_tso(struct mlx5_txq_data *__rte_restrict txq,
2351 : : struct rte_mbuf **__rte_restrict pkts,
2352 : : unsigned int pkts_n,
2353 : : struct mlx5_txq_local *__rte_restrict loc,
2354 : : unsigned int olx)
2355 : : {
2356 : : MLX5_ASSERT(loc->elts_free && loc->wqe_free);
2357 : : MLX5_ASSERT(pkts_n > loc->pkts_sent);
2358 : 0 : pkts += loc->pkts_sent + 1;
2359 : 0 : pkts_n -= loc->pkts_sent;
2360 : : for (;;) {
2361 : : struct mlx5_wqe_dseg *__rte_restrict dseg;
2362 : : struct mlx5_wqe *__rte_restrict wqe;
2363 : : unsigned int ds, dlen, hlen, ntcp, vlan = 0;
2364 : : uint8_t *dptr;
2365 : :
2366 : : MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
2367 : : if (MLX5_TXOFF_CONFIG(TXPP)) {
2368 : : enum mlx5_txcmp_code wret;
2369 : :
2370 : : /* Generate WAIT for scheduling if requested. */
2371 : : wret = mlx5_tx_schedule_send(txq, loc, 1, olx);
2372 : : if (wret == MLX5_TXCMP_CODE_EXIT)
2373 : : return MLX5_TXCMP_CODE_EXIT;
2374 : : if (wret == MLX5_TXCMP_CODE_ERROR)
2375 : : return MLX5_TXCMP_CODE_ERROR;
2376 : : }
2377 : 0 : dlen = rte_pktmbuf_data_len(loc->mbuf);
2378 : 0 : if (MLX5_TXOFF_CONFIG(VLAN) &&
2379 [ # # # # : 0 : loc->mbuf->ol_flags & RTE_MBUF_F_TX_VLAN) {
# # # # #
# ]
2380 : : vlan = sizeof(struct rte_vlan_hdr);
2381 : : }
2382 : : /*
2383 : : * First calculate the WQE size to check
2384 : : * whether we have enough space in ring buffer.
2385 : : */
2386 : 0 : hlen = loc->mbuf->l2_len + vlan +
2387 : 0 : loc->mbuf->l3_len + loc->mbuf->l4_len;
2388 [ # # # # : 0 : if (unlikely((!hlen || !loc->mbuf->tso_segsz)))
# # # # #
# # # # #
# # # # #
# # # #
# ]
2389 : : return MLX5_TXCMP_CODE_ERROR;
2390 [ # # # # : 0 : if (loc->mbuf->ol_flags & RTE_MBUF_F_TX_TUNNEL_MASK)
# # # # #
# # # ]
2391 : 0 : hlen += loc->mbuf->outer_l2_len +
2392 : 0 : loc->mbuf->outer_l3_len;
2393 : : /* Segment must contain all TSO headers. */
2394 [ # # # # : 0 : if (unlikely(hlen > MLX5_MAX_TSO_HEADER ||
# # # # #
# # # # #
# # # # #
# # # #
# ]
2395 : : hlen <= MLX5_ESEG_MIN_INLINE_SIZE ||
2396 : : hlen > (dlen + vlan)))
2397 : : return MLX5_TXCMP_CODE_ERROR;
2398 : : /*
2399 : : * Check whether there are enough free WQEBBs:
2400 : : * - Control Segment
2401 : : * - Ethernet Segment
2402 : : * - First Segment of inlined Ethernet data
2403 : : * - ... data continued ...
2404 : : * - Finishing Data Segment of pointer type
2405 : : */
2406 : 0 : ds = 4 + (hlen - MLX5_ESEG_MIN_INLINE_SIZE +
2407 : 0 : MLX5_WSEG_SIZE - 1) / MLX5_WSEG_SIZE;
2408 [ # # # # : 0 : if (loc->wqe_free < ((ds + 3) / 4))
# # # # #
# # # ]
2409 : : return MLX5_TXCMP_CODE_EXIT;
2410 : : #ifdef MLX5_PMD_SOFT_COUNTERS
2411 : : /* Update sent data bytes/packets counters. */
2412 : 0 : ntcp = (dlen + vlan - hlen +
2413 : 0 : loc->mbuf->tso_segsz - 1) /
2414 : : loc->mbuf->tso_segsz;
2415 : : /*
2416 : : * One will be added for mbuf itself at the end
2417 : : * of the mlx5_tx_burst from loc->pkts_sent field.
2418 : : */
2419 : 0 : --ntcp;
2420 : 0 : txq->stats.opackets += ntcp;
2421 : 0 : txq->stats.obytes += dlen + vlan + ntcp * hlen;
2422 : : #endif
2423 : : /*
2424 : : * Build the TSO WQE:
2425 : : * - Control Segment
2426 : : * - Ethernet Segment with hlen bytes inlined
2427 : : * - Data Segment of pointer type
2428 : : */
2429 [ # # # # : 0 : wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
# # # # #
# # # ]
2430 : : loc->wqe_last = wqe;
2431 : : mlx5_tx_cseg_init(txq, loc, wqe, ds, MLX5_OPCODE_TSO, olx);
2432 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
2433 : : dseg = mlx5_tx_eseg_data(txq, loc, wqe, vlan, hlen, 1, olx);
2434 [ # # # # : 0 : dptr = rte_pktmbuf_mtod(loc->mbuf, uint8_t *) + hlen - vlan;
# # ]
2435 [ # # # # : 0 : dlen -= hlen - vlan;
# # # # #
# ]
2436 : : mlx5_tx_dseg_ptr(txq, loc, dseg, dptr, dlen, olx);
2437 : : /*
2438 : : * WQE is built, update the loop parameters
2439 : : * and go to the next packet.
2440 : : */
2441 : 0 : txq->wqe_ci += (ds + 3) / 4;
2442 : 0 : loc->wqe_free -= (ds + 3) / 4;
2443 : : if (MLX5_TXOFF_CONFIG(INLINE))
2444 : 0 : txq->elts[txq->elts_head++ & txq->elts_m] = loc->mbuf;
2445 : 0 : --loc->elts_free;
2446 : 0 : ++loc->pkts_sent;
2447 : 0 : --pkts_n;
2448 [ # # # # : 0 : if (unlikely(!pkts_n || !loc->elts_free || !loc->wqe_free))
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
2449 : : return MLX5_TXCMP_CODE_EXIT;
2450 : 0 : loc->mbuf = *pkts++;
2451 [ # # # # : 0 : if (pkts_n > 1)
# # # # #
# # # ]
2452 : 0 : rte_prefetch0(*pkts);
2453 : 0 : if (MLX5_TXOFF_CONFIG(MULTI) &&
2454 [ # # # # : 0 : unlikely(NB_SEGS(loc->mbuf) > 1))
# # # # #
# # # ]
2455 : : return MLX5_TXCMP_CODE_MULTI;
2456 [ # # # # : 0 : if (likely(!(loc->mbuf->ol_flags & RTE_MBUF_F_TX_TCP_SEG)))
# # # # #
# # # ]
2457 : : return MLX5_TXCMP_CODE_SINGLE;
2458 : : /* Continue with the next TSO packet. */
2459 : : }
2460 : : MLX5_ASSERT(false);
2461 : : }
2462 : :
2463 : : /**
2464 : : * Analyze the packet and select the best method to send.
2465 : : *
2466 : : * @param txq
2467 : : * Pointer to TX queue structure.
2468 : : * @param loc
2469 : : * Pointer to burst routine local context.
2470 : : * @param olx
2471 : : * Configured Tx offloads mask. It is fully defined at
2472 : : * compile time and may be used for optimization.
2473 : : * @param newp
2474 : : * The predefined flag whether do complete check for
2475 : : * multi-segment packets and TSO.
2476 : : *
2477 : : * @return
2478 : : * MLX5_TXCMP_CODE_MULTI - multi-segment packet encountered.
2479 : : * MLX5_TXCMP_CODE_TSO - TSO required, use TSO/LSO.
2480 : : * MLX5_TXCMP_CODE_SINGLE - single-segment packet, use SEND.
2481 : : * MLX5_TXCMP_CODE_EMPW - single-segment packet, use MPW.
2482 : : */
2483 : : static __rte_always_inline enum mlx5_txcmp_code
2484 : : mlx5_tx_able_to_empw(struct mlx5_txq_data *__rte_restrict txq,
2485 : : struct mlx5_txq_local *__rte_restrict loc,
2486 : : unsigned int olx,
2487 : : bool newp)
2488 : : {
2489 : : /* Check for multi-segment packet. */
2490 : : if (newp &&
2491 : 0 : MLX5_TXOFF_CONFIG(MULTI) &&
2492 [ # # # # : 0 : unlikely(NB_SEGS(loc->mbuf) > 1))
# # # # #
# # # # #
# # # # ]
2493 : : return MLX5_TXCMP_CODE_MULTI;
2494 : : /* Check for TSO packet. */
2495 : : if (newp &&
2496 : 0 : MLX5_TXOFF_CONFIG(TSO) &&
2497 [ # # # # : 0 : unlikely(loc->mbuf->ol_flags & RTE_MBUF_F_TX_TCP_SEG))
# # # # #
# # # # #
# # # # #
# # # #
# ]
2498 : : return MLX5_TXCMP_CODE_TSO;
2499 : : /* Check if eMPW is enabled at all. */
2500 : : if (!MLX5_TXOFF_CONFIG(EMPW))
2501 : : return MLX5_TXCMP_CODE_SINGLE;
2502 : : /* Check if eMPW can be engaged. */
2503 : 0 : if (MLX5_TXOFF_CONFIG(VLAN) &&
2504 [ # # # # : 0 : unlikely(loc->mbuf->ol_flags & RTE_MBUF_F_TX_VLAN) &&
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
2505 : 0 : (!MLX5_TXOFF_CONFIG(INLINE) ||
2506 [ # # # # : 0 : unlikely((rte_pktmbuf_data_len(loc->mbuf) +
# # # # #
# # # # #
# # # # #
# # # #
# ]
2507 : : sizeof(struct rte_vlan_hdr)) > txq->inlen_empw))) {
2508 : : /*
2509 : : * eMPW does not support VLAN insertion offload, we have to
2510 : : * inline the entire packet but packet is too long for inlining.
2511 : : */
2512 : 0 : return MLX5_TXCMP_CODE_SINGLE;
2513 : : }
2514 : : return MLX5_TXCMP_CODE_EMPW;
2515 : : }
2516 : :
2517 : : /**
2518 : : * Check the next packet attributes to match with the eMPW batch ones.
2519 : : * In addition, for legacy MPW the packet length is checked either.
2520 : : *
2521 : : * @param txq
2522 : : * Pointer to TX queue structure.
2523 : : * @param es
2524 : : * Pointer to Ethernet Segment of eMPW batch.
2525 : : * @param loc
2526 : : * Pointer to burst routine local context.
2527 : : * @param dlen
2528 : : * Length of previous packet in MPW descriptor.
2529 : : * @param olx
2530 : : * Configured Tx offloads mask. It is fully defined at
2531 : : * compile time and may be used for optimization.
2532 : : *
2533 : : * @return
2534 : : * true - packet match with eMPW batch attributes.
2535 : : * false - no match, eMPW should be restarted.
2536 : : */
2537 : : static __rte_always_inline bool
2538 : : mlx5_tx_match_empw(struct mlx5_txq_data *__rte_restrict txq,
2539 : : struct mlx5_wqe_eseg *__rte_restrict es,
2540 : : struct mlx5_txq_local *__rte_restrict loc,
2541 : : uint32_t dlen,
2542 : : unsigned int olx)
2543 : : {
2544 : : uint8_t swp_flags = 0;
2545 : :
2546 : : /* Compare the checksum flags, if any. */
2547 : 0 : if (MLX5_TXOFF_CONFIG(CSUM) &&
2548 [ # # # # : 0 : txq_ol_cksum_to_cs(loc->mbuf) != es->cs_flags)
# # # # #
# # # ]
2549 : : return false;
2550 : : /* Compare the Software Parser offsets and flags. */
2551 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(SWP) &&
# # # # #
# # # ]
2552 [ # # # # : 0 : (es->swp_offs != txq_mbuf_to_swp(loc, &swp_flags, olx) ||
# # # # #
# # # ]
2553 [ # # # # : 0 : es->swp_flags != swp_flags))
# # # # #
# # # ]
2554 : : return false;
2555 : : /* Fill metadata field if needed. */
2556 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(METADATA) &&
# # # # #
# # # # #
# # # # #
# # # # #
# # # # ]
2557 : 0 : es->metadata != (loc->mbuf->ol_flags & RTE_MBUF_DYNFLAG_TX_METADATA ?
2558 [ # # # # : 0 : rte_cpu_to_be_32(*RTE_FLOW_DYNF_METADATA(loc->mbuf)) : 0))
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
2559 : : return false;
2560 : : /* Legacy MPW can send packets with the same length only. */
2561 : 0 : if (MLX5_TXOFF_CONFIG(MPW) &&
2562 [ # # # # : 0 : dlen != rte_pktmbuf_data_len(loc->mbuf))
# # # # ]
2563 : : return false;
2564 : : /* There must be no VLAN packets in eMPW loop. */
2565 : : if (MLX5_TXOFF_CONFIG(VLAN))
2566 : : MLX5_ASSERT(!(loc->mbuf->ol_flags & RTE_MBUF_F_TX_VLAN));
2567 : : /* Check if the scheduling is requested. */
2568 : 0 : if (MLX5_TXOFF_CONFIG(TXPP) &&
2569 [ # # # # : 0 : loc->mbuf->ol_flags & txq->ts_mask)
# # # # #
# # # ]
2570 : : return false;
2571 : : return true;
2572 : : }
2573 : :
2574 : : /**
2575 : : * Update send loop variables and WQE for eMPW loop without data inlining.
2576 : : * Number of Data Segments is equal to the number of sent packets.
2577 : : *
2578 : : * @param txq
2579 : : * Pointer to TX queue structure.
2580 : : * @param loc
2581 : : * Pointer to burst routine local context.
2582 : : * @param ds
2583 : : * Number of packets/Data Segments/Packets.
2584 : : * @param slen
2585 : : * Accumulated statistics, bytes sent.
2586 : : * @param olx
2587 : : * Configured Tx offloads mask. It is fully defined at
2588 : : * compile time and may be used for optimization.
2589 : : *
2590 : : * @return
2591 : : * true - packet match with eMPW batch attributes.
2592 : : * false - no match, eMPW should be restarted.
2593 : : */
2594 : : static __rte_always_inline void
2595 : : mlx5_tx_sdone_empw(struct mlx5_txq_data *__rte_restrict txq,
2596 : : struct mlx5_txq_local *__rte_restrict loc,
2597 : : unsigned int ds,
2598 : : unsigned int slen,
2599 : : unsigned int olx __rte_unused)
2600 : : {
2601 : : MLX5_ASSERT(!MLX5_TXOFF_CONFIG(INLINE));
2602 : : #ifdef MLX5_PMD_SOFT_COUNTERS
2603 : : /* Update sent data bytes counter. */
2604 : 0 : txq->stats.obytes += slen;
2605 : : #else
2606 : : (void)slen;
2607 : : #endif
2608 : 0 : loc->elts_free -= ds;
2609 : 0 : loc->pkts_sent += ds;
2610 : 0 : ds += 2;
2611 : 0 : loc->wqe_last->cseg.sq_ds = rte_cpu_to_be_32(txq->qp_num_8s | ds);
2612 : 0 : txq->wqe_ci += (ds + 3) / 4;
2613 : 0 : loc->wqe_free -= (ds + 3) / 4;
2614 : : }
2615 : :
2616 : : /**
2617 : : * Update send loop variables and WQE for eMPW loop with data inlining.
2618 : : * Gets the size of pushed descriptors and data to the WQE.
2619 : : *
2620 : : * @param txq
2621 : : * Pointer to TX queue structure.
2622 : : * @param loc
2623 : : * Pointer to burst routine local context.
2624 : : * @param len
2625 : : * Total size of descriptor/data in bytes.
2626 : : * @param slen
2627 : : * Accumulated statistics, data bytes sent.
2628 : : * @param wqem
2629 : : * The base WQE for the eMPW/MPW descriptor.
2630 : : * @param olx
2631 : : * Configured Tx offloads mask. It is fully defined at
2632 : : * compile time and may be used for optimization.
2633 : : *
2634 : : * @return
2635 : : * true - packet match with eMPW batch attributes.
2636 : : * false - no match, eMPW should be restarted.
2637 : : */
2638 : : static __rte_always_inline void
2639 : : mlx5_tx_idone_empw(struct mlx5_txq_data *__rte_restrict txq,
2640 : : struct mlx5_txq_local *__rte_restrict loc,
2641 : : unsigned int len,
2642 : : unsigned int slen,
2643 : : struct mlx5_wqe *__rte_restrict wqem,
2644 : : unsigned int olx __rte_unused)
2645 : : {
2646 : : struct mlx5_wqe_dseg *dseg = &wqem->dseg[0];
2647 : :
2648 : : MLX5_ASSERT(MLX5_TXOFF_CONFIG(INLINE));
2649 : : #ifdef MLX5_PMD_SOFT_COUNTERS
2650 : : /* Update sent data bytes counter. */
2651 : 0 : txq->stats.obytes += slen;
2652 : : #else
2653 : : (void)slen;
2654 : : #endif
2655 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(MPW) && dseg->bcount == RTE_BE32(0)) {
# # # # ]
2656 : : /*
2657 : : * If the legacy MPW session contains the inline packets
2658 : : * we should set the only inline data segment length
2659 : : * and align the total length to the segment size.
2660 : : */
2661 : : MLX5_ASSERT(len > sizeof(dseg->bcount));
2662 [ # # # # : 0 : dseg->bcount = rte_cpu_to_be_32((len - sizeof(dseg->bcount)) |
# # # # #
# # # #
# ]
2663 : : MLX5_ETH_WQE_DATA_INLINE);
2664 : 0 : len = (len + MLX5_WSEG_SIZE - 1) / MLX5_WSEG_SIZE + 2;
2665 : : } else {
2666 : : /*
2667 : : * The session is not legacy MPW or contains the
2668 : : * data buffer pointer segments.
2669 : : */
2670 : : MLX5_ASSERT((len % MLX5_WSEG_SIZE) == 0);
2671 : 0 : len = len / MLX5_WSEG_SIZE + 2;
2672 : : }
2673 [ # # # # : 0 : wqem->cseg.sq_ds = rte_cpu_to_be_32(txq->qp_num_8s | len);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # ]
2674 : 0 : txq->wqe_ci += (len + 3) / 4;
2675 : 0 : loc->wqe_free -= (len + 3) / 4;
2676 : : loc->wqe_last = wqem;
2677 : : }
2678 : :
2679 : : /**
2680 : : * The set of Tx burst functions for single-segment packets without TSO
2681 : : * and with Multi-Packet Writing feature support.
2682 : : * Supports all types of Tx offloads, except multi-packets and TSO.
2683 : : *
2684 : : * Uses MLX5_OPCODE_EMPW to build WQEs if possible and sends as many packet
2685 : : * per WQE as it can. If eMPW is not configured or packet can not be sent with
2686 : : * eMPW (VLAN insertion) the ordinary SEND opcode is used and only one packet
2687 : : * placed in WQE.
2688 : : *
2689 : : * Functions stop sending if it encounters the multi-segment packet or packet
2690 : : * with TSO requested.
2691 : : *
2692 : : * The routines are responsible for storing processed mbuf into elts ring buffer
2693 : : * and update elts_head if inlining offload is requested. Otherwise the copying
2694 : : * mbufs to elts can be postponed and completed at the end of burst routine.
2695 : : *
2696 : : * @param txq
2697 : : * Pointer to TX queue structure.
2698 : : * @param[in] pkts
2699 : : * Packets to transmit.
2700 : : * @param pkts_n
2701 : : * Number of packets in array.
2702 : : * @param loc
2703 : : * Pointer to burst routine local context.
2704 : : * @param olx
2705 : : * Configured Tx offloads mask. It is fully defined at
2706 : : * compile time and may be used for optimization.
2707 : : *
2708 : : * @return
2709 : : * MLX5_TXCMP_CODE_EXIT - sending is done or impossible.
2710 : : * MLX5_TXCMP_CODE_ERROR - some unrecoverable error occurred.
2711 : : * MLX5_TXCMP_CODE_MULTI - multi-segment packet encountered.
2712 : : * MLX5_TXCMP_CODE_TSO - TSO packet encountered.
2713 : : * MLX5_TXCMP_CODE_SINGLE - used inside functions set.
2714 : : * MLX5_TXCMP_CODE_EMPW - used inside functions set.
2715 : : *
2716 : : * Local context variables updated.
2717 : : *
2718 : : *
2719 : : * The routine sends packets with MLX5_OPCODE_EMPW
2720 : : * without inlining, this is dedicated optimized branch.
2721 : : * No VLAN insertion is supported.
2722 : : */
2723 : : static __rte_always_inline enum mlx5_txcmp_code
2724 : : mlx5_tx_burst_empw_simple(struct mlx5_txq_data *__rte_restrict txq,
2725 : : struct rte_mbuf **__rte_restrict pkts,
2726 : : unsigned int pkts_n,
2727 : : struct mlx5_txq_local *__rte_restrict loc,
2728 : : unsigned int olx)
2729 : : {
2730 : : /*
2731 : : * Subroutine is the part of mlx5_tx_burst_single() and sends
2732 : : * single-segment packet with eMPW opcode without data inlining.
2733 : : */
2734 : : MLX5_ASSERT(!MLX5_TXOFF_CONFIG(INLINE));
2735 : : MLX5_ASSERT(MLX5_TXOFF_CONFIG(EMPW));
2736 : : MLX5_ASSERT(loc->elts_free && loc->wqe_free);
2737 : : MLX5_ASSERT(pkts_n > loc->pkts_sent);
2738 : 0 : pkts += loc->pkts_sent + 1;
2739 : 0 : pkts_n -= loc->pkts_sent;
2740 : : for (;;) {
2741 : : struct mlx5_wqe_dseg *__rte_restrict dseg;
2742 : : struct mlx5_wqe_eseg *__rte_restrict eseg;
2743 : : enum mlx5_txcmp_code ret;
2744 : : unsigned int part, loop;
2745 : : unsigned int slen = 0;
2746 : :
2747 : 0 : next_empw:
2748 : : MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
2749 : 0 : part = RTE_MIN(pkts_n, MLX5_TXOFF_CONFIG(MPW) ?
2750 : : MLX5_MPW_MAX_PACKETS :
2751 : : MLX5_EMPW_MAX_PACKETS);
2752 [ # # # # : 0 : if (unlikely(loc->elts_free < part)) {
# # # # #
# # # # #
# # ]
2753 : : /* We have no enough elts to save all mbufs. */
2754 [ # # # # : 0 : if (unlikely(loc->elts_free < MLX5_EMPW_MIN_PACKETS))
# # # # #
# # # # #
# # ]
2755 : : return MLX5_TXCMP_CODE_EXIT;
2756 : : /* But we still able to send at least minimal eMPW. */
2757 : : part = loc->elts_free;
2758 : : }
2759 : : if (MLX5_TXOFF_CONFIG(TXPP)) {
2760 : : enum mlx5_txcmp_code wret;
2761 : :
2762 : : /* Generate WAIT for scheduling if requested. */
2763 : : wret = mlx5_tx_schedule_send(txq, loc, 0, olx);
2764 : : if (wret == MLX5_TXCMP_CODE_EXIT)
2765 : : return MLX5_TXCMP_CODE_EXIT;
2766 : : if (wret == MLX5_TXCMP_CODE_ERROR)
2767 : : return MLX5_TXCMP_CODE_ERROR;
2768 : : }
2769 : : /* Check whether we have enough WQEs */
2770 [ # # # # : 0 : if (unlikely(loc->wqe_free < ((2 + part + 3) / 4))) {
# # # # #
# # # # #
# # ]
2771 [ # # # # : 0 : if (unlikely(loc->wqe_free <
# # # # #
# # # # #
# # ]
2772 : : ((2 + MLX5_EMPW_MIN_PACKETS + 3) / 4)))
2773 : : return MLX5_TXCMP_CODE_EXIT;
2774 : 0 : part = (loc->wqe_free * 4) - 2;
2775 : : }
2776 [ # # # # : 0 : if (likely(part > 1))
# # # # #
# # # # #
# # ]
2777 : 0 : rte_prefetch0(*pkts);
2778 : 0 : loc->wqe_last = txq->wqes + (txq->wqe_ci & txq->wqe_m);
2779 : : /*
2780 : : * Build eMPW title WQEBB:
2781 : : * - Control Segment, eMPW opcode
2782 : : * - Ethernet Segment, no inline
2783 : : */
2784 [ # # # # : 0 : mlx5_tx_cseg_init(txq, loc, loc->wqe_last, part + 2,
# # # # #
# # # # #
# # ]
2785 : : MLX5_OPCODE_ENHANCED_MPSW, olx);
2786 : : mlx5_tx_eseg_none(txq, loc, loc->wqe_last,
2787 : : olx & ~MLX5_TXOFF_CONFIG_VLAN);
2788 : : eseg = &loc->wqe_last->eseg;
2789 : 0 : dseg = &loc->wqe_last->dseg[0];
2790 : : loop = part;
2791 : : /* Store the packet length for legacy MPW. */
2792 : : if (MLX5_TXOFF_CONFIG(MPW))
2793 [ # # # # ]: 0 : eseg->mss = rte_cpu_to_be_16
2794 : : (rte_pktmbuf_data_len(loc->mbuf));
2795 : : for (;;) {
2796 : 0 : uint32_t dlen = rte_pktmbuf_data_len(loc->mbuf);
2797 : : #ifdef MLX5_PMD_SOFT_COUNTERS
2798 : : /* Update sent data bytes counter. */
2799 : 0 : slen += dlen;
2800 : : #endif
2801 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
2802 : : mlx5_tx_dseg_ptr
2803 : : (txq, loc, dseg,
2804 [ # # # # : 0 : rte_pktmbuf_mtod(loc->mbuf, uint8_t *),
# # # # #
# # # # #
# # ]
2805 : : dlen, olx);
2806 [ # # # # : 0 : if (unlikely(--loop == 0))
# # # # #
# # # # #
# # ]
2807 : : break;
2808 : 0 : loc->mbuf = *pkts++;
2809 [ # # # # : 0 : if (likely(loop > 1))
# # # # #
# # # # #
# # ]
2810 : 0 : rte_prefetch0(*pkts);
2811 : : ret = mlx5_tx_able_to_empw(txq, loc, olx, true);
2812 : : /*
2813 : : * Unroll the completion code to avoid
2814 : : * returning variable value - it results in
2815 : : * unoptimized sequent checking in caller.
2816 : : */
2817 : : if (ret == MLX5_TXCMP_CODE_MULTI) {
2818 [ # # # # : 0 : part -= loop;
# # ]
2819 : : mlx5_tx_sdone_empw(txq, loc, part, slen, olx);
2820 [ # # # # : 0 : if (unlikely(!loc->elts_free ||
# # # # #
# # # ]
2821 : : !loc->wqe_free))
2822 : : return MLX5_TXCMP_CODE_EXIT;
2823 : : return MLX5_TXCMP_CODE_MULTI;
2824 : : }
2825 : : MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
2826 : : if (ret == MLX5_TXCMP_CODE_TSO) {
2827 [ # # # # : 0 : part -= loop;
# # ]
2828 : : mlx5_tx_sdone_empw(txq, loc, part, slen, olx);
2829 [ # # # # : 0 : if (unlikely(!loc->elts_free ||
# # # # #
# # # ]
2830 : : !loc->wqe_free))
2831 : : return MLX5_TXCMP_CODE_EXIT;
2832 : : return MLX5_TXCMP_CODE_TSO;
2833 : : }
2834 : : if (ret == MLX5_TXCMP_CODE_SINGLE) {
2835 [ # # # # : 0 : part -= loop;
# # ]
2836 : : mlx5_tx_sdone_empw(txq, loc, part, slen, olx);
2837 [ # # # # : 0 : if (unlikely(!loc->elts_free ||
# # # # #
# # # ]
2838 : : !loc->wqe_free))
2839 : : return MLX5_TXCMP_CODE_EXIT;
2840 : : return MLX5_TXCMP_CODE_SINGLE;
2841 : : }
2842 : : if (ret != MLX5_TXCMP_CODE_EMPW) {
2843 : : MLX5_ASSERT(false);
2844 : : part -= loop;
2845 : : mlx5_tx_sdone_empw(txq, loc, part, slen, olx);
2846 : : return MLX5_TXCMP_CODE_ERROR;
2847 : : }
2848 : : /*
2849 : : * Check whether packet parameters coincide
2850 : : * within assumed eMPW batch:
2851 : : * - check sum settings
2852 : : * - metadata value
2853 : : * - software parser settings
2854 : : * - packets length (legacy MPW only)
2855 : : * - scheduling is not required
2856 : : */
2857 : : if (!mlx5_tx_match_empw(txq, eseg, loc, dlen, olx)) {
2858 : : MLX5_ASSERT(loop);
2859 [ # # # # : 0 : part -= loop;
# # # # #
# # # #
# ]
2860 : : mlx5_tx_sdone_empw(txq, loc, part, slen, olx);
2861 [ # # # # : 0 : if (unlikely(!loc->elts_free ||
# # # # #
# # # # #
# # # # #
# # # # #
# # # # ]
2862 : : !loc->wqe_free))
2863 : : return MLX5_TXCMP_CODE_EXIT;
2864 : 0 : pkts_n -= part;
2865 : 0 : goto next_empw;
2866 : : }
2867 : : /* Packet attributes match, continue the same eMPW. */
2868 : 0 : ++dseg;
2869 [ # # # # : 0 : if ((uintptr_t)dseg >= (uintptr_t)txq->wqes_end)
# # # # #
# # # # #
# # ]
2870 : 0 : dseg = (struct mlx5_wqe_dseg *)txq->wqes;
2871 : : }
2872 : : /* eMPW is built successfully, update loop parameters. */
2873 : : MLX5_ASSERT(!loop);
2874 : : MLX5_ASSERT(pkts_n >= part);
2875 : : #ifdef MLX5_PMD_SOFT_COUNTERS
2876 : : /* Update sent data bytes counter. */
2877 : 0 : txq->stats.obytes += slen;
2878 : : #endif
2879 : 0 : loc->elts_free -= part;
2880 : 0 : loc->pkts_sent += part;
2881 : 0 : txq->wqe_ci += (2 + part + 3) / 4;
2882 : 0 : loc->wqe_free -= (2 + part + 3) / 4;
2883 : 0 : pkts_n -= part;
2884 [ # # # # : 0 : if (unlikely(!pkts_n || !loc->elts_free || !loc->wqe_free))
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # ]
2885 : : return MLX5_TXCMP_CODE_EXIT;
2886 [ # # # # : 0 : loc->mbuf = *pkts++;
# # # # #
# ]
2887 : : ret = mlx5_tx_able_to_empw(txq, loc, olx, true);
2888 [ # # # # : 0 : if (unlikely(ret != MLX5_TXCMP_CODE_EMPW))
# # # # #
# ]
2889 : : return ret;
2890 : : /* Continue sending eMPW batches. */
2891 : : }
2892 : : MLX5_ASSERT(false);
2893 : : }
2894 : :
2895 : : /**
2896 : : * The routine sends packets with MLX5_OPCODE_EMPW
2897 : : * with inlining, optionally supports VLAN insertion.
2898 : : */
2899 : : static __rte_always_inline enum mlx5_txcmp_code
2900 : : mlx5_tx_burst_empw_inline(struct mlx5_txq_data *__rte_restrict txq,
2901 : : struct rte_mbuf **__rte_restrict pkts,
2902 : : unsigned int pkts_n,
2903 : : struct mlx5_txq_local *__rte_restrict loc,
2904 : : unsigned int olx)
2905 : : {
2906 : : /*
2907 : : * Subroutine is the part of mlx5_tx_burst_single() and sends
2908 : : * single-segment packet with eMPW opcode with data inlining.
2909 : : */
2910 : : MLX5_ASSERT(MLX5_TXOFF_CONFIG(INLINE));
2911 : : MLX5_ASSERT(MLX5_TXOFF_CONFIG(EMPW));
2912 : : MLX5_ASSERT(loc->elts_free && loc->wqe_free);
2913 : : MLX5_ASSERT(pkts_n > loc->pkts_sent);
2914 : 0 : pkts += loc->pkts_sent + 1;
2915 : 0 : pkts_n -= loc->pkts_sent;
2916 : : for (;;) {
2917 : : struct mlx5_wqe_dseg *__rte_restrict dseg;
2918 : : struct mlx5_wqe *__rte_restrict wqem;
2919 : : enum mlx5_txcmp_code ret;
2920 : : unsigned int room, part, nlim;
2921 : : unsigned int slen = 0;
2922 : :
2923 : : MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
2924 : : /*
2925 : : * Limits the amount of packets in one WQE
2926 : : * to improve CQE latency generation.
2927 : : */
2928 : 0 : nlim = RTE_MIN(pkts_n, MLX5_TXOFF_CONFIG(MPW) ?
2929 : : MLX5_MPW_INLINE_MAX_PACKETS :
2930 : : MLX5_EMPW_MAX_PACKETS);
2931 : : if (MLX5_TXOFF_CONFIG(TXPP)) {
2932 : : enum mlx5_txcmp_code wret;
2933 : :
2934 : : /* Generate WAIT for scheduling if requested. */
2935 [ # # # # : 0 : wret = mlx5_tx_schedule_send(txq, loc, nlim, olx);
# # # # ]
2936 : : if (wret == MLX5_TXCMP_CODE_EXIT)
2937 : : return MLX5_TXCMP_CODE_EXIT;
2938 : : if (wret == MLX5_TXCMP_CODE_ERROR)
2939 : : return MLX5_TXCMP_CODE_ERROR;
2940 : : }
2941 : : /* Check whether we have minimal amount WQEs */
2942 [ # # # # : 0 : if (unlikely(loc->wqe_free <
# # # # #
# # # #
# ]
2943 : : ((2 + MLX5_EMPW_MIN_PACKETS + 3) / 4)))
2944 : : return MLX5_TXCMP_CODE_EXIT;
2945 [ # # # # : 0 : if (likely(pkts_n > 1))
# # # # #
# # # #
# ]
2946 : 0 : rte_prefetch0(*pkts);
2947 [ # # # # : 0 : wqem = txq->wqes + (txq->wqe_ci & txq->wqe_m);
# # # # #
# # # #
# ]
2948 : : /*
2949 : : * Build eMPW title WQEBB:
2950 : : * - Control Segment, eMPW opcode, zero DS
2951 : : * - Ethernet Segment, no inline
2952 : : */
2953 : : mlx5_tx_cseg_init(txq, loc, wqem, 0,
2954 : : MLX5_OPCODE_ENHANCED_MPSW, olx);
2955 : : mlx5_tx_eseg_none(txq, loc, wqem,
2956 : : olx & ~MLX5_TXOFF_CONFIG_VLAN);
2957 : 0 : dseg = &wqem->dseg[0];
2958 : : /* Store the packet length for legacy MPW. */
2959 : : if (MLX5_TXOFF_CONFIG(MPW))
2960 [ # # # # ]: 0 : wqem->eseg.mss = rte_cpu_to_be_16
2961 : : (rte_pktmbuf_data_len(loc->mbuf));
2962 : 0 : room = RTE_MIN(MLX5_WQE_SIZE_MAX / MLX5_WQE_SIZE,
2963 : : loc->wqe_free) * MLX5_WQE_SIZE -
2964 : 0 : MLX5_WQE_CSEG_SIZE -
2965 : : MLX5_WQE_ESEG_SIZE;
2966 : : /* Limit the room for legacy MPW sessions for performance. */
2967 : : if (MLX5_TXOFF_CONFIG(MPW))
2968 : 0 : room = RTE_MIN(room,
2969 : : RTE_MAX(txq->inlen_empw +
2970 : : sizeof(dseg->bcount) +
2971 : : (MLX5_TXOFF_CONFIG(VLAN) ?
2972 : : sizeof(struct rte_vlan_hdr) : 0),
2973 : : MLX5_MPW_INLINE_MAX_PACKETS *
2974 : : MLX5_WQE_DSEG_SIZE));
2975 : : /* Build WQE till we have space, packets and resources. */
2976 : : part = room;
2977 : : for (;;) {
2978 : 0 : uint32_t dlen = rte_pktmbuf_data_len(loc->mbuf);
2979 : 0 : uint8_t *dptr = rte_pktmbuf_mtod(loc->mbuf, uint8_t *);
2980 : : unsigned int tlen;
2981 : :
2982 : : MLX5_ASSERT(room >= MLX5_WQE_DSEG_SIZE);
2983 : : MLX5_ASSERT((room % MLX5_WQE_DSEG_SIZE) == 0);
2984 : : MLX5_ASSERT((uintptr_t)dseg < (uintptr_t)txq->wqes_end);
2985 : : /*
2986 : : * Some Tx offloads may cause an error if packet is not
2987 : : * long enough, check against assumed minimal length.
2988 : : */
2989 [ # # # # : 0 : if (unlikely(dlen <= MLX5_ESEG_MIN_INLINE_SIZE)) {
# # # # #
# # # #
# ]
2990 : 0 : part -= room;
2991 [ # # # # : 0 : if (unlikely(!part))
# # # # #
# # # #
# ]
2992 : : return MLX5_TXCMP_CODE_ERROR;
2993 : : /*
2994 : : * We have some successfully built
2995 : : * packet Data Segments to send.
2996 : : */
2997 : : mlx5_tx_idone_empw(txq, loc, part,
2998 : : slen, wqem, olx);
2999 : : return MLX5_TXCMP_CODE_ERROR;
3000 : : }
3001 : : /* Inline or not inline - that's the Question. */
3002 [ # # # # : 0 : if (dlen > txq->inlen_empw ||
# # # # #
# # # #
# ]
3003 [ # # # # : 0 : loc->mbuf->ol_flags & RTE_MBUF_F_TX_DYNF_NOINLINE)
# # # # #
# # # #
# ]
3004 [ # # # # : 0 : goto pointer_empw;
# # # # #
# # # #
# ]
3005 : : if (MLX5_TXOFF_CONFIG(MPW)) {
3006 [ # # # # ]: 0 : if (dlen > txq->inlen_send)
3007 : 0 : goto pointer_empw;
3008 : : tlen = dlen;
3009 [ # # # # ]: 0 : if (part == room) {
3010 : : /* Open new inline MPW session. */
3011 : 0 : tlen += sizeof(dseg->bcount);
3012 : 0 : dseg->bcount = RTE_BE32(0);
3013 : 0 : dseg = RTE_PTR_ADD
3014 : : (dseg, sizeof(dseg->bcount));
3015 : : } else {
3016 : : /*
3017 : : * No pointer and inline descriptor
3018 : : * intermix for legacy MPW sessions.
3019 : : */
3020 [ # # # # ]: 0 : if (wqem->dseg[0].bcount)
3021 : : break;
3022 : : }
3023 : : } else {
3024 : 0 : tlen = sizeof(dseg->bcount) + dlen;
3025 : : }
3026 : : /* Inline entire packet, optional VLAN insertion. */
3027 : 0 : if (MLX5_TXOFF_CONFIG(VLAN) &&
3028 [ # # # # : 0 : loc->mbuf->ol_flags & RTE_MBUF_F_TX_VLAN) {
# # # # ]
3029 : : /*
3030 : : * The packet length must be checked in
3031 : : * mlx5_tx_able_to_empw() and packet
3032 : : * fits into inline length guaranteed.
3033 : : */
3034 : : MLX5_ASSERT((dlen +
3035 : : sizeof(struct rte_vlan_hdr)) <=
3036 : : txq->inlen_empw);
3037 : 0 : tlen += sizeof(struct rte_vlan_hdr);
3038 [ # # # # : 0 : if (room < tlen)
# # # # ]
3039 : : break;
3040 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
3041 : : dseg = mlx5_tx_dseg_vlan(txq, loc, dseg,
3042 : : dptr, dlen, olx);
3043 : : #ifdef MLX5_PMD_SOFT_COUNTERS
3044 : : /* Update sent data bytes counter. */
3045 : 0 : slen += sizeof(struct rte_vlan_hdr);
3046 : : #endif
3047 : : } else {
3048 [ # # # # : 0 : if (room < tlen)
# # # # #
# # # #
# ]
3049 : : break;
3050 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
3051 : : dseg = mlx5_tx_dseg_empw(txq, loc, dseg,
3052 : : dptr, dlen, olx);
3053 : : }
3054 : : if (!MLX5_TXOFF_CONFIG(MPW))
3055 : 0 : tlen = RTE_ALIGN(tlen, MLX5_WSEG_SIZE);
3056 : : MLX5_ASSERT(room >= tlen);
3057 : 0 : room -= tlen;
3058 : : /*
3059 : : * Packet data are completely inline,
3060 : : * we can try to free the packet.
3061 : : */
3062 [ # # # # : 0 : if (likely(loc->pkts_sent == loc->mbuf_free)) {
# # # # #
# # # #
# ]
3063 : : /*
3064 : : * All the packets from the burst beginning
3065 : : * are inline, we can free mbufs directly
3066 : : * from the origin array on tx_burst exit().
3067 : : */
3068 : 0 : loc->mbuf_free++;
3069 : 0 : goto next_mbuf;
3070 : : }
3071 : : /*
3072 : : * In order no to call rte_pktmbuf_free_seg() here,
3073 : : * in the most inner loop (that might be very
3074 : : * expensive) we just save the mbuf in elts.
3075 : : */
3076 : 0 : txq->elts[txq->elts_head++ & txq->elts_m] = loc->mbuf;
3077 : 0 : loc->elts_free--;
3078 : 0 : goto next_mbuf;
3079 : 0 : pointer_empw:
3080 : : /*
3081 : : * No pointer and inline descriptor
3082 : : * intermix for legacy MPW sessions.
3083 : : */
3084 [ # # # # ]: 0 : if (MLX5_TXOFF_CONFIG(MPW) &&
3085 : 0 : part != room &&
3086 [ # # # # ]: 0 : wqem->dseg[0].bcount == RTE_BE32(0))
3087 : : break;
3088 : : /*
3089 : : * Not inlinable VLAN packets are
3090 : : * proceeded outside of this routine.
3091 : : */
3092 : : MLX5_ASSERT(room >= MLX5_WQE_DSEG_SIZE);
3093 : : if (MLX5_TXOFF_CONFIG(VLAN))
3094 : : MLX5_ASSERT(!(loc->mbuf->ol_flags &
3095 : : RTE_MBUF_F_TX_VLAN));
3096 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
3097 : : mlx5_tx_dseg_ptr(txq, loc, dseg, dptr, dlen, olx);
3098 : : /* We have to store mbuf in elts.*/
3099 : 0 : txq->elts[txq->elts_head++ & txq->elts_m] = loc->mbuf;
3100 : 0 : loc->elts_free--;
3101 : 0 : room -= MLX5_WQE_DSEG_SIZE;
3102 : : /* Ring buffer wraparound is checked at the loop end.*/
3103 : 0 : ++dseg;
3104 : 0 : next_mbuf:
3105 : : #ifdef MLX5_PMD_SOFT_COUNTERS
3106 : : /* Update sent data bytes counter. */
3107 : 0 : slen += dlen;
3108 : : #endif
3109 : 0 : loc->pkts_sent++;
3110 : 0 : pkts_n--;
3111 [ # # # # : 0 : if (unlikely(!pkts_n || !loc->elts_free)) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # ]
3112 : : /*
3113 : : * We have no resources/packets to
3114 : : * continue build descriptors.
3115 : : */
3116 [ # # # # : 0 : part -= room;
# # # # #
# # # #
# ]
3117 : : mlx5_tx_idone_empw(txq, loc, part,
3118 : : slen, wqem, olx);
3119 : : return MLX5_TXCMP_CODE_EXIT;
3120 : : }
3121 : 0 : loc->mbuf = *pkts++;
3122 [ # # # # : 0 : if (likely(pkts_n > 1))
# # # # #
# # # #
# ]
3123 : 0 : rte_prefetch0(*pkts);
3124 : : ret = mlx5_tx_able_to_empw(txq, loc, olx, true);
3125 : : /*
3126 : : * Unroll the completion code to avoid
3127 : : * returning variable value - it results in
3128 : : * unoptimized sequent checking in caller.
3129 : : */
3130 : : if (ret == MLX5_TXCMP_CODE_MULTI) {
3131 [ # # # # : 0 : part -= room;
# # ]
3132 : : mlx5_tx_idone_empw(txq, loc, part,
3133 : : slen, wqem, olx);
3134 [ # # # # : 0 : if (unlikely(!loc->elts_free ||
# # ]
3135 : : !loc->wqe_free))
3136 : : return MLX5_TXCMP_CODE_EXIT;
3137 : : return MLX5_TXCMP_CODE_MULTI;
3138 : : }
3139 : : MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
3140 : : if (ret == MLX5_TXCMP_CODE_TSO) {
3141 [ # # # # : 0 : part -= room;
# # ]
3142 : : mlx5_tx_idone_empw(txq, loc, part,
3143 : : slen, wqem, olx);
3144 [ # # # # : 0 : if (unlikely(!loc->elts_free ||
# # ]
3145 : : !loc->wqe_free))
3146 : : return MLX5_TXCMP_CODE_EXIT;
3147 : : return MLX5_TXCMP_CODE_TSO;
3148 : : }
3149 : : if (ret == MLX5_TXCMP_CODE_SINGLE) {
3150 [ # # # # : 0 : part -= room;
# # # # ]
3151 : : mlx5_tx_idone_empw(txq, loc, part,
3152 : : slen, wqem, olx);
3153 [ # # # # : 0 : if (unlikely(!loc->elts_free ||
# # # # ]
3154 : : !loc->wqe_free))
3155 : : return MLX5_TXCMP_CODE_EXIT;
3156 : : return MLX5_TXCMP_CODE_SINGLE;
3157 : : }
3158 : : if (ret != MLX5_TXCMP_CODE_EMPW) {
3159 : : MLX5_ASSERT(false);
3160 : : part -= room;
3161 : : mlx5_tx_idone_empw(txq, loc, part,
3162 : : slen, wqem, olx);
3163 : : return MLX5_TXCMP_CODE_ERROR;
3164 : : }
3165 : : /* Check if we have minimal room left. */
3166 : 0 : nlim--;
3167 [ # # # # : 0 : if (unlikely(!nlim || room < MLX5_WQE_DSEG_SIZE))
# # # # #
# # # #
# ]
3168 : : break;
3169 : : /*
3170 : : * Check whether packet parameters coincide
3171 : : * within assumed eMPW batch:
3172 : : * - check sum settings
3173 : : * - metadata value
3174 : : * - software parser settings
3175 : : * - packets length (legacy MPW only)
3176 : : * - scheduling is not required
3177 : : */
3178 : : if (!mlx5_tx_match_empw(txq, &wqem->eseg,
3179 : : loc, dlen, olx))
3180 : : break;
3181 : : /* Packet attributes match, continue the same eMPW. */
3182 [ # # # # : 0 : if ((uintptr_t)dseg >= (uintptr_t)txq->wqes_end)
# # # # #
# # # #
# ]
3183 : 0 : dseg = (struct mlx5_wqe_dseg *)txq->wqes;
3184 : : }
3185 : : /*
3186 : : * We get here to close an existing eMPW
3187 : : * session and start the new one.
3188 : : */
3189 : : MLX5_ASSERT(pkts_n);
3190 : 0 : part -= room;
3191 [ # # # # : 0 : if (unlikely(!part))
# # # # #
# # # #
# ]
3192 : : return MLX5_TXCMP_CODE_EXIT;
3193 : : mlx5_tx_idone_empw(txq, loc, part, slen, wqem, olx);
3194 [ # # # # : 0 : if (unlikely(!loc->elts_free ||
# # # # #
# # # # #
# # # # #
# # # # #
# # # # ]
3195 : : !loc->wqe_free))
3196 : : return MLX5_TXCMP_CODE_EXIT;
3197 : : /* Continue the loop with new eMPW session. */
3198 : : }
3199 : : MLX5_ASSERT(false);
3200 : : }
3201 : :
3202 : : /**
3203 : : * The routine sends packets with ordinary MLX5_OPCODE_SEND.
3204 : : * Data inlining and VLAN insertion are supported.
3205 : : */
3206 : : static __rte_always_inline enum mlx5_txcmp_code
3207 : : mlx5_tx_burst_single_send(struct mlx5_txq_data *__rte_restrict txq,
3208 : : struct rte_mbuf **__rte_restrict pkts,
3209 : : unsigned int pkts_n,
3210 : : struct mlx5_txq_local *__rte_restrict loc,
3211 : : unsigned int olx)
3212 : : {
3213 : : /*
3214 : : * Subroutine is the part of mlx5_tx_burst_single()
3215 : : * and sends single-segment packet with SEND opcode.
3216 : : */
3217 : : MLX5_ASSERT(loc->elts_free && loc->wqe_free);
3218 : : MLX5_ASSERT(pkts_n > loc->pkts_sent);
3219 : 0 : pkts += loc->pkts_sent + 1;
3220 : 0 : pkts_n -= loc->pkts_sent;
3221 : : for (;;) {
3222 : : struct mlx5_wqe *__rte_restrict wqe;
3223 : : enum mlx5_txcmp_code ret;
3224 : :
3225 : : MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
3226 : : MLX5_ASSERT(loc->elts_free);
3227 : : if (MLX5_TXOFF_CONFIG(TXPP)) {
3228 : : enum mlx5_txcmp_code wret;
3229 : :
3230 : : /* Generate WAIT for scheduling if requested. */
3231 : : wret = mlx5_tx_schedule_send(txq, loc, 0, olx);
3232 : : if (wret == MLX5_TXCMP_CODE_EXIT)
3233 : : return MLX5_TXCMP_CODE_EXIT;
3234 : : if (wret == MLX5_TXCMP_CODE_ERROR)
3235 : : return MLX5_TXCMP_CODE_ERROR;
3236 : : }
3237 : : if (MLX5_TXOFF_CONFIG(INLINE)) {
3238 : : unsigned int inlen, vlan = 0;
3239 : :
3240 : 0 : inlen = rte_pktmbuf_data_len(loc->mbuf);
3241 : 0 : if (MLX5_TXOFF_CONFIG(VLAN) &&
3242 [ # # # # : 0 : loc->mbuf->ol_flags & RTE_MBUF_F_TX_VLAN) {
# # # # ]
3243 : : vlan = sizeof(struct rte_vlan_hdr);
3244 : 0 : inlen += vlan;
3245 : : }
3246 : : /*
3247 : : * If inlining is enabled at configuration time
3248 : : * the limit must be not less than minimal size.
3249 : : * Otherwise we would do extra check for data
3250 : : * size to avoid crashes due to length overflow.
3251 : : */
3252 : : MLX5_ASSERT(txq->inlen_send >=
3253 : : MLX5_ESEG_MIN_INLINE_SIZE);
3254 [ # # # # : 0 : if (inlen <= txq->inlen_send) {
# # # # #
# # # #
# ]
3255 : : unsigned int seg_n, wqe_n;
3256 : :
3257 : 0 : rte_prefetch0(rte_pktmbuf_mtod
3258 : : (loc->mbuf, uint8_t *));
3259 : : /* Check against minimal length. */
3260 [ # # # # : 0 : if (inlen <= MLX5_ESEG_MIN_INLINE_SIZE)
# # # # #
# # # #
# ]
3261 : : return MLX5_TXCMP_CODE_ERROR;
3262 [ # # # # : 0 : if (loc->mbuf->ol_flags &
# # # # #
# # # #
# ]
3263 : : RTE_MBUF_F_TX_DYNF_NOINLINE) {
3264 : : /*
3265 : : * The hint flag not to inline packet
3266 : : * data is set. Check whether we can
3267 : : * follow the hint.
3268 : : */
3269 : : if ((!MLX5_TXOFF_CONFIG(EMPW) &&
3270 [ # # # # : 0 : txq->inlen_mode) ||
# # # # #
# # # #
# ]
3271 : : (MLX5_TXOFF_CONFIG(MPW) &&
3272 : : txq->inlen_mode)) {
3273 : : if (inlen <= txq->inlen_send)
3274 : 0 : goto single_inline;
3275 : : /*
3276 : : * The hardware requires the
3277 : : * minimal inline data header.
3278 : : */
3279 : : goto single_min_inline;
3280 : : }
3281 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(VLAN) &&
# # # # ]
3282 [ # # # # : 0 : vlan && !txq->vlan_en) {
# # # # ]
3283 : : /*
3284 : : * We must insert VLAN tag
3285 : : * by software means.
3286 : : */
3287 : 0 : goto single_part_inline;
3288 : : }
3289 : 0 : goto single_no_inline;
3290 : : }
3291 : 0 : single_inline:
3292 : : /*
3293 : : * Completely inlined packet data WQE:
3294 : : * - Control Segment, SEND opcode
3295 : : * - Ethernet Segment, no VLAN insertion
3296 : : * - Data inlined, VLAN optionally inserted
3297 : : * - Alignment to MLX5_WSEG_SIZE
3298 : : * Have to estimate amount of WQEBBs
3299 : : */
3300 : 0 : seg_n = (inlen + 3 * MLX5_WSEG_SIZE -
3301 : : MLX5_ESEG_MIN_INLINE_SIZE +
3302 : 0 : MLX5_WSEG_SIZE - 1) / MLX5_WSEG_SIZE;
3303 : : /* Check if there are enough WQEBBs. */
3304 : 0 : wqe_n = (seg_n + 3) / 4;
3305 [ # # # # : 0 : if (wqe_n > loc->wqe_free)
# # # # #
# # # #
# ]
3306 : : return MLX5_TXCMP_CODE_EXIT;
3307 [ # # # # : 0 : wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
# # # # #
# # # #
# ]
3308 : : loc->wqe_last = wqe;
3309 : : mlx5_tx_cseg_init(txq, loc, wqe, seg_n,
3310 : : MLX5_OPCODE_SEND, olx);
3311 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
3312 : : mlx5_tx_eseg_data(txq, loc, wqe,
3313 : : vlan, inlen, 0, olx);
3314 : 0 : txq->wqe_ci += wqe_n;
3315 [ # # # # : 0 : loc->wqe_free -= wqe_n;
# # # # ]
3316 : : /*
3317 : : * Packet data are completely inlined,
3318 : : * free the packet immediately.
3319 : : */
3320 : : rte_pktmbuf_free_seg(loc->mbuf);
3321 : : } else if ((!MLX5_TXOFF_CONFIG(EMPW) ||
3322 : 0 : MLX5_TXOFF_CONFIG(MPW)) &&
3323 [ # # # # : 0 : txq->inlen_mode) {
# # # # #
# # # #
# ]
3324 : : /*
3325 : : * If minimal inlining is requested the eMPW
3326 : : * feature should be disabled due to data is
3327 : : * inlined into Ethernet Segment, which can
3328 : : * not contain inlined data for eMPW due to
3329 : : * segment shared for all packets.
3330 : : */
3331 : : struct mlx5_wqe_dseg *__rte_restrict dseg;
3332 : : unsigned int ds;
3333 : : uint8_t *dptr;
3334 : :
3335 : : /*
3336 : : * The inline-mode settings require
3337 : : * to inline the specified amount of
3338 : : * data bytes to the Ethernet Segment.
3339 : : * We should check the free space in
3340 : : * WQE ring buffer to inline partially.
3341 : : */
3342 : 0 : single_min_inline:
3343 : : MLX5_ASSERT(txq->inlen_send >= txq->inlen_mode);
3344 : : MLX5_ASSERT(inlen > txq->inlen_mode);
3345 : : MLX5_ASSERT(txq->inlen_mode >=
3346 : : MLX5_ESEG_MIN_INLINE_SIZE);
3347 : : /*
3348 : : * Check whether there are enough free WQEBBs:
3349 : : * - Control Segment
3350 : : * - Ethernet Segment
3351 : : * - First Segment of inlined Ethernet data
3352 : : * - ... data continued ...
3353 : : * - Finishing Data Segment of pointer type
3354 : : */
3355 : 0 : ds = (MLX5_WQE_CSEG_SIZE +
3356 : : MLX5_WQE_ESEG_SIZE +
3357 : : MLX5_WQE_DSEG_SIZE +
3358 : 0 : txq->inlen_mode -
3359 : : MLX5_ESEG_MIN_INLINE_SIZE +
3360 : : MLX5_WQE_DSEG_SIZE +
3361 : 0 : MLX5_WSEG_SIZE - 1) / MLX5_WSEG_SIZE;
3362 [ # # # # : 0 : if (loc->wqe_free < ((ds + 3) / 4))
# # # # #
# # # #
# ]
3363 : : return MLX5_TXCMP_CODE_EXIT;
3364 : : /*
3365 : : * Build the ordinary SEND WQE:
3366 : : * - Control Segment
3367 : : * - Ethernet Segment, inline inlen_mode bytes
3368 : : * - Data Segment of pointer type
3369 : : */
3370 [ # # # # : 0 : wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
# # # # #
# # # #
# ]
3371 : : loc->wqe_last = wqe;
3372 : : mlx5_tx_cseg_init(txq, loc, wqe, ds,
3373 : : MLX5_OPCODE_SEND, olx);
3374 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
3375 [ # # # # : 0 : dseg = mlx5_tx_eseg_data(txq, loc, wqe, vlan,
# # # # #
# # # #
# ]
3376 : : txq->inlen_mode,
3377 : : 0, olx);
3378 : 0 : dptr = rte_pktmbuf_mtod(loc->mbuf, uint8_t *) +
3379 : 0 : txq->inlen_mode - vlan;
3380 [ # # # # : 0 : inlen -= txq->inlen_mode;
# # # # #
# # # #
# ]
3381 : : mlx5_tx_dseg_ptr(txq, loc, dseg,
3382 : : dptr, inlen, olx);
3383 : : /*
3384 : : * WQE is built, update the loop parameters
3385 : : * and got to the next packet.
3386 : : */
3387 : 0 : txq->wqe_ci += (ds + 3) / 4;
3388 : 0 : loc->wqe_free -= (ds + 3) / 4;
3389 : : /* We have to store mbuf in elts.*/
3390 : : MLX5_ASSERT(MLX5_TXOFF_CONFIG(INLINE));
3391 : 0 : txq->elts[txq->elts_head++ & txq->elts_m] =
3392 : : loc->mbuf;
3393 : 0 : --loc->elts_free;
3394 : : } else {
3395 : : uint8_t *dptr;
3396 : : unsigned int dlen;
3397 : :
3398 : : /*
3399 : : * Partially inlined packet data WQE, we have
3400 : : * some space in title WQEBB, we can fill it
3401 : : * with some packet data. It takes one WQEBB,
3402 : : * it is available, no extra space check:
3403 : : * - Control Segment, SEND opcode
3404 : : * - Ethernet Segment, no VLAN insertion
3405 : : * - MLX5_ESEG_MIN_INLINE_SIZE bytes of Data
3406 : : * - Data Segment, pointer type
3407 : : *
3408 : : * We also get here if VLAN insertion is not
3409 : : * supported by HW, the inline is enabled.
3410 : : */
3411 : 0 : single_part_inline:
3412 [ # # # # : 0 : wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
# # # # #
# # # #
# ]
3413 : : loc->wqe_last = wqe;
3414 : : mlx5_tx_cseg_init(txq, loc, wqe, 4,
3415 : : MLX5_OPCODE_SEND, olx);
3416 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
3417 : : mlx5_tx_eseg_dmin(txq, loc, wqe, vlan, olx);
3418 : 0 : dptr = rte_pktmbuf_mtod(loc->mbuf, uint8_t *) +
3419 : 0 : MLX5_ESEG_MIN_INLINE_SIZE - vlan;
3420 : : /*
3421 : : * The length check is performed above, by
3422 : : * comparing with txq->inlen_send. We should
3423 : : * not get overflow here.
3424 : : */
3425 : : MLX5_ASSERT(inlen > MLX5_ESEG_MIN_INLINE_SIZE);
3426 [ # # # # : 0 : dlen = inlen - MLX5_ESEG_MIN_INLINE_SIZE;
# # # # #
# # # #
# ]
3427 : : mlx5_tx_dseg_ptr(txq, loc, &wqe->dseg[1],
3428 : : dptr, dlen, olx);
3429 : 0 : ++txq->wqe_ci;
3430 : 0 : --loc->wqe_free;
3431 : : /* We have to store mbuf in elts.*/
3432 : : MLX5_ASSERT(MLX5_TXOFF_CONFIG(INLINE));
3433 : 0 : txq->elts[txq->elts_head++ & txq->elts_m] =
3434 : : loc->mbuf;
3435 : 0 : --loc->elts_free;
3436 : : }
3437 : : #ifdef MLX5_PMD_SOFT_COUNTERS
3438 : : /* Update sent data bytes counter. */
3439 : 0 : txq->stats.obytes += vlan +
3440 : 0 : rte_pktmbuf_data_len(loc->mbuf);
3441 : : #endif
3442 : : } else {
3443 : : /*
3444 : : * No inline at all, it means the CPU cycles saving
3445 : : * is prioritized at configuration, we should not
3446 : : * copy any packet data to WQE.
3447 : : *
3448 : : * SEND WQE, one WQEBB:
3449 : : * - Control Segment, SEND opcode
3450 : : * - Ethernet Segment, optional VLAN, no inline
3451 : : * - Data Segment, pointer type
3452 : : */
3453 : : single_no_inline:
3454 [ # # # # : 0 : wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
3455 : : loc->wqe_last = wqe;
3456 : : mlx5_tx_cseg_init(txq, loc, wqe, 3,
3457 : : MLX5_OPCODE_SEND, olx);
3458 : : rte_pmd_mlx5_trace_tx_push(loc->mbuf, txq->wqe_ci);
3459 : : mlx5_tx_eseg_none(txq, loc, wqe, olx);
3460 : 0 : mlx5_tx_dseg_ptr
3461 : : (txq, loc, &wqe->dseg[0],
3462 : 0 : rte_pktmbuf_mtod(loc->mbuf, uint8_t *),
3463 [ # # # # : 0 : rte_pktmbuf_data_len(loc->mbuf), olx);
# # # # #
# # # # #
# # # # #
# # # ]
3464 : 0 : ++txq->wqe_ci;
3465 : 0 : --loc->wqe_free;
3466 : : /*
3467 : : * We should not store mbuf pointer in elts
3468 : : * if no inlining is configured, this is done
3469 : : * by calling routine in a batch copy.
3470 : : */
3471 : : if (MLX5_TXOFF_CONFIG(INLINE))
3472 : 0 : txq->elts[txq->elts_head++ & txq->elts_m] =
3473 : : loc->mbuf;
3474 : 0 : --loc->elts_free;
3475 : : #ifdef MLX5_PMD_SOFT_COUNTERS
3476 : : /* Update sent data bytes counter. */
3477 : 0 : txq->stats.obytes += rte_pktmbuf_data_len(loc->mbuf);
3478 : 0 : if (MLX5_TXOFF_CONFIG(VLAN) &&
3479 [ # # # # : 0 : loc->mbuf->ol_flags & RTE_MBUF_F_TX_VLAN)
# # # # #
# # # #
# ]
3480 : 0 : txq->stats.obytes +=
3481 : : sizeof(struct rte_vlan_hdr);
3482 : : #endif
3483 : : }
3484 : 0 : ++loc->pkts_sent;
3485 : 0 : --pkts_n;
3486 [ # # # # : 0 : if (unlikely(!pkts_n || !loc->elts_free || !loc->wqe_free))
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
3487 : : return MLX5_TXCMP_CODE_EXIT;
3488 : 0 : loc->mbuf = *pkts++;
3489 [ # # # # : 0 : if (pkts_n > 1)
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
3490 : 0 : rte_prefetch0(*pkts);
3491 : : ret = mlx5_tx_able_to_empw(txq, loc, olx, true);
3492 [ # # # # : 0 : if (unlikely(ret != MLX5_TXCMP_CODE_SINGLE))
# # # # #
# # # #
# ]
3493 : : return ret;
3494 : : }
3495 : : MLX5_ASSERT(false);
3496 : : }
3497 : :
3498 : : static __rte_always_inline enum mlx5_txcmp_code
3499 : : mlx5_tx_burst_single(struct mlx5_txq_data *__rte_restrict txq,
3500 : : struct rte_mbuf **__rte_restrict pkts,
3501 : : unsigned int pkts_n,
3502 : : struct mlx5_txq_local *__rte_restrict loc,
3503 : : unsigned int olx)
3504 : : {
3505 : : enum mlx5_txcmp_code ret;
3506 : :
3507 : : ret = mlx5_tx_able_to_empw(txq, loc, olx, false);
3508 : : if (ret == MLX5_TXCMP_CODE_SINGLE)
3509 : 0 : goto ordinary_send;
3510 : : MLX5_ASSERT(ret == MLX5_TXCMP_CODE_EMPW);
3511 : : for (;;) {
3512 : : /* Optimize for inline/no inline eMPW send. */
3513 : : ret = (MLX5_TXOFF_CONFIG(INLINE)) ?
3514 : : mlx5_tx_burst_empw_inline
3515 : : (txq, pkts, pkts_n, loc, olx) :
3516 : : mlx5_tx_burst_empw_simple
3517 : : (txq, pkts, pkts_n, loc, olx);
3518 [ # # # # : 0 : if (ret != MLX5_TXCMP_CODE_SINGLE)
# # ]
3519 : : return ret;
3520 : : /* The resources to send one packet should remain. */
3521 : : MLX5_ASSERT(loc->elts_free && loc->wqe_free);
3522 : 0 : ordinary_send:
3523 : : ret = mlx5_tx_burst_single_send(txq, pkts, pkts_n, loc, olx);
3524 : : MLX5_ASSERT(ret != MLX5_TXCMP_CODE_SINGLE);
3525 [ # # # # : 0 : if (ret != MLX5_TXCMP_CODE_EMPW)
# # # # #
# # # #
# ]
3526 : : return ret;
3527 : : /* The resources to send one packet should remain. */
3528 : : MLX5_ASSERT(loc->elts_free && loc->wqe_free);
3529 : : }
3530 : : }
3531 : :
3532 : : /**
3533 : : * DPDK Tx callback template. This is configured template used to generate
3534 : : * routines optimized for specified offload setup.
3535 : : * One of this generated functions is chosen at SQ configuration time.
3536 : : *
3537 : : * @param txq
3538 : : * Generic pointer to TX queue structure.
3539 : : * @param[in] pkts
3540 : : * Packets to transmit.
3541 : : * @param pkts_n
3542 : : * Number of packets in array.
3543 : : * @param olx
3544 : : * Configured offloads mask, presents the bits of MLX5_TXOFF_CONFIG_xxx
3545 : : * values. Should be static to take compile time static configuration
3546 : : * advantages.
3547 : : *
3548 : : * @return
3549 : : * Number of packets successfully transmitted (<= pkts_n).
3550 : : */
3551 : : static __rte_always_inline uint16_t
3552 : : mlx5_tx_burst_tmpl(struct mlx5_txq_data *__rte_restrict txq,
3553 : : struct rte_mbuf **__rte_restrict pkts,
3554 : : uint16_t pkts_n,
3555 : : unsigned int olx)
3556 : : {
3557 : : struct mlx5_txq_local loc;
3558 : : enum mlx5_txcmp_code ret;
3559 : : unsigned int part;
3560 : :
3561 : : MLX5_ASSERT(txq->elts_s >= (uint16_t)(txq->elts_head - txq->elts_tail));
3562 : : MLX5_ASSERT(txq->wqe_s >= (uint16_t)(txq->wqe_ci - txq->wqe_pi));
3563 [ # # # # : 0 : if (unlikely(!pkts_n))
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
3564 : : return 0;
3565 : : if (MLX5_TXOFF_CONFIG(INLINE))
3566 : : loc.mbuf_free = 0;
3567 : : loc.pkts_sent = 0;
3568 : : loc.pkts_copy = 0;
3569 : : loc.wqe_last = NULL;
3570 : :
3571 : 0 : send_loop:
3572 : : loc.pkts_loop = loc.pkts_sent;
3573 : : /*
3574 : : * Check if there are some CQEs, if any:
3575 : : * - process an encountered errors
3576 : : * - process the completed WQEs
3577 : : * - free related mbufs
3578 : : * - doorbell the NIC about processed CQEs
3579 : : */
3580 : 0 : rte_prefetch0(*(pkts + loc.pkts_sent));
3581 : 0 : mlx5_tx_handle_completion(txq, olx);
3582 : : /*
3583 : : * Calculate the number of available resources - elts and WQEs.
3584 : : * There are two possible different scenarios:
3585 : : * - no data inlining into WQEs, one WQEBB may contains up to
3586 : : * four packets, in this case elts become scarce resource
3587 : : * - data inlining into WQEs, one packet may require multiple
3588 : : * WQEBBs, the WQEs become the limiting factor.
3589 : : */
3590 : : MLX5_ASSERT(txq->elts_s >= (uint16_t)(txq->elts_head - txq->elts_tail));
3591 : 0 : loc.elts_free = txq->elts_s -
3592 : 0 : (uint16_t)(txq->elts_head - txq->elts_tail);
3593 : : MLX5_ASSERT(txq->wqe_s >= (uint16_t)(txq->wqe_ci - txq->wqe_pi));
3594 : 0 : loc.wqe_free = txq->wqe_s -
3595 : 0 : (uint16_t)(txq->wqe_ci - txq->wqe_pi);
3596 [ # # # # : 0 : if (unlikely(!loc.elts_free || !loc.wqe_free))
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
3597 : 0 : goto burst_exit;
3598 : : for (;;) {
3599 : : /*
3600 : : * Fetch the packet from array. Usually this is the first
3601 : : * packet in series of multi/single segment packets.
3602 : : */
3603 : 0 : loc.mbuf = *(pkts + loc.pkts_sent);
3604 : : /* Dedicated branch for multi-segment packets. */
3605 : 0 : if (MLX5_TXOFF_CONFIG(MULTI) &&
3606 [ # # # # : 0 : unlikely(NB_SEGS(loc.mbuf) > 1)) {
# # # # #
# # # ]
3607 : : /*
3608 : : * Multi-segment packet encountered.
3609 : : * Hardware is able to process it only
3610 : : * with SEND/TSO opcodes, one packet
3611 : : * per WQE, do it in dedicated routine.
3612 : : */
3613 : 0 : enter_send_multi:
3614 : : MLX5_ASSERT(loc.pkts_sent >= loc.pkts_copy);
3615 : 0 : part = loc.pkts_sent - loc.pkts_copy;
3616 [ # # # # : 0 : if (!MLX5_TXOFF_CONFIG(INLINE) && part) {
# # ]
3617 : : /*
3618 : : * There are some single-segment mbufs not
3619 : : * stored in elts. The mbufs must be in the
3620 : : * same order as WQEs, so we must copy the
3621 : : * mbufs to elts here, before the coming
3622 : : * multi-segment packet mbufs is appended.
3623 : : */
3624 [ # # # # : 0 : mlx5_tx_copy_elts(txq, pkts + loc.pkts_copy,
# # ]
3625 : : part, olx);
3626 : : loc.pkts_copy = loc.pkts_sent;
3627 : : }
3628 : : MLX5_ASSERT(pkts_n > loc.pkts_sent);
3629 : 0 : ret = mlx5_tx_burst_mseg(txq, pkts, pkts_n, &loc, olx);
3630 : : if (!MLX5_TXOFF_CONFIG(INLINE))
3631 : : loc.pkts_copy = loc.pkts_sent;
3632 : : /*
3633 : : * These returned code checks are supposed
3634 : : * to be optimized out due to routine inlining.
3635 : : */
3636 [ # # # # : 0 : if (ret == MLX5_TXCMP_CODE_EXIT) {
# # # # #
# # # ]
3637 : : /*
3638 : : * The routine returns this code when
3639 : : * all packets are sent or there is no
3640 : : * enough resources to complete request.
3641 : : */
3642 : : break;
3643 : : }
3644 [ # # # # : 0 : if (ret == MLX5_TXCMP_CODE_ERROR) {
# # # # #
# # # ]
3645 : : /*
3646 : : * The routine returns this code when some error
3647 : : * in the incoming packets format occurred.
3648 : : */
3649 : 0 : txq->stats.oerrors++;
3650 : 0 : break;
3651 : : }
3652 [ # # # # : 0 : if (ret == MLX5_TXCMP_CODE_SINGLE) {
# # # # #
# # # ]
3653 : : /*
3654 : : * The single-segment packet was encountered
3655 : : * in the array, try to send it with the
3656 : : * best optimized way, possible engaging eMPW.
3657 : : */
3658 : 0 : goto enter_send_single;
3659 : : }
3660 : : if (MLX5_TXOFF_CONFIG(TSO) &&
3661 : : ret == MLX5_TXCMP_CODE_TSO) {
3662 : : /*
3663 : : * The single-segment TSO packet was
3664 : : * encountered in the array.
3665 : : */
3666 : 0 : goto enter_send_tso;
3667 : : }
3668 : : /* We must not get here. Something is going wrong. */
3669 : : MLX5_ASSERT(false);
3670 : : txq->stats.oerrors++;
3671 : : break;
3672 : : }
3673 : : /* Dedicated branch for single-segment TSO packets. */
3674 : 0 : if (MLX5_TXOFF_CONFIG(TSO) &&
3675 [ # # # # : 0 : unlikely(loc.mbuf->ol_flags & RTE_MBUF_F_TX_TCP_SEG)) {
# # # # #
# # # ]
3676 : : /*
3677 : : * TSO might require special way for inlining
3678 : : * (dedicated parameters) and is sent with
3679 : : * MLX5_OPCODE_TSO opcode only, provide this
3680 : : * in dedicated branch.
3681 : : */
3682 : 0 : enter_send_tso:
3683 : : MLX5_ASSERT(NB_SEGS(loc.mbuf) == 1);
3684 : : MLX5_ASSERT(pkts_n > loc.pkts_sent);
3685 : 0 : ret = mlx5_tx_burst_tso(txq, pkts, pkts_n, &loc, olx);
3686 : : /*
3687 : : * These returned code checks are supposed
3688 : : * to be optimized out due to routine inlining.
3689 : : */
3690 [ # # # # : 0 : if (ret == MLX5_TXCMP_CODE_EXIT)
# # # # #
# # # ]
3691 : : break;
3692 [ # # # # : 0 : if (ret == MLX5_TXCMP_CODE_ERROR) {
# # # # #
# # # ]
3693 : 0 : txq->stats.oerrors++;
3694 : 0 : break;
3695 : : }
3696 [ # # # # : 0 : if (ret == MLX5_TXCMP_CODE_SINGLE)
# # # # #
# # # ]
3697 : 0 : goto enter_send_single;
3698 : : if (MLX5_TXOFF_CONFIG(MULTI) &&
3699 : : ret == MLX5_TXCMP_CODE_MULTI) {
3700 : : /*
3701 : : * The multi-segment packet was
3702 : : * encountered in the array.
3703 : : */
3704 : 0 : goto enter_send_multi;
3705 : : }
3706 : : /* We must not get here. Something is going wrong. */
3707 : : MLX5_ASSERT(false);
3708 : : txq->stats.oerrors++;
3709 : : break;
3710 : : }
3711 : : /*
3712 : : * The dedicated branch for the single-segment packets
3713 : : * without TSO. Often these ones can be sent using
3714 : : * MLX5_OPCODE_EMPW with multiple packets in one WQE.
3715 : : * The routine builds the WQEs till it encounters
3716 : : * the TSO or multi-segment packet (in case if these
3717 : : * offloads are requested at SQ configuration time).
3718 : : */
3719 : 0 : enter_send_single:
3720 : : MLX5_ASSERT(pkts_n > loc.pkts_sent);
3721 [ # # # # : 0 : ret = mlx5_tx_burst_single(txq, pkts, pkts_n, &loc, olx);
# # # # #
# # # #
# ]
3722 : : /*
3723 : : * These returned code checks are supposed
3724 : : * to be optimized out due to routine inlining.
3725 : : */
3726 [ # # # # : 0 : if (ret == MLX5_TXCMP_CODE_EXIT)
# # # # #
# # # # #
# # # # #
# ]
3727 : : break;
3728 [ # # # # : 0 : if (ret == MLX5_TXCMP_CODE_ERROR) {
# # # # #
# ]
3729 : 0 : txq->stats.oerrors++;
3730 : 0 : break;
3731 : : }
3732 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(MULTI) &&
# # # # #
# # # ]
3733 : : ret == MLX5_TXCMP_CODE_MULTI) {
3734 : : /*
3735 : : * The multi-segment packet was
3736 : : * encountered in the array.
3737 : : */
3738 : 0 : goto enter_send_multi;
3739 : : }
3740 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(TSO) &&
# # # # #
# # # ]
3741 : : ret == MLX5_TXCMP_CODE_TSO) {
3742 : : /*
3743 : : * The single-segment TSO packet was
3744 : : * encountered in the array.
3745 : : */
3746 : 0 : goto enter_send_tso;
3747 : : }
3748 : : /* We must not get here. Something is going wrong. */
3749 : : MLX5_ASSERT(false);
3750 : 0 : txq->stats.oerrors++;
3751 : 0 : break;
3752 : : }
3753 : : /*
3754 : : * Main Tx loop is completed, do the rest:
3755 : : * - set completion request if thresholds are reached
3756 : : * - doorbell the hardware
3757 : : * - copy the rest of mbufs to elts (if any)
3758 : : */
3759 : : MLX5_ASSERT(MLX5_TXOFF_CONFIG(INLINE) ||
3760 : : loc.pkts_sent >= loc.pkts_copy);
3761 : : /* Take a shortcut if nothing is sent. */
3762 [ # # # # : 0 : if (unlikely(loc.pkts_sent == loc.pkts_loop))
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
3763 : 0 : goto burst_exit;
3764 : : /* Request CQE generation if limits are reached. */
3765 : : if (MLX5_TXOFF_CONFIG(TXPP) && __rte_trace_point_fp_is_enabled())
3766 : : mlx5_tx_request_completion_trace(txq, &loc, olx);
3767 : : else
3768 : : mlx5_tx_request_completion(txq, &loc, olx);
3769 : : /*
3770 : : * Ring QP doorbell immediately after WQE building completion
3771 : : * to improve latencies. The pure software related data treatment
3772 : : * can be completed after doorbell. Tx CQEs for this SQ are
3773 : : * processed in this thread only by the polling.
3774 : : *
3775 : : * The rdma core library can map doorbell register in two ways,
3776 : : * depending on the environment variable "MLX5_SHUT_UP_BF":
3777 : : *
3778 : : * - as regular cached memory, the variable is either missing or
3779 : : * set to zero. This type of mapping may cause the significant
3780 : : * doorbell register writing latency and requires explicit memory
3781 : : * write barrier to mitigate this issue and prevent write combining.
3782 : : *
3783 : : * - as non-cached memory, the variable is present and set to not "0"
3784 : : * value. This type of mapping may cause performance impact under
3785 : : * heavy loading conditions but the explicit write memory barrier is
3786 : : * not required and it may improve core performance.
3787 : : *
3788 : : * - the legacy behaviour (prior 19.08 release) was to use some
3789 : : * heuristics to decide whether write memory barrier should
3790 : : * be performed. This behavior is supported with specifying
3791 : : * tx_db_nc=2, write barrier is skipped if application provides
3792 : : * the full recommended burst of packets, it supposes the next
3793 : : * packets are coming and the write barrier will be issued on
3794 : : * the next burst (after descriptor writing, at least).
3795 : : */
3796 : 0 : mlx5_doorbell_ring(mlx5_tx_bfreg(txq),
3797 : 0 : *(volatile uint64_t *)loc.wqe_last, txq->wqe_ci,
3798 [ # # # # : 0 : txq->qp_db, !txq->db_nc &&
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
3799 [ # # # # : 0 : (!txq->db_heu || pkts_n % MLX5_TX_DEFAULT_BURST));
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
3800 : : /* Not all of the mbufs may be stored into elts yet. */
3801 : : part = MLX5_TXOFF_CONFIG(INLINE) ? 0 : loc.pkts_sent - loc.pkts_copy;
3802 [ # # # # : 0 : if (!MLX5_TXOFF_CONFIG(INLINE) && part) {
# # # # #
# # # # #
# # ]
3803 : : /*
3804 : : * There are some single-segment mbufs not stored in elts.
3805 : : * It can be only if the last packet was single-segment.
3806 : : * The copying is gathered into one place due to it is
3807 : : * a good opportunity to optimize that with SIMD.
3808 : : * Unfortunately if inlining is enabled the gaps in pointer
3809 : : * array may happen due to early freeing of the inlined mbufs.
3810 : : */
3811 [ # # # # : 0 : mlx5_tx_copy_elts(txq, pkts + loc.pkts_copy, part, olx);
# # # # #
# # # # #
# # ]
3812 : : loc.pkts_copy = loc.pkts_sent;
3813 : : }
3814 : : MLX5_ASSERT(txq->elts_s >= (uint16_t)(txq->elts_head - txq->elts_tail));
3815 : : MLX5_ASSERT(txq->wqe_s >= (uint16_t)(txq->wqe_ci - txq->wqe_pi));
3816 [ # # # # : 0 : if (pkts_n > loc.pkts_sent) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# ]
3817 : : /*
3818 : : * If burst size is large there might be no enough CQE
3819 : : * fetched from completion queue and no enough resources
3820 : : * freed to send all the packets.
3821 : : */
3822 : 0 : goto send_loop;
3823 : : }
3824 : 0 : burst_exit:
3825 : : #ifdef MLX5_PMD_SOFT_COUNTERS
3826 : : /* Increment sent packets counter. */
3827 : 0 : txq->stats.opackets += loc.pkts_sent;
3828 : : #endif
3829 [ # # # # : 0 : if (MLX5_TXOFF_CONFIG(INLINE) && loc.mbuf_free)
# # # # #
# # # #
# ]
3830 : 0 : __mlx5_tx_free_mbuf(txq, pkts, loc.mbuf_free, olx);
3831 : : /* Trace productive bursts only. */
3832 : : if (__rte_trace_point_fp_is_enabled() && loc.pkts_sent)
3833 : : rte_pmd_mlx5_trace_tx_exit(mlx5_read_pcibar_clock_from_txq(txq),
3834 : : loc.pkts_sent, pkts_n);
3835 : : return loc.pkts_sent;
3836 : : }
3837 : :
3838 : : /**
3839 : : * Check whether given TxQ is external.
3840 : : *
3841 : : * @param dev
3842 : : * Pointer to Ethernet device.
3843 : : * @param queue_idx
3844 : : * Tx queue index.
3845 : : *
3846 : : * @return
3847 : : * True if is external TxQ, otherwise false.
3848 : : */
3849 : : static __rte_always_inline bool
3850 : : mlx5_is_external_txq(struct rte_eth_dev *dev, uint16_t queue_idx)
3851 : : {
3852 : 0 : struct mlx5_priv *priv = dev->data->dev_private;
3853 : : struct mlx5_external_q *txq;
3854 : :
3855 [ # # # # ]: 0 : if (!priv->ext_txqs || queue_idx < MLX5_EXTERNAL_TX_QUEUE_ID_MIN)
3856 : : return false;
3857 : 0 : txq = &priv->ext_txqs[queue_idx - MLX5_EXTERNAL_TX_QUEUE_ID_MIN];
3858 [ # # ]: 0 : return !!rte_atomic_load_explicit(&txq->refcnt, rte_memory_order_relaxed);
3859 : : }
3860 : :
3861 : : #endif /* RTE_PMD_MLX5_TX_H_ */
|