LCOV - code coverage report
Current view: top level - drivers/net/gve - gve_tx.c (source / functions) Hit Total Coverage
Test: Code coverage Lines: 0 391 0.0 %
Date: 2025-03-01 20:23:48 Functions: 0 17 0.0 %
Legend: Lines: hit not hit | Branches: + taken - not taken # not executed Branches: 0 220 0.0 %

           Branch data     Line data    Source code
       1                 :            : /* SPDX-License-Identifier: BSD-3-Clause
       2                 :            :  * Copyright(C) 2022 Intel Corporation
       3                 :            :  */
       4                 :            : 
       5                 :            : #include "gve_ethdev.h"
       6                 :            : #include "base/gve_adminq.h"
       7                 :            : 
       8                 :            : static inline void
       9                 :          0 : gve_free_bulk_mbuf(struct rte_mbuf **txep, int num)
      10                 :            : {
      11                 :            :         struct rte_mbuf *m, *free[GVE_TX_MAX_FREE_SZ];
      12                 :            :         int nb_free = 0;
      13                 :            :         int i, s;
      14                 :            : 
      15         [ #  # ]:          0 :         if (unlikely(num == 0))
      16                 :          0 :                 return;
      17                 :            : 
      18                 :            :         /* Find the 1st mbuf which needs to be free */
      19         [ #  # ]:          0 :         for (s = 0; s < num; s++) {
      20         [ #  # ]:          0 :                 if (txep[s] != NULL) {
      21                 :            :                         m = rte_pktmbuf_prefree_seg(txep[s]);
      22                 :            :                         if (m != NULL)
      23                 :            :                                 break;
      24                 :            :                 }
      25                 :            :         }
      26                 :            : 
      27         [ #  # ]:          0 :         if (s == num)
      28                 :            :                 return;
      29                 :            : 
      30                 :          0 :         free[0] = m;
      31                 :            :         nb_free = 1;
      32         [ #  # ]:          0 :         for (i = s + 1; i < num; i++) {
      33         [ #  # ]:          0 :                 if (likely(txep[i] != NULL)) {
      34                 :            :                         m = rte_pktmbuf_prefree_seg(txep[i]);
      35         [ #  # ]:          0 :                         if (likely(m != NULL)) {
      36         [ #  # ]:          0 :                                 if (likely(m->pool == free[0]->pool)) {
      37                 :          0 :                                         free[nb_free++] = m;
      38                 :            :                                 } else {
      39         [ #  # ]:          0 :                                         rte_mempool_put_bulk(free[0]->pool, (void *)free, nb_free);
      40                 :          0 :                                         free[0] = m;
      41                 :            :                                         nb_free = 1;
      42                 :            :                                 }
      43                 :            :                         }
      44                 :          0 :                         txep[i] = NULL;
      45                 :            :                 }
      46                 :            :         }
      47         [ #  # ]:          0 :         rte_mempool_put_bulk(free[0]->pool, (void **)free, nb_free);
      48                 :            : }
      49                 :            : 
      50                 :            : static inline void
      51                 :          0 : gve_tx_clean(struct gve_tx_queue *txq)
      52                 :            : {
      53                 :          0 :         uint16_t mask = txq->nb_tx_desc - 1;
      54                 :          0 :         uint32_t start = txq->next_to_clean & mask;
      55                 :            :         uint32_t ntc, nb_clean, i;
      56                 :            :         struct gve_tx_iovec *iov;
      57                 :            : 
      58                 :          0 :         ntc = rte_be_to_cpu_32(rte_read32(txq->qtx_head));
      59                 :          0 :         ntc = ntc & mask;
      60                 :            : 
      61         [ #  # ]:          0 :         if (ntc == start)
      62                 :            :                 return;
      63                 :            : 
      64                 :            :         /* if wrap around, free twice. */
      65         [ #  # ]:          0 :         if (ntc < start) {
      66                 :          0 :                 nb_clean = txq->nb_tx_desc - start;
      67                 :            :                 if (nb_clean > GVE_TX_MAX_FREE_SZ)
      68                 :            :                         nb_clean = GVE_TX_MAX_FREE_SZ;
      69         [ #  # ]:          0 :                 if (txq->is_gqi_qpl) {
      70         [ #  # ]:          0 :                         for (i = start; i < start + nb_clean; i++) {
      71                 :          0 :                                 iov = &txq->iov_ring[i];
      72                 :          0 :                                 txq->fifo_avail += iov->iov_len;
      73                 :          0 :                                 iov->iov_base = 0;
      74                 :          0 :                                 iov->iov_len = 0;
      75                 :            :                         }
      76                 :            :                 } else {
      77                 :          0 :                         gve_free_bulk_mbuf(&txq->sw_ring[start], nb_clean);
      78                 :            :                 }
      79                 :          0 :                 txq->nb_free += nb_clean;
      80                 :          0 :                 start += nb_clean;
      81         [ #  # ]:          0 :                 if (start == txq->nb_tx_desc)
      82                 :            :                         start = 0;
      83                 :          0 :                 txq->next_to_clean += nb_clean;
      84                 :            :         }
      85                 :            : 
      86         [ #  # ]:          0 :         if (ntc > start) {
      87                 :          0 :                 nb_clean = ntc - start;
      88                 :            :                 if (nb_clean > GVE_TX_MAX_FREE_SZ)
      89                 :            :                         nb_clean = GVE_TX_MAX_FREE_SZ;
      90         [ #  # ]:          0 :                 if (txq->is_gqi_qpl) {
      91         [ #  # ]:          0 :                         for (i = start; i < start + nb_clean; i++) {
      92                 :          0 :                                 iov = &txq->iov_ring[i];
      93                 :          0 :                                 txq->fifo_avail += iov->iov_len;
      94                 :          0 :                                 iov->iov_base = 0;
      95                 :          0 :                                 iov->iov_len = 0;
      96                 :            :                         }
      97                 :            :                 } else {
      98                 :          0 :                         gve_free_bulk_mbuf(&txq->sw_ring[start], nb_clean);
      99                 :            :                 }
     100                 :          0 :                 txq->nb_free += nb_clean;
     101                 :          0 :                 txq->next_to_clean += nb_clean;
     102                 :            :         }
     103                 :            : }
     104                 :            : 
     105                 :            : static inline void
     106                 :          0 : gve_tx_clean_swr_qpl(struct gve_tx_queue *txq)
     107                 :            : {
     108                 :          0 :         uint32_t start = txq->sw_ntc;
     109                 :            :         uint32_t ntc, nb_clean;
     110                 :            : 
     111                 :          0 :         ntc = txq->sw_tail;
     112                 :            : 
     113         [ #  # ]:          0 :         if (ntc == start)
     114                 :            :                 return;
     115                 :            : 
     116                 :            :         /* if wrap around, free twice. */
     117         [ #  # ]:          0 :         if (ntc < start) {
     118                 :          0 :                 nb_clean = txq->nb_tx_desc - start;
     119                 :            :                 if (nb_clean > GVE_TX_MAX_FREE_SZ)
     120                 :            :                         nb_clean = GVE_TX_MAX_FREE_SZ;
     121                 :          0 :                 gve_free_bulk_mbuf(&txq->sw_ring[start], nb_clean);
     122                 :            : 
     123                 :          0 :                 txq->sw_nb_free += nb_clean;
     124                 :          0 :                 start += nb_clean;
     125         [ #  # ]:          0 :                 if (start == txq->nb_tx_desc)
     126                 :            :                         start = 0;
     127                 :          0 :                 txq->sw_ntc = start;
     128                 :            :         }
     129                 :            : 
     130         [ #  # ]:          0 :         if (ntc > start) {
     131                 :          0 :                 nb_clean = ntc - start;
     132                 :            :                 if (nb_clean > GVE_TX_MAX_FREE_SZ)
     133                 :            :                         nb_clean = GVE_TX_MAX_FREE_SZ;
     134                 :          0 :                 gve_free_bulk_mbuf(&txq->sw_ring[start], nb_clean);
     135                 :          0 :                 txq->sw_nb_free += nb_clean;
     136                 :          0 :                 start += nb_clean;
     137                 :          0 :                 txq->sw_ntc = start;
     138                 :            :         }
     139                 :            : }
     140                 :            : 
     141                 :            : static inline void
     142                 :          0 : gve_tx_fill_pkt_desc(volatile union gve_tx_desc *desc, struct rte_mbuf *mbuf,
     143                 :            :                      uint8_t desc_cnt, uint16_t len, uint64_t addr)
     144                 :            : {
     145                 :          0 :         uint64_t csum_l4 = mbuf->ol_flags & RTE_MBUF_F_TX_L4_MASK;
     146                 :            :         uint8_t l4_csum_offset = 0;
     147                 :            :         uint8_t l4_hdr_offset = 0;
     148                 :            : 
     149         [ #  # ]:          0 :         if (mbuf->ol_flags & RTE_MBUF_F_TX_TCP_SEG)
     150                 :          0 :                 csum_l4 |= RTE_MBUF_F_TX_TCP_CKSUM;
     151                 :            : 
     152   [ #  #  #  # ]:          0 :         switch (csum_l4) {
     153                 :          0 :         case RTE_MBUF_F_TX_TCP_CKSUM:
     154                 :            :                 l4_csum_offset = offsetof(struct rte_tcp_hdr, cksum);
     155                 :          0 :                 l4_hdr_offset = mbuf->l2_len + mbuf->l3_len;
     156                 :          0 :                 break;
     157                 :          0 :         case RTE_MBUF_F_TX_UDP_CKSUM:
     158                 :            :                 l4_csum_offset = offsetof(struct rte_udp_hdr, dgram_cksum);
     159                 :          0 :                 l4_hdr_offset = mbuf->l2_len + mbuf->l3_len;
     160                 :          0 :                 break;
     161                 :          0 :         case RTE_MBUF_F_TX_SCTP_CKSUM:
     162                 :            :                 l4_csum_offset = offsetof(struct rte_sctp_hdr, cksum);
     163                 :          0 :                 l4_hdr_offset = mbuf->l2_len + mbuf->l3_len;
     164                 :          0 :                 break;
     165                 :            :         }
     166                 :            : 
     167         [ #  # ]:          0 :         if (mbuf->ol_flags & RTE_MBUF_F_TX_TCP_SEG) {
     168                 :          0 :                 desc->pkt.type_flags = GVE_TXD_TSO | GVE_TXF_L4CSUM;
     169                 :          0 :                 desc->pkt.l4_csum_offset = l4_csum_offset >> 1;
     170                 :          0 :                 desc->pkt.l4_hdr_offset = l4_hdr_offset >> 1;
     171         [ #  # ]:          0 :         } else if (mbuf->ol_flags & RTE_MBUF_F_TX_L4_MASK) {
     172                 :          0 :                 desc->pkt.type_flags = GVE_TXD_STD | GVE_TXF_L4CSUM;
     173                 :          0 :                 desc->pkt.l4_csum_offset = l4_csum_offset >> 1;
     174                 :          0 :                 desc->pkt.l4_hdr_offset = l4_hdr_offset >> 1;
     175                 :            :         } else {
     176                 :          0 :                 desc->pkt.type_flags = GVE_TXD_STD;
     177                 :          0 :                 desc->pkt.l4_csum_offset = 0;
     178                 :          0 :                 desc->pkt.l4_hdr_offset = 0;
     179                 :            :         }
     180                 :          0 :         desc->pkt.desc_cnt = desc_cnt;
     181         [ #  # ]:          0 :         desc->pkt.len = rte_cpu_to_be_16(mbuf->pkt_len);
     182         [ #  # ]:          0 :         desc->pkt.seg_len = rte_cpu_to_be_16(len);
     183         [ #  # ]:          0 :         desc->pkt.seg_addr = rte_cpu_to_be_64(addr);
     184                 :          0 : }
     185                 :            : 
     186                 :            : static inline void
     187                 :          0 : gve_tx_fill_seg_desc(volatile union gve_tx_desc *desc, uint64_t ol_flags,
     188                 :            :                       union gve_tx_offload tx_offload,
     189                 :            :                       uint16_t len, uint64_t addr)
     190                 :            : {
     191                 :          0 :         desc->seg.type_flags = GVE_TXD_SEG;
     192         [ #  # ]:          0 :         if (ol_flags & RTE_MBUF_F_TX_TCP_SEG) {
     193         [ #  # ]:          0 :                 if (ol_flags & RTE_MBUF_F_TX_IPV6)
     194                 :          0 :                         desc->seg.type_flags |= GVE_TXSF_IPV6;
     195                 :          0 :                 desc->seg.l3_offset = tx_offload.l2_len >> 1;
     196         [ #  # ]:          0 :                 desc->seg.mss = rte_cpu_to_be_16(tx_offload.tso_segsz);
     197                 :            :         }
     198         [ #  # ]:          0 :         desc->seg.seg_len = rte_cpu_to_be_16(len);
     199         [ #  # ]:          0 :         desc->seg.seg_addr = rte_cpu_to_be_64(addr);
     200                 :          0 : }
     201                 :            : 
     202                 :            : static inline bool
     203                 :            : is_fifo_avail(struct gve_tx_queue *txq, uint16_t len)
     204                 :            : {
     205         [ #  # ]:          0 :         if (txq->fifo_avail < len)
     206                 :            :                 return false;
     207                 :            :         /* Don't split segment. */
     208   [ #  #  #  #  :          0 :         if (txq->fifo_head + len > txq->fifo_size &&
             #  #  #  # ]
     209   [ #  #  #  #  :          0 :             txq->fifo_size - txq->fifo_head + len > txq->fifo_avail)
             #  #  #  # ]
     210                 :            :                 return false;
     211                 :            :         return true;
     212                 :            : }
     213                 :            : static inline uint64_t
     214                 :          0 : gve_tx_alloc_from_fifo(struct gve_tx_queue *txq, uint16_t tx_id, uint16_t len)
     215                 :            : {
     216                 :          0 :         uint32_t head = txq->fifo_head;
     217                 :          0 :         uint32_t size = txq->fifo_size;
     218                 :            :         struct gve_tx_iovec *iov;
     219                 :            :         uint32_t aligned_head;
     220                 :            :         uint32_t iov_len = 0;
     221                 :            :         uint64_t fifo_addr;
     222                 :            : 
     223                 :          0 :         iov = &txq->iov_ring[tx_id];
     224                 :            : 
     225                 :            :         /* Don't split segment */
     226         [ #  # ]:          0 :         if (head + len > size) {
     227                 :          0 :                 iov_len += (size - head);
     228                 :            :                 head = 0;
     229                 :            :         }
     230                 :            : 
     231                 :          0 :         fifo_addr = head;
     232                 :          0 :         iov_len += len;
     233                 :          0 :         iov->iov_base = head;
     234                 :            : 
     235                 :            :         /* Re-align to a cacheline for next head */
     236                 :          0 :         head += len;
     237                 :          0 :         aligned_head = RTE_ALIGN(head, RTE_CACHE_LINE_SIZE);
     238                 :          0 :         iov_len += (aligned_head - head);
     239                 :          0 :         iov->iov_len = iov_len;
     240                 :            : 
     241         [ #  # ]:          0 :         if (aligned_head == txq->fifo_size)
     242                 :            :                 aligned_head = 0;
     243                 :          0 :         txq->fifo_head = aligned_head;
     244                 :          0 :         txq->fifo_avail -= iov_len;
     245                 :            : 
     246                 :          0 :         return fifo_addr;
     247                 :            : }
     248                 :            : 
     249                 :            : static inline uint16_t
     250                 :          0 : gve_tx_burst_qpl(void *tx_queue, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
     251                 :            : {
     252                 :          0 :         union gve_tx_offload tx_offload = {0};
     253                 :            :         volatile union gve_tx_desc *txr, *txd;
     254                 :            :         struct gve_tx_queue *txq = tx_queue;
     255                 :          0 :         struct rte_mbuf **sw_ring = txq->sw_ring;
     256                 :          0 :         uint16_t mask = txq->nb_tx_desc - 1;
     257                 :          0 :         uint16_t tx_id = txq->tx_tail & mask;
     258                 :            :         uint64_t ol_flags, addr, fifo_addr;
     259                 :            :         uint32_t tx_tail = txq->tx_tail;
     260                 :            :         struct rte_mbuf *tx_pkt, *first;
     261                 :          0 :         uint16_t sw_id = txq->sw_tail;
     262                 :            :         uint16_t nb_used, i;
     263                 :            :         uint64_t bytes = 0;
     264                 :            :         uint16_t nb_tx = 0;
     265                 :            :         uint32_t hlen;
     266                 :            : 
     267                 :          0 :         txr = txq->tx_desc_ring;
     268                 :            : 
     269   [ #  #  #  # ]:          0 :         if (txq->nb_free < txq->free_thresh || txq->fifo_avail == 0)
     270                 :          0 :                 gve_tx_clean(txq);
     271                 :            : 
     272         [ #  # ]:          0 :         if (txq->sw_nb_free < txq->free_thresh)
     273                 :          0 :                 gve_tx_clean_swr_qpl(txq);
     274                 :            : 
     275         [ #  # ]:          0 :         for (nb_tx = 0; nb_tx < nb_pkts; nb_tx++) {
     276                 :          0 :                 tx_pkt = *tx_pkts++;
     277                 :          0 :                 ol_flags = tx_pkt->ol_flags;
     278                 :            : 
     279         [ #  # ]:          0 :                 if (txq->sw_nb_free < tx_pkt->nb_segs) {
     280                 :          0 :                         gve_tx_clean_swr_qpl(txq);
     281         [ #  # ]:          0 :                         if (txq->sw_nb_free < tx_pkt->nb_segs)
     282                 :          0 :                                 goto end_of_tx;
     283                 :            :                 }
     284                 :            : 
     285                 :            :                 /* Even for multi-segs, use 1 qpl buf for data */
     286                 :            :                 nb_used = 1;
     287         [ #  # ]:          0 :                 if (ol_flags & RTE_MBUF_F_TX_TCP_SEG)
     288                 :            :                         nb_used++;
     289                 :            : 
     290         [ #  # ]:          0 :                 if (txq->nb_free < nb_used)
     291                 :          0 :                         goto end_of_tx;
     292                 :            : 
     293                 :          0 :                 tx_offload.l2_len = tx_pkt->l2_len;
     294                 :          0 :                 tx_offload.l3_len = tx_pkt->l3_len;
     295                 :          0 :                 tx_offload.l4_len = tx_pkt->l4_len;
     296                 :          0 :                 tx_offload.tso_segsz = tx_pkt->tso_segsz;
     297                 :            : 
     298                 :            :                 first = tx_pkt;
     299                 :          0 :                 txd = &txr[tx_id];
     300                 :            :                 hlen = ol_flags & RTE_MBUF_F_TX_TCP_SEG ?
     301         [ #  # ]:          0 :                         (uint32_t)(tx_offload.l2_len + tx_offload.l3_len + tx_offload.l4_len) :
     302                 :            :                         tx_pkt->pkt_len;
     303                 :            : 
     304                 :          0 :                 sw_ring[sw_id] = tx_pkt;
     305         [ #  # ]:          0 :                 if (!is_fifo_avail(txq, hlen)) {
     306                 :          0 :                         gve_tx_clean(txq);
     307                 :            :                         if (!is_fifo_avail(txq, hlen))
     308                 :          0 :                                 goto end_of_tx;
     309                 :            :                 }
     310                 :          0 :                 addr = (uint64_t)(tx_pkt->buf_addr) + tx_pkt->data_off;
     311                 :          0 :                 fifo_addr = gve_tx_alloc_from_fifo(txq, tx_id, hlen);
     312                 :            : 
     313                 :            :                 /* For TSO, check if there's enough fifo space for data first */
     314         [ #  # ]:          0 :                 if (ol_flags & RTE_MBUF_F_TX_TCP_SEG) {
     315         [ #  # ]:          0 :                         if (!is_fifo_avail(txq, tx_pkt->pkt_len - hlen)) {
     316                 :          0 :                                 gve_tx_clean(txq);
     317         [ #  # ]:          0 :                                 if (!is_fifo_avail(txq, tx_pkt->pkt_len - hlen))
     318                 :          0 :                                         goto end_of_tx;
     319                 :            :                         }
     320                 :            :                 }
     321   [ #  #  #  # ]:          0 :                 if (tx_pkt->nb_segs == 1 || ol_flags & RTE_MBUF_F_TX_TCP_SEG)
     322         [ #  # ]:          0 :                         rte_memcpy((void *)(size_t)(fifo_addr + txq->fifo_base),
     323                 :            :                                    (void *)(size_t)addr, hlen);
     324                 :            :                 else
     325                 :          0 :                         rte_pktmbuf_read(tx_pkt, 0, hlen,
     326                 :          0 :                                          (void *)(size_t)(fifo_addr + txq->fifo_base));
     327                 :          0 :                 gve_tx_fill_pkt_desc(txd, tx_pkt, nb_used, hlen, fifo_addr);
     328                 :            : 
     329         [ #  # ]:          0 :                 if (ol_flags & RTE_MBUF_F_TX_TCP_SEG) {
     330                 :          0 :                         tx_id = (tx_id + 1) & mask;
     331                 :          0 :                         txd = &txr[tx_id];
     332                 :          0 :                         addr = (uint64_t)(tx_pkt->buf_addr) + tx_pkt->data_off + hlen;
     333                 :          0 :                         fifo_addr = gve_tx_alloc_from_fifo(txq, tx_id, tx_pkt->pkt_len - hlen);
     334         [ #  # ]:          0 :                         if (tx_pkt->nb_segs == 1)
     335                 :          0 :                                 rte_memcpy((void *)(size_t)(fifo_addr + txq->fifo_base),
     336                 :            :                                            (void *)(size_t)addr,
     337         [ #  # ]:          0 :                                            tx_pkt->pkt_len - hlen);
     338                 :            :                         else
     339                 :          0 :                                 rte_pktmbuf_read(tx_pkt, hlen, tx_pkt->pkt_len - hlen,
     340                 :          0 :                                                  (void *)(size_t)(fifo_addr + txq->fifo_base));
     341                 :            : 
     342                 :          0 :                         gve_tx_fill_seg_desc(txd, ol_flags, tx_offload,
     343                 :          0 :                                              tx_pkt->pkt_len - hlen, fifo_addr);
     344                 :            :                 }
     345                 :            : 
     346                 :            :                 /* record mbuf in sw_ring for free */
     347         [ #  # ]:          0 :                 for (i = 1; i < first->nb_segs; i++) {
     348                 :          0 :                         sw_id = (sw_id + 1) & mask;
     349                 :          0 :                         tx_pkt = tx_pkt->next;
     350                 :          0 :                         sw_ring[sw_id] = tx_pkt;
     351                 :            :                 }
     352                 :            : 
     353                 :          0 :                 sw_id = (sw_id + 1) & mask;
     354                 :          0 :                 tx_id = (tx_id + 1) & mask;
     355                 :            : 
     356                 :          0 :                 txq->nb_free -= nb_used;
     357                 :          0 :                 txq->sw_nb_free -= first->nb_segs;
     358                 :          0 :                 tx_tail += nb_used;
     359                 :            : 
     360                 :          0 :                 bytes += first->pkt_len;
     361                 :            :         }
     362                 :            : 
     363                 :          0 : end_of_tx:
     364         [ #  # ]:          0 :         if (nb_tx) {
     365         [ #  # ]:          0 :                 rte_write32(rte_cpu_to_be_32(tx_tail), txq->qtx_tail);
     366                 :          0 :                 txq->tx_tail = tx_tail;
     367                 :          0 :                 txq->sw_tail = sw_id;
     368                 :            : 
     369                 :          0 :                 txq->stats.packets += nb_tx;
     370                 :          0 :                 txq->stats.bytes += bytes;
     371                 :          0 :                 txq->stats.errors += nb_pkts - nb_tx;
     372                 :            :         }
     373                 :            : 
     374                 :          0 :         return nb_tx;
     375                 :            : }
     376                 :            : 
     377                 :            : static inline uint16_t
     378                 :          0 : gve_tx_burst_ra(void *tx_queue, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
     379                 :            : {
     380                 :          0 :         union gve_tx_offload tx_offload = {0};
     381                 :            :         volatile union gve_tx_desc *txr, *txd;
     382                 :            :         struct gve_tx_queue *txq = tx_queue;
     383                 :          0 :         struct rte_mbuf **sw_ring = txq->sw_ring;
     384                 :          0 :         uint16_t mask = txq->nb_tx_desc - 1;
     385                 :          0 :         uint16_t tx_id = txq->tx_tail & mask;
     386                 :            :         uint32_t tx_tail = txq->tx_tail;
     387                 :            :         struct rte_mbuf *tx_pkt, *first;
     388                 :            :         uint16_t nb_used, hlen, i;
     389                 :            :         uint64_t ol_flags, addr;
     390                 :            :         uint64_t bytes = 0;
     391                 :            :         uint16_t nb_tx = 0;
     392                 :            : 
     393                 :          0 :         txr = txq->tx_desc_ring;
     394                 :            : 
     395         [ #  # ]:          0 :         if (txq->nb_free < txq->free_thresh)
     396                 :          0 :                 gve_tx_clean(txq);
     397                 :            : 
     398         [ #  # ]:          0 :         for (nb_tx = 0; nb_tx < nb_pkts; nb_tx++) {
     399                 :          0 :                 tx_pkt = *tx_pkts++;
     400                 :          0 :                 ol_flags = tx_pkt->ol_flags;
     401                 :            : 
     402                 :          0 :                 nb_used = tx_pkt->nb_segs;
     403         [ #  # ]:          0 :                 if (ol_flags & RTE_MBUF_F_TX_TCP_SEG)
     404                 :          0 :                         nb_used++;
     405                 :            : 
     406         [ #  # ]:          0 :                 if (txq->nb_free < nb_used)
     407                 :          0 :                         goto end_of_tx;
     408                 :            : 
     409                 :          0 :                 tx_offload.l2_len = tx_pkt->l2_len;
     410                 :          0 :                 tx_offload.l3_len = tx_pkt->l3_len;
     411                 :          0 :                 tx_offload.l4_len = tx_pkt->l4_len;
     412                 :          0 :                 tx_offload.tso_segsz = tx_pkt->tso_segsz;
     413                 :            : 
     414                 :            :                 first = tx_pkt;
     415                 :          0 :                 txd = &txr[tx_id];
     416                 :            : 
     417         [ #  # ]:          0 :                 hlen = ol_flags & RTE_MBUF_F_TX_TCP_SEG ?
     418                 :          0 :                         (uint32_t)(tx_offload.l2_len + tx_offload.l3_len + tx_offload.l4_len) :
     419                 :          0 :                         tx_pkt->pkt_len;
     420                 :            :                 /*
     421                 :            :                  * if tso, the driver needs to fill 2 descs for 1 mbuf
     422                 :            :                  * so only put this mbuf into the 1st tx entry in sw ring
     423                 :            :                  */
     424                 :          0 :                 sw_ring[tx_id] = tx_pkt;
     425                 :            :                 addr = rte_mbuf_data_iova(tx_pkt);
     426                 :          0 :                 gve_tx_fill_pkt_desc(txd, tx_pkt, nb_used, hlen, addr);
     427                 :            : 
     428         [ #  # ]:          0 :                 if (ol_flags & RTE_MBUF_F_TX_TCP_SEG) {
     429                 :          0 :                         tx_id = (tx_id + 1) & mask;
     430                 :          0 :                         txd = &txr[tx_id];
     431                 :          0 :                         addr = rte_mbuf_data_iova(tx_pkt) + hlen;
     432                 :          0 :                         gve_tx_fill_seg_desc(txd, ol_flags, tx_offload,
     433                 :          0 :                                              tx_pkt->data_len - hlen, addr);
     434                 :            :                 }
     435                 :            : 
     436         [ #  # ]:          0 :                 for (i = 1; i < first->nb_segs; i++) {
     437                 :          0 :                         tx_id = (tx_id + 1) & mask;
     438                 :          0 :                         txd = &txr[tx_id];
     439                 :          0 :                         tx_pkt = tx_pkt->next;
     440                 :          0 :                         sw_ring[tx_id] = tx_pkt;
     441                 :            :                         addr = rte_mbuf_data_iova(tx_pkt);
     442                 :          0 :                         gve_tx_fill_seg_desc(txd, ol_flags, tx_offload,
     443                 :          0 :                                              tx_pkt->data_len, addr);
     444                 :            :                 }
     445                 :          0 :                 tx_id = (tx_id + 1) & mask;
     446                 :            : 
     447                 :          0 :                 txq->nb_free -= nb_used;
     448                 :          0 :                 tx_tail += nb_used;
     449                 :            : 
     450                 :          0 :                 bytes += first->pkt_len;
     451                 :            :         }
     452                 :            : 
     453                 :          0 : end_of_tx:
     454         [ #  # ]:          0 :         if (nb_tx) {
     455         [ #  # ]:          0 :                 rte_write32(rte_cpu_to_be_32(tx_tail), txq->qtx_tail);
     456                 :          0 :                 txq->tx_tail = tx_tail;
     457                 :            : 
     458                 :          0 :                 txq->stats.packets += nb_tx;
     459                 :          0 :                 txq->stats.bytes += bytes;
     460                 :          0 :                 txq->stats.errors += nb_pkts - nb_tx;
     461                 :            :         }
     462                 :            : 
     463                 :          0 :         return nb_tx;
     464                 :            : }
     465                 :            : 
     466                 :            : uint16_t
     467                 :          0 : gve_tx_burst(void *tx_queue, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
     468                 :            : {
     469                 :            :         struct gve_tx_queue *txq = tx_queue;
     470                 :            : 
     471         [ #  # ]:          0 :         if (txq->is_gqi_qpl)
     472                 :          0 :                 return gve_tx_burst_qpl(tx_queue, tx_pkts, nb_pkts);
     473                 :            : 
     474                 :          0 :         return gve_tx_burst_ra(tx_queue, tx_pkts, nb_pkts);
     475                 :            : }
     476                 :            : 
     477                 :            : static inline void
     478                 :          0 : gve_reset_txq(struct gve_tx_queue *txq)
     479                 :            : {
     480                 :            :         struct rte_mbuf **sw_ring;
     481                 :            :         uint32_t size, i;
     482                 :            : 
     483         [ #  # ]:          0 :         if (txq == NULL) {
     484                 :          0 :                 PMD_DRV_LOG(ERR, "Pointer to txq is NULL");
     485                 :          0 :                 return;
     486                 :            :         }
     487                 :            : 
     488                 :          0 :         size = txq->nb_tx_desc * sizeof(union gve_tx_desc);
     489         [ #  # ]:          0 :         for (i = 0; i < size; i++)
     490                 :          0 :                 ((volatile char *)txq->tx_desc_ring)[i] = 0;
     491                 :            : 
     492                 :          0 :         sw_ring = txq->sw_ring;
     493         [ #  # ]:          0 :         for (i = 0; i < txq->nb_tx_desc; i++) {
     494                 :          0 :                 sw_ring[i] = NULL;
     495         [ #  # ]:          0 :                 if (txq->is_gqi_qpl) {
     496                 :          0 :                         txq->iov_ring[i].iov_base = 0;
     497                 :          0 :                         txq->iov_ring[i].iov_len = 0;
     498                 :            :                 }
     499                 :            :         }
     500                 :            : 
     501                 :          0 :         txq->tx_tail = 0;
     502                 :          0 :         txq->nb_free = txq->nb_tx_desc - 1;
     503                 :          0 :         txq->next_to_clean = 0;
     504                 :            : 
     505         [ #  # ]:          0 :         if (txq->is_gqi_qpl) {
     506                 :          0 :                 txq->fifo_size = PAGE_SIZE * txq->hw->tx_pages_per_qpl;
     507                 :          0 :                 txq->fifo_avail = txq->fifo_size;
     508                 :          0 :                 txq->fifo_head = 0;
     509                 :          0 :                 txq->fifo_base = (uint64_t)(txq->qpl->mz->addr);
     510                 :            : 
     511                 :          0 :                 txq->sw_tail = 0;
     512                 :          0 :                 txq->sw_nb_free = txq->nb_tx_desc - 1;
     513                 :          0 :                 txq->sw_ntc = 0;
     514                 :            :         }
     515                 :            : }
     516                 :            : 
     517                 :            : static inline void
     518                 :          0 : gve_release_txq_mbufs(struct gve_tx_queue *txq)
     519                 :            : {
     520                 :            :         uint16_t i;
     521                 :            : 
     522         [ #  # ]:          0 :         for (i = 0; i < txq->nb_tx_desc; i++) {
     523         [ #  # ]:          0 :                 if (txq->sw_ring[i]) {
     524                 :            :                         rte_pktmbuf_free_seg(txq->sw_ring[i]);
     525                 :          0 :                         txq->sw_ring[i] = NULL;
     526                 :            :                 }
     527                 :            :         }
     528                 :          0 : }
     529                 :            : 
     530                 :            : void
     531                 :          0 : gve_tx_queue_release(struct rte_eth_dev *dev, uint16_t qid)
     532                 :            : {
     533                 :          0 :         struct gve_tx_queue *q = dev->data->tx_queues[qid];
     534                 :            : 
     535         [ #  # ]:          0 :         if (!q)
     536                 :            :                 return;
     537                 :            : 
     538         [ #  # ]:          0 :         if (q->is_gqi_qpl) {
     539                 :          0 :                 gve_teardown_queue_page_list(q->hw, q->qpl);
     540                 :          0 :                 rte_free(q->iov_ring);
     541                 :          0 :                 q->qpl = NULL;
     542                 :            :         }
     543                 :            : 
     544                 :          0 :         gve_release_txq_mbufs(q);
     545                 :          0 :         rte_free(q->sw_ring);
     546                 :          0 :         rte_memzone_free(q->mz);
     547                 :          0 :         rte_memzone_free(q->qres_mz);
     548                 :          0 :         q->qres = NULL;
     549                 :          0 :         rte_free(q);
     550                 :            : }
     551                 :            : 
     552                 :            : int
     553                 :          0 : gve_tx_queue_setup(struct rte_eth_dev *dev, uint16_t queue_id, uint16_t nb_desc,
     554                 :            :                    unsigned int socket_id, const struct rte_eth_txconf *conf)
     555                 :            : {
     556                 :          0 :         struct gve_priv *hw = dev->data->dev_private;
     557                 :            :         const struct rte_memzone *mz;
     558                 :            :         struct gve_tx_queue *txq;
     559                 :            :         uint16_t free_thresh;
     560                 :            :         int err = 0;
     561                 :            : 
     562                 :            :         /* Ring size is required to be a power of two. */
     563         [ #  # ]:          0 :         if (!rte_is_power_of_2(nb_desc)) {
     564                 :          0 :                 PMD_DRV_LOG(ERR, "Invalid ring size %u. GVE ring size must be a power of 2.",
     565                 :            :                             nb_desc);
     566                 :          0 :                 return -EINVAL;
     567                 :            :         }
     568                 :            : 
     569                 :            :         /* Free memory if needed. */
     570         [ #  # ]:          0 :         if (dev->data->tx_queues[queue_id]) {
     571                 :          0 :                 gve_tx_queue_release(dev, queue_id);
     572                 :          0 :                 dev->data->tx_queues[queue_id] = NULL;
     573                 :            :         }
     574                 :            : 
     575                 :            :         /* Allocate the TX queue data structure. */
     576                 :          0 :         txq = rte_zmalloc_socket("gve txq", sizeof(struct gve_tx_queue),
     577                 :            :                                  RTE_CACHE_LINE_SIZE, socket_id);
     578         [ #  # ]:          0 :         if (!txq) {
     579                 :          0 :                 PMD_DRV_LOG(ERR, "Failed to allocate memory for tx queue structure");
     580                 :            :                 err = -ENOMEM;
     581                 :          0 :                 goto err_txq;
     582                 :            :         }
     583                 :            : 
     584         [ #  # ]:          0 :         free_thresh = conf->tx_free_thresh ? conf->tx_free_thresh : GVE_DEFAULT_TX_FREE_THRESH;
     585         [ #  # ]:          0 :         if (free_thresh >= nb_desc - 3) {
     586                 :          0 :                 PMD_DRV_LOG(ERR, "tx_free_thresh (%u) must be less than nb_desc (%u) minus 3.",
     587                 :            :                             free_thresh, txq->nb_tx_desc);
     588                 :            :                 err = -EINVAL;
     589                 :          0 :                 goto err_txq;
     590                 :            :         }
     591                 :            : 
     592                 :          0 :         txq->nb_tx_desc = nb_desc;
     593                 :          0 :         txq->free_thresh = free_thresh;
     594                 :          0 :         txq->queue_id = queue_id;
     595                 :          0 :         txq->port_id = dev->data->port_id;
     596                 :          0 :         txq->ntfy_id = queue_id;
     597                 :          0 :         txq->is_gqi_qpl = hw->queue_format == GVE_GQI_QPL_FORMAT;
     598                 :          0 :         txq->hw = hw;
     599         [ #  # ]:          0 :         txq->ntfy_addr = &hw->db_bar2[rte_be_to_cpu_32(hw->irq_dbs[txq->ntfy_id].id)];
     600                 :            : 
     601                 :            :         /* Allocate software ring */
     602                 :          0 :         txq->sw_ring = rte_zmalloc_socket("gve tx sw ring",
     603                 :            :                                           sizeof(struct rte_mbuf *) * nb_desc,
     604                 :            :                                           RTE_CACHE_LINE_SIZE, socket_id);
     605         [ #  # ]:          0 :         if (!txq->sw_ring) {
     606                 :          0 :                 PMD_DRV_LOG(ERR, "Failed to allocate memory for SW TX ring");
     607                 :            :                 err = -ENOMEM;
     608                 :          0 :                 goto err_txq;
     609                 :            :         }
     610                 :            : 
     611                 :          0 :         mz = rte_eth_dma_zone_reserve(dev, "tx_ring", queue_id,
     612                 :            :                                       nb_desc * sizeof(union gve_tx_desc),
     613                 :            :                                       PAGE_SIZE, socket_id);
     614         [ #  # ]:          0 :         if (mz == NULL) {
     615                 :          0 :                 PMD_DRV_LOG(ERR, "Failed to reserve DMA memory for TX");
     616                 :            :                 err = -ENOMEM;
     617                 :          0 :                 goto err_sw_ring;
     618                 :            :         }
     619                 :          0 :         txq->tx_desc_ring = (union gve_tx_desc *)mz->addr;
     620                 :          0 :         txq->tx_ring_phys_addr = mz->iova;
     621                 :          0 :         txq->mz = mz;
     622                 :            : 
     623                 :            :         /* QPL-specific allocations. */
     624         [ #  # ]:          0 :         if (txq->is_gqi_qpl) {
     625                 :          0 :                 txq->iov_ring = rte_zmalloc_socket("gve tx iov ring",
     626                 :            :                                                    sizeof(struct gve_tx_iovec) * nb_desc,
     627                 :            :                                                    RTE_CACHE_LINE_SIZE, socket_id);
     628         [ #  # ]:          0 :                 if (!txq->iov_ring) {
     629                 :          0 :                         PMD_DRV_LOG(ERR, "Failed to allocate memory for SW TX ring");
     630                 :            :                         err = -ENOMEM;
     631                 :          0 :                         goto err_tx_ring;
     632                 :            :                 }
     633                 :            : 
     634                 :          0 :                 txq->qpl = gve_setup_queue_page_list(hw, queue_id, false,
     635                 :          0 :                                                      hw->tx_pages_per_qpl);
     636         [ #  # ]:          0 :                 if (!txq->qpl) {
     637                 :            :                         err = -ENOMEM;
     638                 :          0 :                         PMD_DRV_LOG(ERR, "Failed to alloc tx qpl for queue %hu.",
     639                 :            :                                     queue_id);
     640                 :          0 :                         goto err_iov_ring;
     641                 :            :                 }
     642                 :            :         }
     643                 :            : 
     644                 :          0 :         mz = rte_eth_dma_zone_reserve(dev, "txq_res", queue_id, sizeof(struct gve_queue_resources),
     645                 :            :                                       PAGE_SIZE, socket_id);
     646         [ #  # ]:          0 :         if (mz == NULL) {
     647                 :          0 :                 PMD_DRV_LOG(ERR, "Failed to reserve DMA memory for TX resource");
     648                 :            :                 err = -ENOMEM;
     649                 :          0 :                 goto err_qpl;
     650                 :            :         }
     651                 :          0 :         txq->qres = (struct gve_queue_resources *)mz->addr;
     652                 :          0 :         txq->qres_mz = mz;
     653                 :            : 
     654                 :          0 :         gve_reset_txq(txq);
     655                 :            : 
     656                 :          0 :         dev->data->tx_queues[queue_id] = txq;
     657                 :            : 
     658                 :          0 :         return 0;
     659                 :            : err_qpl:
     660         [ #  # ]:          0 :         if (txq->is_gqi_qpl) {
     661                 :          0 :                 gve_teardown_queue_page_list(hw, txq->qpl);
     662                 :          0 :                 txq->qpl = NULL;
     663                 :            :         }
     664                 :          0 : err_iov_ring:
     665         [ #  # ]:          0 :         if (txq->is_gqi_qpl)
     666                 :          0 :                 rte_free(txq->iov_ring);
     667                 :          0 : err_tx_ring:
     668                 :          0 :         rte_memzone_free(txq->mz);
     669                 :          0 : err_sw_ring:
     670                 :          0 :         rte_free(txq->sw_ring);
     671                 :          0 : err_txq:
     672                 :          0 :         rte_free(txq);
     673                 :          0 :         return err;
     674                 :            : }
     675                 :            : 
     676                 :            : int
     677                 :          0 : gve_tx_queue_start(struct rte_eth_dev *dev, uint16_t tx_queue_id)
     678                 :            : {
     679                 :          0 :         struct gve_priv *hw = dev->data->dev_private;
     680                 :            :         struct gve_tx_queue *txq;
     681                 :            : 
     682         [ #  # ]:          0 :         if (tx_queue_id >= dev->data->nb_tx_queues)
     683                 :            :                 return -EINVAL;
     684                 :            : 
     685                 :          0 :         txq = dev->data->tx_queues[tx_queue_id];
     686                 :            : 
     687         [ #  # ]:          0 :         txq->qtx_tail = &hw->db_bar2[rte_be_to_cpu_32(txq->qres->db_index)];
     688                 :          0 :         txq->qtx_head =
     689         [ #  # ]:          0 :                 &hw->cnt_array[rte_be_to_cpu_32(txq->qres->counter_index)];
     690                 :            : 
     691                 :          0 :         rte_write32(rte_cpu_to_be_32(GVE_IRQ_MASK), txq->ntfy_addr);
     692                 :            : 
     693                 :          0 :         dev->data->tx_queue_state[tx_queue_id] = RTE_ETH_QUEUE_STATE_STARTED;
     694                 :            : 
     695                 :          0 :         return 0;
     696                 :            : }
     697                 :            : 
     698                 :            : int
     699                 :          0 : gve_tx_queue_stop(struct rte_eth_dev *dev, uint16_t tx_queue_id)
     700                 :            : {
     701                 :            :         struct gve_tx_queue *txq;
     702                 :            : 
     703         [ #  # ]:          0 :         if (tx_queue_id >= dev->data->nb_tx_queues)
     704                 :            :                 return -EINVAL;
     705                 :            : 
     706                 :          0 :         txq = dev->data->tx_queues[tx_queue_id];
     707                 :          0 :         gve_release_txq_mbufs(txq);
     708                 :          0 :         gve_reset_txq(txq);
     709                 :            : 
     710                 :          0 :         dev->data->tx_queue_state[tx_queue_id] = RTE_ETH_QUEUE_STATE_STOPPED;
     711                 :            : 
     712                 :          0 :         return 0;
     713                 :            : }
     714                 :            : 
     715                 :            : void
     716                 :          0 : gve_stop_tx_queues(struct rte_eth_dev *dev)
     717                 :            : {
     718         [ #  # ]:          0 :         struct gve_priv *hw = dev->data->dev_private;
     719                 :            :         uint16_t i;
     720                 :            :         int err;
     721                 :            : 
     722         [ #  # ]:          0 :         if (!gve_is_gqi(hw))
     723                 :          0 :                 return gve_stop_tx_queues_dqo(dev);
     724                 :            : 
     725                 :          0 :         err = gve_adminq_destroy_tx_queues(hw, dev->data->nb_tx_queues);
     726         [ #  # ]:          0 :         if (err != 0)
     727                 :          0 :                 PMD_DRV_LOG(WARNING, "failed to destroy txqs");
     728                 :            : 
     729         [ #  # ]:          0 :         for (i = 0; i < dev->data->nb_tx_queues; i++)
     730         [ #  # ]:          0 :                 if (gve_tx_queue_stop(dev, i) != 0)
     731                 :          0 :                         PMD_DRV_LOG(WARNING, "Fail to stop Tx queue %d", i);
     732                 :            : }
     733                 :            : 
     734                 :            : void
     735                 :          0 : gve_set_tx_function(struct rte_eth_dev *dev)
     736                 :            : {
     737                 :          0 :         dev->tx_pkt_burst = gve_tx_burst;
     738                 :          0 : }

Generated by: LCOV version 1.14