LCOV - code coverage report
Current view: top level - drivers/net/ena - ena_ethdev.c (source / functions) Hit Total Coverage
Test: Code coverage Lines: 4 1546 0.3 %
Date: 2025-08-01 17:49:26 Functions: 4 81 4.9 %
Legend: Lines: hit not hit | Branches: + taken - not taken # not executed Branches: 3 794 0.4 %

           Branch data     Line data    Source code
       1                 :            : /* SPDX-License-Identifier: BSD-3-Clause
       2                 :            :  * Copyright (c) 2015-2020 Amazon.com, Inc. or its affiliates.
       3                 :            :  * All rights reserved.
       4                 :            :  */
       5                 :            : 
       6                 :            : #include <rte_alarm.h>
       7                 :            : #include <rte_string_fns.h>
       8                 :            : #include <rte_errno.h>
       9                 :            : #include <rte_version.h>
      10                 :            : #include <rte_net.h>
      11                 :            : #include <rte_kvargs.h>
      12                 :            : 
      13                 :            : #include "ena_ethdev.h"
      14                 :            : #include "ena_logs.h"
      15                 :            : #include "ena_platform.h"
      16                 :            : #include "ena_com.h"
      17                 :            : #include "ena_eth_com.h"
      18                 :            : 
      19                 :            : #include <ena_common_defs.h>
      20                 :            : #include <ena_regs_defs.h>
      21                 :            : #include <ena_admin_defs.h>
      22                 :            : #include <ena_eth_io_defs.h>
      23                 :            : 
      24                 :            : #define DRV_MODULE_VER_MAJOR    2
      25                 :            : #define DRV_MODULE_VER_MINOR    13
      26                 :            : #define DRV_MODULE_VER_SUBMINOR 0
      27                 :            : 
      28                 :            : #define __MERGE_64B_H_L(h, l) (((uint64_t)h << 32) | l)
      29                 :            : 
      30                 :            : #define GET_L4_HDR_LEN(mbuf)                                    \
      31                 :            :         ((rte_pktmbuf_mtod_offset(mbuf, struct rte_tcp_hdr *,   \
      32                 :            :                 mbuf->l3_len + mbuf->l2_len)->data_off) >> 4)
      33                 :            : #define CLAMP_VAL(val, min, max)                                        \
      34                 :            :         (RTE_MIN(RTE_MAX((val), (typeof(val))(min)), (typeof(val))(max)))
      35                 :            : 
      36                 :            : #define ETH_GSTRING_LEN 32
      37                 :            : 
      38                 :            : #define ARRAY_SIZE(x) RTE_DIM(x)
      39                 :            : 
      40                 :            : #define ENA_MIN_RING_DESC       128
      41                 :            : 
      42                 :            : #define USEC_PER_MSEC           1000UL
      43                 :            : 
      44                 :            : #define BITS_PER_BYTE 8
      45                 :            : 
      46                 :            : #define BITS_PER_TYPE(type) (sizeof(type) * BITS_PER_BYTE)
      47                 :            : 
      48                 :            : #define DECIMAL_BASE 10
      49                 :            : 
      50                 :            : #define MAX_WIDE_LLQ_DEPTH_UNSUPPORTED 0
      51                 :            : 
      52                 :            : /*
      53                 :            :  * We should try to keep ENA_CLEANUP_BUF_THRESH lower than
      54                 :            :  * RTE_MEMPOOL_CACHE_MAX_SIZE, so we can fit this in mempool local cache.
      55                 :            :  */
      56                 :            : #define ENA_CLEANUP_BUF_THRESH  256
      57                 :            : 
      58                 :            : struct ena_stats {
      59                 :            :         char name[ETH_GSTRING_LEN];
      60                 :            :         int stat_offset;
      61                 :            : };
      62                 :            : 
      63                 :            : #define ENA_STAT_ENTRY(stat, stat_type) { \
      64                 :            :         .name = #stat, \
      65                 :            :         .stat_offset = offsetof(struct ena_stats_##stat_type, stat) \
      66                 :            : }
      67                 :            : 
      68                 :            : #define ENA_STAT_RX_ENTRY(stat) \
      69                 :            :         ENA_STAT_ENTRY(stat, rx)
      70                 :            : 
      71                 :            : #define ENA_STAT_TX_ENTRY(stat) \
      72                 :            :         ENA_STAT_ENTRY(stat, tx)
      73                 :            : 
      74                 :            : #define ENA_STAT_METRICS_ENTRY(stat) \
      75                 :            :         ENA_STAT_ENTRY(stat, metrics)
      76                 :            : 
      77                 :            : #define ENA_STAT_GLOBAL_ENTRY(stat) \
      78                 :            :         ENA_STAT_ENTRY(stat, dev)
      79                 :            : 
      80                 :            : #define ENA_STAT_ENA_SRD_ENTRY(stat) \
      81                 :            :         ENA_STAT_ENTRY(stat, srd)
      82                 :            : 
      83                 :            : /* Device arguments */
      84                 :            : 
      85                 :            : /* llq_policy Controls whether to disable LLQ, use device recommended
      86                 :            :  * header policy or overriding the device recommendation.
      87                 :            :  * 0 - Disable LLQ. Use with extreme caution as it leads to a huge
      88                 :            :  *     performance degradation on AWS instances built with Nitro v4 onwards.
      89                 :            :  * 1 - Accept device recommended LLQ policy (Default).
      90                 :            :  *     Device can recommend normal or large LLQ policy.
      91                 :            :  * 2 - Enforce normal LLQ policy.
      92                 :            :  * 3 - Enforce large LLQ policy.
      93                 :            :  *     Required for packets with header that exceed 96 bytes on
      94                 :            :  *     AWS instances built with Nitro v2 and Nitro v1.
      95                 :            :  */
      96                 :            : #define ENA_DEVARG_LLQ_POLICY "llq_policy"
      97                 :            : 
      98                 :            : /* Timeout in seconds after which a single uncompleted Tx packet should be
      99                 :            :  * considered as a missing.
     100                 :            :  */
     101                 :            : #define ENA_DEVARG_MISS_TXC_TO "miss_txc_to"
     102                 :            : 
     103                 :            : /*
     104                 :            :  * Controls the period of time (in milliseconds) between two consecutive inspections of
     105                 :            :  * the control queues when the driver is in poll mode and not using interrupts.
     106                 :            :  * By default, this value is zero, indicating that the driver will not be in poll mode and will
     107                 :            :  * use interrupts. A non-zero value for this argument is mandatory when using uio_pci_generic
     108                 :            :  * driver.
     109                 :            :  */
     110                 :            : #define ENA_DEVARG_CONTROL_PATH_POLL_INTERVAL "control_path_poll_interval"
     111                 :            : 
     112                 :            : /*
     113                 :            :  * Toggles fragment bypass mode. Fragmented egress packets are rate limited by
     114                 :            :  * EC2 per ENI; this devarg bypasses the PPS limit but may impact performance.
     115                 :            :  * Disabled by default.
     116                 :            :  */
     117                 :            : #define ENA_DEVARG_ENABLE_FRAG_BYPASS "enable_frag_bypass"
     118                 :            : 
     119                 :            : /*
     120                 :            :  * Each rte_memzone should have unique name.
     121                 :            :  * To satisfy it, count number of allocation and add it to name.
     122                 :            :  */
     123                 :            : rte_atomic64_t ena_alloc_cnt;
     124                 :            : 
     125                 :            : static const struct ena_stats ena_stats_global_strings[] = {
     126                 :            :         ENA_STAT_GLOBAL_ENTRY(wd_expired),
     127                 :            :         ENA_STAT_GLOBAL_ENTRY(dev_start),
     128                 :            :         ENA_STAT_GLOBAL_ENTRY(dev_stop),
     129                 :            :         ENA_STAT_GLOBAL_ENTRY(tx_drops),
     130                 :            : };
     131                 :            : 
     132                 :            : /*
     133                 :            :  * The legacy metrics (also known as eni stats) consisted of 5 stats, while the reworked
     134                 :            :  * metrics (also known as customer metrics) support an additional stat.
     135                 :            :  */
     136                 :            : static struct ena_stats ena_stats_metrics_strings[] = {
     137                 :            :         ENA_STAT_METRICS_ENTRY(bw_in_allowance_exceeded),
     138                 :            :         ENA_STAT_METRICS_ENTRY(bw_out_allowance_exceeded),
     139                 :            :         ENA_STAT_METRICS_ENTRY(pps_allowance_exceeded),
     140                 :            :         ENA_STAT_METRICS_ENTRY(conntrack_allowance_exceeded),
     141                 :            :         ENA_STAT_METRICS_ENTRY(linklocal_allowance_exceeded),
     142                 :            :         ENA_STAT_METRICS_ENTRY(conntrack_allowance_available),
     143                 :            : };
     144                 :            : 
     145                 :            : static const struct ena_stats ena_stats_srd_strings[] = {
     146                 :            :         ENA_STAT_ENA_SRD_ENTRY(ena_srd_mode),
     147                 :            :         ENA_STAT_ENA_SRD_ENTRY(ena_srd_tx_pkts),
     148                 :            :         ENA_STAT_ENA_SRD_ENTRY(ena_srd_eligible_tx_pkts),
     149                 :            :         ENA_STAT_ENA_SRD_ENTRY(ena_srd_rx_pkts),
     150                 :            :         ENA_STAT_ENA_SRD_ENTRY(ena_srd_resource_utilization),
     151                 :            : };
     152                 :            : 
     153                 :            : static const struct ena_stats ena_stats_tx_strings[] = {
     154                 :            :         ENA_STAT_TX_ENTRY(cnt),
     155                 :            :         ENA_STAT_TX_ENTRY(bytes),
     156                 :            :         ENA_STAT_TX_ENTRY(prepare_ctx_err),
     157                 :            :         ENA_STAT_TX_ENTRY(tx_poll),
     158                 :            :         ENA_STAT_TX_ENTRY(doorbells),
     159                 :            :         ENA_STAT_TX_ENTRY(bad_req_id),
     160                 :            :         ENA_STAT_TX_ENTRY(available_desc),
     161                 :            :         ENA_STAT_TX_ENTRY(missed_tx),
     162                 :            : };
     163                 :            : 
     164                 :            : static const struct ena_stats ena_stats_rx_strings[] = {
     165                 :            :         ENA_STAT_RX_ENTRY(cnt),
     166                 :            :         ENA_STAT_RX_ENTRY(bytes),
     167                 :            :         ENA_STAT_RX_ENTRY(refill_partial),
     168                 :            :         ENA_STAT_RX_ENTRY(l3_csum_bad),
     169                 :            :         ENA_STAT_RX_ENTRY(l4_csum_bad),
     170                 :            :         ENA_STAT_RX_ENTRY(l4_csum_good),
     171                 :            :         ENA_STAT_RX_ENTRY(mbuf_alloc_fail),
     172                 :            :         ENA_STAT_RX_ENTRY(bad_desc_num),
     173                 :            :         ENA_STAT_RX_ENTRY(bad_req_id),
     174                 :            :         ENA_STAT_RX_ENTRY(bad_desc),
     175                 :            :         ENA_STAT_RX_ENTRY(unknown_error),
     176                 :            : };
     177                 :            : 
     178                 :            : #define ENA_STATS_ARRAY_GLOBAL  ARRAY_SIZE(ena_stats_global_strings)
     179                 :            : #define ENA_STATS_ARRAY_METRICS ARRAY_SIZE(ena_stats_metrics_strings)
     180                 :            : #define ENA_STATS_ARRAY_METRICS_LEGACY  (ENA_STATS_ARRAY_METRICS - 1)
     181                 :            : #define ENA_STATS_ARRAY_ENA_SRD ARRAY_SIZE(ena_stats_srd_strings)
     182                 :            : #define ENA_STATS_ARRAY_TX      ARRAY_SIZE(ena_stats_tx_strings)
     183                 :            : #define ENA_STATS_ARRAY_RX      ARRAY_SIZE(ena_stats_rx_strings)
     184                 :            : 
     185                 :            : #define QUEUE_OFFLOADS (RTE_ETH_TX_OFFLOAD_TCP_CKSUM |\
     186                 :            :                         RTE_ETH_TX_OFFLOAD_UDP_CKSUM |\
     187                 :            :                         RTE_ETH_TX_OFFLOAD_IPV4_CKSUM |\
     188                 :            :                         RTE_ETH_TX_OFFLOAD_TCP_TSO)
     189                 :            : #define MBUF_OFFLOADS (RTE_MBUF_F_TX_L4_MASK |\
     190                 :            :                        RTE_MBUF_F_TX_IP_CKSUM |\
     191                 :            :                        RTE_MBUF_F_TX_TCP_SEG)
     192                 :            : 
     193                 :            : /** Vendor ID used by Amazon devices */
     194                 :            : #define PCI_VENDOR_ID_AMAZON 0x1D0F
     195                 :            : /** Amazon devices */
     196                 :            : #define PCI_DEVICE_ID_ENA_VF            0xEC20
     197                 :            : #define PCI_DEVICE_ID_ENA_VF_RSERV0     0xEC21
     198                 :            : 
     199                 :            : #define ENA_TX_OFFLOAD_MASK     (RTE_MBUF_F_TX_L4_MASK |         \
     200                 :            :         RTE_MBUF_F_TX_IPV6 |            \
     201                 :            :         RTE_MBUF_F_TX_IPV4 |            \
     202                 :            :         RTE_MBUF_F_TX_IP_CKSUM |        \
     203                 :            :         RTE_MBUF_F_TX_TCP_SEG)
     204                 :            : 
     205                 :            : #define ENA_TX_OFFLOAD_NOTSUP_MASK      \
     206                 :            :         (RTE_MBUF_F_TX_OFFLOAD_MASK ^ ENA_TX_OFFLOAD_MASK)
     207                 :            : 
     208                 :            : /** HW specific offloads capabilities. */
     209                 :            : /* IPv4 checksum offload. */
     210                 :            : #define ENA_L3_IPV4_CSUM                0x0001
     211                 :            : /* TCP/UDP checksum offload for IPv4 packets. */
     212                 :            : #define ENA_L4_IPV4_CSUM                0x0002
     213                 :            : /* TCP/UDP checksum offload for IPv4 packets with pseudo header checksum. */
     214                 :            : #define ENA_L4_IPV4_CSUM_PARTIAL        0x0004
     215                 :            : /* TCP/UDP checksum offload for IPv6 packets. */
     216                 :            : #define ENA_L4_IPV6_CSUM                0x0008
     217                 :            : /* TCP/UDP checksum offload for IPv6 packets with pseudo header checksum. */
     218                 :            : #define ENA_L4_IPV6_CSUM_PARTIAL        0x0010
     219                 :            : /* TSO support for IPv4 packets. */
     220                 :            : #define ENA_IPV4_TSO                    0x0020
     221                 :            : 
     222                 :            : /* Device supports setting RSS hash. */
     223                 :            : #define ENA_RX_RSS_HASH                 0x0040
     224                 :            : 
     225                 :            : static const struct rte_pci_id pci_id_ena_map[] = {
     226                 :            :         { RTE_PCI_DEVICE(PCI_VENDOR_ID_AMAZON, PCI_DEVICE_ID_ENA_VF) },
     227                 :            :         { RTE_PCI_DEVICE(PCI_VENDOR_ID_AMAZON, PCI_DEVICE_ID_ENA_VF_RSERV0) },
     228                 :            :         { .device_id = 0 },
     229                 :            : };
     230                 :            : 
     231                 :            : static struct ena_aenq_handlers aenq_handlers;
     232                 :            : 
     233                 :            : static int ena_device_init(struct ena_adapter *adapter,
     234                 :            :                            struct rte_pci_device *pdev,
     235                 :            :                            struct ena_com_dev_get_features_ctx *get_feat_ctx);
     236                 :            : static int ena_dev_configure(struct rte_eth_dev *dev);
     237                 :            : static void ena_tx_map_mbuf(struct ena_ring *tx_ring,
     238                 :            :         struct ena_tx_buffer *tx_info,
     239                 :            :         struct rte_mbuf *mbuf,
     240                 :            :         void **push_header,
     241                 :            :         uint16_t *header_len);
     242                 :            : static int ena_xmit_mbuf(struct ena_ring *tx_ring, struct rte_mbuf *mbuf);
     243                 :            : static int ena_tx_cleanup(void *txp, uint32_t free_pkt_cnt);
     244                 :            : static uint16_t eth_ena_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
     245                 :            :                                   uint16_t nb_pkts);
     246                 :            : static uint16_t eth_ena_prep_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
     247                 :            :                 uint16_t nb_pkts);
     248                 :            : static int ena_tx_queue_setup(struct rte_eth_dev *dev, uint16_t queue_idx,
     249                 :            :                               uint16_t nb_desc, unsigned int socket_id,
     250                 :            :                               const struct rte_eth_txconf *tx_conf);
     251                 :            : static int ena_rx_queue_setup(struct rte_eth_dev *dev, uint16_t queue_idx,
     252                 :            :                               uint16_t nb_desc, unsigned int socket_id,
     253                 :            :                               const struct rte_eth_rxconf *rx_conf,
     254                 :            :                               struct rte_mempool *mp);
     255                 :            : static inline void ena_init_rx_mbuf(struct rte_mbuf *mbuf, uint16_t len);
     256                 :            : static struct rte_mbuf *ena_rx_mbuf(struct ena_ring *rx_ring,
     257                 :            :                                     struct ena_com_rx_buf_info *ena_bufs,
     258                 :            :                                     uint32_t descs,
     259                 :            :                                     uint16_t *next_to_clean,
     260                 :            :                                     uint8_t offset);
     261                 :            : static uint16_t eth_ena_recv_pkts(void *rx_queue,
     262                 :            :                                   struct rte_mbuf **rx_pkts, uint16_t nb_pkts);
     263                 :            : static int ena_add_single_rx_desc(struct ena_com_io_sq *io_sq,
     264                 :            :                                   struct rte_mbuf *mbuf, uint16_t id);
     265                 :            : static int ena_populate_rx_queue(struct ena_ring *rxq, unsigned int count);
     266                 :            : static void ena_init_rings(struct ena_adapter *adapter,
     267                 :            :                            bool disable_meta_caching);
     268                 :            : static int ena_mtu_set(struct rte_eth_dev *dev, uint16_t mtu);
     269                 :            : static int ena_start(struct rte_eth_dev *dev);
     270                 :            : static int ena_stop(struct rte_eth_dev *dev);
     271                 :            : static int ena_close(struct rte_eth_dev *dev);
     272                 :            : static int ena_dev_reset(struct rte_eth_dev *dev);
     273                 :            : static int ena_stats_get(struct rte_eth_dev *dev, struct rte_eth_stats *stats);
     274                 :            : static void ena_rx_queue_release_all(struct rte_eth_dev *dev);
     275                 :            : static void ena_tx_queue_release_all(struct rte_eth_dev *dev);
     276                 :            : static void ena_rx_queue_release(struct rte_eth_dev *dev, uint16_t qid);
     277                 :            : static void ena_tx_queue_release(struct rte_eth_dev *dev, uint16_t qid);
     278                 :            : static void ena_rx_queue_release_bufs(struct ena_ring *ring);
     279                 :            : static void ena_tx_queue_release_bufs(struct ena_ring *ring);
     280                 :            : static int ena_link_update(struct rte_eth_dev *dev,
     281                 :            :                            int wait_to_complete);
     282                 :            : static int ena_create_io_queue(struct rte_eth_dev *dev, struct ena_ring *ring);
     283                 :            : static void ena_queue_stop(struct ena_ring *ring);
     284                 :            : static void ena_queue_stop_all(struct rte_eth_dev *dev,
     285                 :            :                               enum ena_ring_type ring_type);
     286                 :            : static int ena_queue_start(struct rte_eth_dev *dev, struct ena_ring *ring);
     287                 :            : static int ena_queue_start_all(struct rte_eth_dev *dev,
     288                 :            :                                enum ena_ring_type ring_type);
     289                 :            : static void ena_stats_restart(struct rte_eth_dev *dev);
     290                 :            : static uint64_t ena_get_rx_port_offloads(struct ena_adapter *adapter);
     291                 :            : static uint64_t ena_get_tx_port_offloads(struct ena_adapter *adapter);
     292                 :            : static uint64_t ena_get_rx_queue_offloads(struct ena_adapter *adapter);
     293                 :            : static uint64_t ena_get_tx_queue_offloads(struct ena_adapter *adapter);
     294                 :            : static int ena_infos_get(struct rte_eth_dev *dev,
     295                 :            :                          struct rte_eth_dev_info *dev_info);
     296                 :            : static void ena_control_path_handler(void *cb_arg);
     297                 :            : static void ena_control_path_poll_handler(void *cb_arg);
     298                 :            : static void ena_timer_wd_callback(struct rte_timer *timer, void *arg);
     299                 :            : static int eth_ena_dev_init(struct rte_eth_dev *eth_dev);
     300                 :            : static int eth_ena_dev_uninit(struct rte_eth_dev *eth_dev);
     301                 :            : static int ena_xstats_get_names(struct rte_eth_dev *dev,
     302                 :            :                                 struct rte_eth_xstat_name *xstats_names,
     303                 :            :                                 unsigned int n);
     304                 :            : static int ena_xstats_get_names_by_id(struct rte_eth_dev *dev,
     305                 :            :                                       const uint64_t *ids,
     306                 :            :                                       struct rte_eth_xstat_name *xstats_names,
     307                 :            :                                       unsigned int size);
     308                 :            : static int ena_xstats_get(struct rte_eth_dev *dev,
     309                 :            :                           struct rte_eth_xstat *stats,
     310                 :            :                           unsigned int n);
     311                 :            : static int ena_xstats_get_by_id(struct rte_eth_dev *dev,
     312                 :            :                                 const uint64_t *ids,
     313                 :            :                                 uint64_t *values,
     314                 :            :                                 unsigned int n);
     315                 :            : static int ena_process_llq_policy_devarg(const char *key,
     316                 :            :                         const char *value,
     317                 :            :                         void *opaque);
     318                 :            : static int ena_process_bool_devarg(const char *key,
     319                 :            :                                    const char *value,
     320                 :            :                                    void *opaque);
     321                 :            : static int ena_parse_devargs(struct ena_adapter *adapter,
     322                 :            :                              struct rte_devargs *devargs);
     323                 :            : static void ena_copy_customer_metrics(struct ena_adapter *adapter,
     324                 :            :                                         uint64_t *buf,
     325                 :            :                                         size_t buf_size);
     326                 :            : static void ena_copy_ena_srd_info(struct ena_adapter *adapter,
     327                 :            :                                   struct ena_stats_srd *srd_info);
     328                 :            : static int ena_setup_rx_intr(struct rte_eth_dev *dev);
     329                 :            : static int ena_rx_queue_intr_enable(struct rte_eth_dev *dev,
     330                 :            :                                     uint16_t queue_id);
     331                 :            : static int ena_rx_queue_intr_disable(struct rte_eth_dev *dev,
     332                 :            :                                      uint16_t queue_id);
     333                 :            : static int ena_configure_aenq(struct ena_adapter *adapter);
     334                 :            : static int ena_mp_primary_handle(const struct rte_mp_msg *mp_msg,
     335                 :            :                                  const void *peer);
     336                 :            : static bool ena_use_large_llq_hdr(struct ena_adapter *adapter, uint8_t recommended_entry_size);
     337                 :            : 
     338                 :            : static const struct eth_dev_ops ena_dev_ops = {
     339                 :            :         .dev_configure          = ena_dev_configure,
     340                 :            :         .dev_infos_get          = ena_infos_get,
     341                 :            :         .rx_queue_setup         = ena_rx_queue_setup,
     342                 :            :         .tx_queue_setup         = ena_tx_queue_setup,
     343                 :            :         .dev_start              = ena_start,
     344                 :            :         .dev_stop               = ena_stop,
     345                 :            :         .link_update            = ena_link_update,
     346                 :            :         .stats_get              = ena_stats_get,
     347                 :            :         .xstats_get_names       = ena_xstats_get_names,
     348                 :            :         .xstats_get_names_by_id = ena_xstats_get_names_by_id,
     349                 :            :         .xstats_get             = ena_xstats_get,
     350                 :            :         .xstats_get_by_id       = ena_xstats_get_by_id,
     351                 :            :         .mtu_set                = ena_mtu_set,
     352                 :            :         .rx_queue_release       = ena_rx_queue_release,
     353                 :            :         .tx_queue_release       = ena_tx_queue_release,
     354                 :            :         .dev_close              = ena_close,
     355                 :            :         .dev_reset              = ena_dev_reset,
     356                 :            :         .reta_update            = ena_rss_reta_update,
     357                 :            :         .reta_query             = ena_rss_reta_query,
     358                 :            :         .rx_queue_intr_enable   = ena_rx_queue_intr_enable,
     359                 :            :         .rx_queue_intr_disable  = ena_rx_queue_intr_disable,
     360                 :            :         .rss_hash_update        = ena_rss_hash_update,
     361                 :            :         .rss_hash_conf_get      = ena_rss_hash_conf_get,
     362                 :            :         .tx_done_cleanup        = ena_tx_cleanup,
     363                 :            : };
     364                 :            : 
     365                 :            : /*********************************************************************
     366                 :            :  *  Multi-Process communication bits
     367                 :            :  *********************************************************************/
     368                 :            : /* rte_mp IPC message name */
     369                 :            : #define ENA_MP_NAME     "net_ena_mp"
     370                 :            : /* Request timeout in seconds */
     371                 :            : #define ENA_MP_REQ_TMO  5
     372                 :            : 
     373                 :            : /** Proxy request type */
     374                 :            : enum ena_mp_req {
     375                 :            :         ENA_MP_DEV_STATS_GET,
     376                 :            :         ENA_MP_ENI_STATS_GET,
     377                 :            :         ENA_MP_MTU_SET,
     378                 :            :         ENA_MP_IND_TBL_GET,
     379                 :            :         ENA_MP_IND_TBL_SET,
     380                 :            :         ENA_MP_CUSTOMER_METRICS_GET,
     381                 :            :         ENA_MP_SRD_STATS_GET,
     382                 :            : };
     383                 :            : 
     384                 :            : /** Proxy message body. Shared between requests and responses. */
     385                 :            : struct ena_mp_body {
     386                 :            :         /* Message type */
     387                 :            :         enum ena_mp_req type;
     388                 :            :         int port_id;
     389                 :            :         /* Processing result. Set in replies. 0 if message succeeded, negative
     390                 :            :          * error code otherwise.
     391                 :            :          */
     392                 :            :         int result;
     393                 :            :         union {
     394                 :            :                 int mtu; /* For ENA_MP_MTU_SET */
     395                 :            :         } args;
     396                 :            : };
     397                 :            : 
     398                 :            : /**
     399                 :            :  * Initialize IPC message.
     400                 :            :  *
     401                 :            :  * @param[out] msg
     402                 :            :  *   Pointer to the message to initialize.
     403                 :            :  * @param[in] type
     404                 :            :  *   Message type.
     405                 :            :  * @param[in] port_id
     406                 :            :  *   Port ID of target device.
     407                 :            :  *
     408                 :            :  */
     409                 :            : static void
     410                 :          0 : mp_msg_init(struct rte_mp_msg *msg, enum ena_mp_req type, int port_id)
     411                 :            : {
     412                 :            :         struct ena_mp_body *body = (struct ena_mp_body *)&msg->param;
     413                 :            : 
     414                 :            :         memset(msg, 0, sizeof(*msg));
     415                 :          0 :         strlcpy(msg->name, ENA_MP_NAME, sizeof(msg->name));
     416                 :          0 :         msg->len_param = sizeof(*body);
     417                 :          0 :         body->type = type;
     418                 :          0 :         body->port_id = port_id;
     419                 :          0 : }
     420                 :            : 
     421                 :            : /*********************************************************************
     422                 :            :  *  Multi-Process communication PMD API
     423                 :            :  *********************************************************************/
     424                 :            : /**
     425                 :            :  * Define proxy request descriptor
     426                 :            :  *
     427                 :            :  * Used to define all structures and functions required for proxying a given
     428                 :            :  * function to the primary process including the code to perform to prepare the
     429                 :            :  * request and process the response.
     430                 :            :  *
     431                 :            :  * @param[in] f
     432                 :            :  *   Name of the function to proxy
     433                 :            :  * @param[in] t
     434                 :            :  *   Message type to use
     435                 :            :  * @param[in] prep
     436                 :            :  *   Body of a function to prepare the request in form of a statement
     437                 :            :  *   expression. It is passed all the original function arguments along with two
     438                 :            :  *   extra ones:
     439                 :            :  *   - struct ena_adapter *adapter - PMD data of the device calling the proxy.
     440                 :            :  *   - struct ena_mp_body *req - body of a request to prepare.
     441                 :            :  * @param[in] proc
     442                 :            :  *   Body of a function to process the response in form of a statement
     443                 :            :  *   expression. It is passed all the original function arguments along with two
     444                 :            :  *   extra ones:
     445                 :            :  *   - struct ena_adapter *adapter - PMD data of the device calling the proxy.
     446                 :            :  *   - struct ena_mp_body *rsp - body of a response to process.
     447                 :            :  * @param ...
     448                 :            :  *   Proxied function's arguments
     449                 :            :  *
     450                 :            :  * @note Inside prep and proc any parameters which aren't used should be marked
     451                 :            :  *       as such (with ENA_TOUCH or __rte_unused).
     452                 :            :  */
     453                 :            : #define ENA_PROXY_DESC(f, t, prep, proc, ...)                   \
     454                 :            :         static const enum ena_mp_req mp_type_ ## f =  t;        \
     455                 :            :         static const char *mp_name_ ## f = #t;                  \
     456                 :            :         static void mp_prep_ ## f(struct ena_adapter *adapter,  \
     457                 :            :                                   struct ena_mp_body *req,      \
     458                 :            :                                   __VA_ARGS__)                  \
     459                 :            :         {                                                       \
     460                 :            :                 prep;                                           \
     461                 :            :         }                                                       \
     462                 :            :         static void mp_proc_ ## f(struct ena_adapter *adapter,  \
     463                 :            :                                   struct ena_mp_body *rsp,      \
     464                 :            :                                   __VA_ARGS__)                  \
     465                 :            :         {                                                       \
     466                 :            :                 proc;                                           \
     467                 :            :         }
     468                 :            : 
     469                 :            : /**
     470                 :            :  * Proxy wrapper for calling primary functions in a secondary process.
     471                 :            :  *
     472                 :            :  * Depending on whether called in primary or secondary process, calls the
     473                 :            :  * @p func directly or proxies the call to the primary process via rte_mp IPC.
     474                 :            :  * This macro requires a proxy request descriptor to be defined for @p func
     475                 :            :  * using ENA_PROXY_DESC() macro.
     476                 :            :  *
     477                 :            :  * @param[in/out] a
     478                 :            :  *   Device PMD data. Used for sending the message and sharing message results
     479                 :            :  *   between primary and secondary.
     480                 :            :  * @param[in] f
     481                 :            :  *   Function to proxy.
     482                 :            :  * @param ...
     483                 :            :  *   Arguments of @p func.
     484                 :            :  *
     485                 :            :  * @return
     486                 :            :  *   - 0: Processing succeeded and response handler was called.
     487                 :            :  *   - -EPERM: IPC is unavailable on this platform. This means only primary
     488                 :            :  *             process may call the proxied function.
     489                 :            :  *   - -EIO:   IPC returned error on request send. Inspect rte_errno detailed
     490                 :            :  *             error code.
     491                 :            :  *   - Negative error code from the proxied function.
     492                 :            :  *
     493                 :            :  * @note This mechanism is geared towards control-path tasks. Avoid calling it
     494                 :            :  *       in fast-path unless unbound delays are allowed. This is due to the IPC
     495                 :            :  *       mechanism itself (socket based).
     496                 :            :  * @note Due to IPC parameter size limitations the proxy logic shares call
     497                 :            :  *       results through the struct ena_adapter shared memory. This makes the
     498                 :            :  *       proxy mechanism strictly single-threaded. Therefore be sure to make all
     499                 :            :  *       calls to the same proxied function under the same lock.
     500                 :            :  */
     501                 :            : #define ENA_PROXY(a, f, ...)                                            \
     502                 :            : __extension__ ({                                                        \
     503                 :            :         struct ena_adapter *_a = (a);                                   \
     504                 :            :         struct timespec ts = { .tv_sec = ENA_MP_REQ_TMO };              \
     505                 :            :         struct ena_mp_body *req, *rsp;                                  \
     506                 :            :         struct rte_mp_reply mp_rep;                                     \
     507                 :            :         struct rte_mp_msg mp_req;                                       \
     508                 :            :         int ret;                                                        \
     509                 :            :                                                                         \
     510                 :            :         if (rte_eal_process_type() == RTE_PROC_PRIMARY) {               \
     511                 :            :                 ret = f(__VA_ARGS__);                                   \
     512                 :            :         } else {                                                        \
     513                 :            :                 /* Prepare and send request */                          \
     514                 :            :                 req = (struct ena_mp_body *)&mp_req.param;          \
     515                 :            :                 mp_msg_init(&mp_req, mp_type_ ## f, _a->edev_data->port_id); \
     516                 :            :                 mp_prep_ ## f(_a, req, ## __VA_ARGS__);                 \
     517                 :            :                                                                         \
     518                 :            :                 ret = rte_mp_request_sync(&mp_req, &mp_rep, &ts);   \
     519                 :            :                 if (likely(!ret)) {                                     \
     520                 :            :                         RTE_ASSERT(mp_rep.nb_received == 1);            \
     521                 :            :                         rsp = (struct ena_mp_body *)&mp_rep.msgs[0].param; \
     522                 :            :                         ret = rsp->result;                           \
     523                 :            :                         if (ret == 0) {                                 \
     524                 :            :                                 mp_proc_##f(_a, rsp, ## __VA_ARGS__);   \
     525                 :            :                         } else {                                        \
     526                 :            :                                 PMD_DRV_LOG_LINE(ERR,                   \
     527                 :            :                                             "%s returned error: %d",  \
     528                 :            :                                             mp_name_ ## f, rsp->result);\
     529                 :            :                         }                                               \
     530                 :            :                         free(mp_rep.msgs);                              \
     531                 :            :                 } else if (rte_errno == ENOTSUP) {                      \
     532                 :            :                         PMD_DRV_LOG_LINE(ERR,                           \
     533                 :            :                                     "No IPC, can't proxy to primary");\
     534                 :            :                         ret = -rte_errno;                               \
     535                 :            :                 } else {                                                \
     536                 :            :                         PMD_DRV_LOG_LINE(ERR, "Request %s failed: %s",        \
     537                 :            :                                     mp_name_ ## f,                      \
     538                 :            :                                     rte_strerror(rte_errno));           \
     539                 :            :                         ret = -EIO;                                     \
     540                 :            :                 }                                                       \
     541                 :            :         }                                                               \
     542                 :            :         ret;                                                            \
     543                 :            : })
     544                 :            : 
     545                 :            : /*********************************************************************
     546                 :            :  *  Multi-Process communication request descriptors
     547                 :            :  *********************************************************************/
     548                 :            : 
     549         [ #  # ]:          0 : ENA_PROXY_DESC(ena_com_get_dev_basic_stats, ENA_MP_DEV_STATS_GET,
     550                 :            : __extension__ ({
     551                 :            :         ENA_TOUCH(adapter);
     552                 :            :         ENA_TOUCH(req);
     553                 :            :         ENA_TOUCH(ena_dev);
     554                 :            :         ENA_TOUCH(stats);
     555                 :            : }),
     556                 :            : __extension__ ({
     557                 :            :         ENA_TOUCH(rsp);
     558                 :            :         ENA_TOUCH(ena_dev);
     559                 :            :         if (stats != &adapter->basic_stats)
     560                 :            :                 rte_memcpy(stats, &adapter->basic_stats, sizeof(*stats));
     561                 :            : }),
     562                 :            :         struct ena_com_dev *ena_dev, struct ena_admin_basic_stats *stats);
     563                 :            : 
     564         [ #  # ]:          0 : ENA_PROXY_DESC(ena_com_get_eni_stats, ENA_MP_ENI_STATS_GET,
     565                 :            : __extension__ ({
     566                 :            :         ENA_TOUCH(adapter);
     567                 :            :         ENA_TOUCH(req);
     568                 :            :         ENA_TOUCH(ena_dev);
     569                 :            :         ENA_TOUCH(stats);
     570                 :            : }),
     571                 :            : __extension__ ({
     572                 :            :         ENA_TOUCH(rsp);
     573                 :            :         ENA_TOUCH(ena_dev);
     574                 :            :         if (stats != (struct ena_admin_eni_stats *)adapter->metrics_stats)
     575                 :            :                 rte_memcpy(stats, adapter->metrics_stats, sizeof(*stats));
     576                 :            : }),
     577                 :            :         struct ena_com_dev *ena_dev, struct ena_admin_eni_stats *stats);
     578                 :            : 
     579                 :          0 : ENA_PROXY_DESC(ena_com_set_dev_mtu, ENA_MP_MTU_SET,
     580                 :            : __extension__ ({
     581                 :            :         ENA_TOUCH(adapter);
     582                 :            :         ENA_TOUCH(ena_dev);
     583                 :            :         req->args.mtu = mtu;
     584                 :            : }),
     585                 :            : __extension__ ({
     586                 :            :         ENA_TOUCH(adapter);
     587                 :            :         ENA_TOUCH(rsp);
     588                 :            :         ENA_TOUCH(ena_dev);
     589                 :            :         ENA_TOUCH(mtu);
     590                 :            : }),
     591                 :            :         struct ena_com_dev *ena_dev, int mtu);
     592                 :            : 
     593                 :            : ENA_PROXY_DESC(ena_com_indirect_table_set, ENA_MP_IND_TBL_SET,
     594                 :            : __extension__ ({
     595                 :            :         ENA_TOUCH(adapter);
     596                 :            :         ENA_TOUCH(req);
     597                 :            :         ENA_TOUCH(ena_dev);
     598                 :            : }),
     599                 :            : __extension__ ({
     600                 :            :         ENA_TOUCH(adapter);
     601                 :            :         ENA_TOUCH(rsp);
     602                 :            :         ENA_TOUCH(ena_dev);
     603                 :            : }),
     604                 :            :         struct ena_com_dev *ena_dev);
     605                 :            : 
     606   [ #  #  #  # ]:          0 : ENA_PROXY_DESC(ena_com_indirect_table_get, ENA_MP_IND_TBL_GET,
     607                 :            : __extension__ ({
     608                 :            :         ENA_TOUCH(adapter);
     609                 :            :         ENA_TOUCH(req);
     610                 :            :         ENA_TOUCH(ena_dev);
     611                 :            :         ENA_TOUCH(ind_tbl);
     612                 :            : }),
     613                 :            : __extension__ ({
     614                 :            :         ENA_TOUCH(rsp);
     615                 :            :         ENA_TOUCH(ena_dev);
     616                 :            :         if (ind_tbl != adapter->indirect_table)
     617                 :            :                 rte_memcpy(ind_tbl, adapter->indirect_table,
     618                 :            :                            sizeof(u32) * adapter->indirect_table_size);
     619                 :            : }),
     620                 :            :         struct ena_com_dev *ena_dev, u32 *ind_tbl);
     621                 :            : 
     622         [ #  # ]:          0 : ENA_PROXY_DESC(ena_com_get_customer_metrics, ENA_MP_CUSTOMER_METRICS_GET,
     623                 :            : __extension__ ({
     624                 :            :         ENA_TOUCH(adapter);
     625                 :            :         ENA_TOUCH(req);
     626                 :            :         ENA_TOUCH(ena_dev);
     627                 :            :         ENA_TOUCH(buf);
     628                 :            :         ENA_TOUCH(buf_size);
     629                 :            : }),
     630                 :            : __extension__ ({
     631                 :            :         ENA_TOUCH(rsp);
     632                 :            :         ENA_TOUCH(ena_dev);
     633                 :            :         if (buf != (char *)adapter->metrics_stats)
     634                 :            :                 rte_memcpy(buf, adapter->metrics_stats, buf_size);
     635                 :            : }),
     636                 :            :         struct ena_com_dev *ena_dev, char *buf, size_t buf_size);
     637                 :            : 
     638         [ #  # ]:          0 : ENA_PROXY_DESC(ena_com_get_ena_srd_info, ENA_MP_SRD_STATS_GET,
     639                 :            : __extension__ ({
     640                 :            :         ENA_TOUCH(adapter);
     641                 :            :         ENA_TOUCH(req);
     642                 :            :         ENA_TOUCH(ena_dev);
     643                 :            :         ENA_TOUCH(info);
     644                 :            : }),
     645                 :            : __extension__ ({
     646                 :            :         ENA_TOUCH(rsp);
     647                 :            :         ENA_TOUCH(ena_dev);
     648                 :            :         if ((struct ena_stats_srd *)info != &adapter->srd_stats)
     649                 :            :                 rte_memcpy((struct ena_stats_srd *)info,
     650                 :            :                                 &adapter->srd_stats,
     651                 :            :                                 sizeof(struct ena_stats_srd));
     652                 :            : }),
     653                 :            :         struct ena_com_dev *ena_dev, struct ena_admin_ena_srd_info *info);
     654                 :            : 
     655                 :            : static inline void ena_trigger_reset(struct ena_adapter *adapter,
     656                 :            :                                      enum ena_regs_reset_reason_types reason)
     657                 :            : {
     658   [ #  #  #  #  :          0 :         if (likely(!adapter->trigger_reset)) {
                   #  # ]
     659                 :          0 :                 adapter->reset_reason = reason;
     660                 :          0 :                 adapter->trigger_reset = true;
     661                 :            :         }
     662                 :            : }
     663                 :            : 
     664                 :          0 : static inline void ena_rx_mbuf_prepare(struct ena_ring *rx_ring,
     665                 :            :                                        struct rte_mbuf *mbuf,
     666                 :            :                                        struct ena_com_rx_ctx *ena_rx_ctx)
     667                 :            : {
     668                 :            :         struct ena_stats_rx *rx_stats = &rx_ring->rx_stats;
     669                 :            :         uint64_t ol_flags = 0;
     670                 :            :         uint32_t packet_type = 0;
     671                 :            : 
     672      [ #  #  # ]:          0 :         switch (ena_rx_ctx->l3_proto) {
     673                 :          0 :         case ENA_ETH_IO_L3_PROTO_IPV4:
     674                 :            :                 packet_type |= RTE_PTYPE_L3_IPV4;
     675         [ #  # ]:          0 :                 if (unlikely(ena_rx_ctx->l3_csum_err)) {
     676                 :          0 :                         ++rx_stats->l3_csum_bad;
     677                 :            :                         ol_flags |= RTE_MBUF_F_RX_IP_CKSUM_BAD;
     678                 :            :                 } else {
     679                 :            :                         ol_flags |= RTE_MBUF_F_RX_IP_CKSUM_GOOD;
     680                 :            :                 }
     681                 :            :                 break;
     682                 :          0 :         case ENA_ETH_IO_L3_PROTO_IPV6:
     683                 :            :                 packet_type |= RTE_PTYPE_L3_IPV6;
     684                 :          0 :                 break;
     685                 :            :         default:
     686                 :            :                 break;
     687                 :            :         }
     688                 :            : 
     689      [ #  #  # ]:          0 :         switch (ena_rx_ctx->l4_proto) {
     690                 :          0 :         case ENA_ETH_IO_L4_PROTO_TCP:
     691                 :          0 :                 packet_type |= RTE_PTYPE_L4_TCP;
     692                 :          0 :                 break;
     693                 :          0 :         case ENA_ETH_IO_L4_PROTO_UDP:
     694                 :          0 :                 packet_type |= RTE_PTYPE_L4_UDP;
     695                 :          0 :                 break;
     696                 :            :         default:
     697                 :            :                 break;
     698                 :            :         }
     699                 :            : 
     700                 :            :         /* L4 csum is relevant only for TCP/UDP packets */
     701   [ #  #  #  # ]:          0 :         if ((packet_type & (RTE_PTYPE_L4_TCP | RTE_PTYPE_L4_UDP)) && !ena_rx_ctx->frag) {
     702         [ #  # ]:          0 :                 if (ena_rx_ctx->l4_csum_checked) {
     703         [ #  # ]:          0 :                         if (likely(!ena_rx_ctx->l4_csum_err)) {
     704                 :          0 :                                 ++rx_stats->l4_csum_good;
     705                 :          0 :                                 ol_flags |= RTE_MBUF_F_RX_L4_CKSUM_GOOD;
     706                 :            :                         } else {
     707                 :          0 :                                 ++rx_stats->l4_csum_bad;
     708                 :          0 :                                 ol_flags |= RTE_MBUF_F_RX_L4_CKSUM_BAD;
     709                 :            :                         }
     710                 :            :                 } else {
     711                 :            :                         ol_flags |= RTE_MBUF_F_RX_L4_CKSUM_UNKNOWN;
     712                 :            :                 }
     713                 :            : 
     714         [ #  # ]:          0 :                 if (rx_ring->offloads & RTE_ETH_RX_OFFLOAD_RSS_HASH) {
     715                 :          0 :                         ol_flags |= RTE_MBUF_F_RX_RSS_HASH;
     716                 :          0 :                         mbuf->hash.rss = ena_rx_ctx->hash;
     717                 :            :                 }
     718                 :            :         } else {
     719                 :            :                 ol_flags |= RTE_MBUF_F_RX_L4_CKSUM_UNKNOWN;
     720                 :            :         }
     721                 :            : 
     722                 :          0 :         mbuf->ol_flags = ol_flags;
     723                 :          0 :         mbuf->packet_type = packet_type;
     724                 :          0 : }
     725                 :            : 
     726                 :          0 : static inline void ena_tx_mbuf_prepare(struct rte_mbuf *mbuf,
     727                 :            :                                        struct ena_com_tx_ctx *ena_tx_ctx,
     728                 :            :                                        uint64_t queue_offloads,
     729                 :            :                                        bool disable_meta_caching)
     730                 :            : {
     731                 :          0 :         struct ena_com_tx_meta *ena_meta = &ena_tx_ctx->ena_meta;
     732                 :            : 
     733         [ #  # ]:          0 :         if ((mbuf->ol_flags & MBUF_OFFLOADS) &&
     734         [ #  # ]:          0 :             (queue_offloads & QUEUE_OFFLOADS)) {
     735                 :            :                 /* check if TSO is required */
     736         [ #  # ]:          0 :                 if ((mbuf->ol_flags & RTE_MBUF_F_TX_TCP_SEG) &&
     737         [ #  # ]:          0 :                     (queue_offloads & RTE_ETH_TX_OFFLOAD_TCP_TSO)) {
     738                 :          0 :                         ena_tx_ctx->tso_enable = true;
     739                 :            : 
     740                 :          0 :                         ena_meta->l4_hdr_len = GET_L4_HDR_LEN(mbuf);
     741                 :            :                 }
     742                 :            : 
     743                 :            :                 /* check if L3 checksum is needed */
     744         [ #  # ]:          0 :                 if ((mbuf->ol_flags & RTE_MBUF_F_TX_IP_CKSUM) &&
     745         [ #  # ]:          0 :                     (queue_offloads & RTE_ETH_TX_OFFLOAD_IPV4_CKSUM))
     746                 :          0 :                         ena_tx_ctx->l3_csum_enable = true;
     747                 :            : 
     748         [ #  # ]:          0 :                 if (mbuf->ol_flags & RTE_MBUF_F_TX_IPV6) {
     749                 :          0 :                         ena_tx_ctx->l3_proto = ENA_ETH_IO_L3_PROTO_IPV6;
     750                 :            :                         /* For the IPv6 packets, DF always needs to be true. */
     751                 :          0 :                         ena_tx_ctx->df = 1;
     752                 :            :                 } else {
     753                 :          0 :                         ena_tx_ctx->l3_proto = ENA_ETH_IO_L3_PROTO_IPV4;
     754                 :            : 
     755                 :            :                         /* set don't fragment (DF) flag */
     756         [ #  # ]:          0 :                         if (mbuf->packet_type &
     757                 :            :                                 (RTE_PTYPE_L4_NONFRAG
     758                 :            :                                  | RTE_PTYPE_INNER_L4_NONFRAG))
     759                 :          0 :                                 ena_tx_ctx->df = 1;
     760                 :            :                 }
     761                 :            : 
     762                 :            :                 /* check if L4 checksum is needed */
     763         [ #  # ]:          0 :                 if (((mbuf->ol_flags & RTE_MBUF_F_TX_L4_MASK) == RTE_MBUF_F_TX_TCP_CKSUM) &&
     764         [ #  # ]:          0 :                     (queue_offloads & RTE_ETH_TX_OFFLOAD_TCP_CKSUM)) {
     765                 :          0 :                         ena_tx_ctx->l4_proto = ENA_ETH_IO_L4_PROTO_TCP;
     766                 :          0 :                         ena_tx_ctx->l4_csum_enable = true;
     767         [ #  # ]:          0 :                 } else if (((mbuf->ol_flags & RTE_MBUF_F_TX_L4_MASK) ==
     768                 :          0 :                                 RTE_MBUF_F_TX_UDP_CKSUM) &&
     769         [ #  # ]:          0 :                                 (queue_offloads & RTE_ETH_TX_OFFLOAD_UDP_CKSUM)) {
     770                 :          0 :                         ena_tx_ctx->l4_proto = ENA_ETH_IO_L4_PROTO_UDP;
     771                 :          0 :                         ena_tx_ctx->l4_csum_enable = true;
     772                 :            :                 } else {
     773                 :          0 :                         ena_tx_ctx->l4_proto = ENA_ETH_IO_L4_PROTO_UNKNOWN;
     774                 :          0 :                         ena_tx_ctx->l4_csum_enable = false;
     775                 :            :                 }
     776                 :            : 
     777                 :          0 :                 ena_meta->mss = mbuf->tso_segsz;
     778                 :          0 :                 ena_meta->l3_hdr_len = mbuf->l3_len;
     779                 :          0 :                 ena_meta->l3_hdr_offset = mbuf->l2_len;
     780                 :            : 
     781                 :          0 :                 ena_tx_ctx->meta_valid = true;
     782         [ #  # ]:          0 :         } else if (disable_meta_caching) {
     783                 :            :                 memset(ena_meta, 0, sizeof(*ena_meta));
     784                 :          0 :                 ena_tx_ctx->meta_valid = true;
     785                 :            :         } else {
     786                 :          0 :                 ena_tx_ctx->meta_valid = false;
     787                 :            :         }
     788                 :          0 : }
     789                 :            : 
     790                 :            : static int validate_tx_req_id(struct ena_ring *tx_ring, u16 req_id)
     791                 :            : {
     792                 :            :         struct ena_tx_buffer *tx_info = NULL;
     793                 :            : 
     794                 :          0 :         if (likely(req_id < tx_ring->ring_size)) {
     795                 :          0 :                 tx_info = &tx_ring->tx_buffer_info[req_id];
     796         [ #  # ]:          0 :                 if (likely(tx_info->mbuf))
     797                 :            :                         return 0;
     798                 :            :         }
     799                 :            : 
     800                 :            :         if (tx_info)
     801                 :            :                 PMD_TX_LOG_LINE(ERR, "tx_info doesn't have valid mbuf. queue %d:%d req_id %u",
     802                 :            :                         tx_ring->port_id, tx_ring->id, req_id);
     803                 :            :         else
     804                 :            :                 PMD_TX_LOG_LINE(ERR, "Invalid req_id: %hu in queue %d:%d",
     805                 :            :                         req_id, tx_ring->port_id, tx_ring->id);
     806                 :            : 
     807                 :            :         /* Trigger device reset */
     808                 :          0 :         ++tx_ring->tx_stats.bad_req_id;
     809         [ #  # ]:          0 :         ena_trigger_reset(tx_ring->adapter, ENA_REGS_RESET_INV_TX_REQ_ID);
     810                 :            :         return -EFAULT;
     811                 :            : }
     812                 :            : 
     813                 :          0 : static void ena_config_host_info(struct ena_com_dev *ena_dev)
     814                 :            : {
     815                 :            :         struct ena_admin_host_info *host_info;
     816                 :            :         int rc;
     817                 :            : 
     818                 :            :         /* Allocate only the host info */
     819                 :          0 :         rc = ena_com_allocate_host_info(ena_dev);
     820         [ #  # ]:          0 :         if (rc) {
     821                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Cannot allocate host info");
     822                 :          0 :                 return;
     823                 :            :         }
     824                 :            : 
     825                 :          0 :         host_info = ena_dev->host_attr.host_info;
     826                 :            : 
     827                 :          0 :         host_info->os_type = ENA_ADMIN_OS_DPDK;
     828                 :          0 :         host_info->kernel_ver = RTE_VERSION;
     829                 :          0 :         strlcpy((char *)host_info->kernel_ver_str, rte_version(),
     830                 :            :                 sizeof(host_info->kernel_ver_str));
     831                 :          0 :         host_info->os_dist = RTE_VERSION;
     832                 :          0 :         strlcpy((char *)host_info->os_dist_str, rte_version(),
     833                 :            :                 sizeof(host_info->os_dist_str));
     834                 :          0 :         host_info->driver_version =
     835                 :            :                 (DRV_MODULE_VER_MAJOR) |
     836                 :            :                 (DRV_MODULE_VER_MINOR << ENA_ADMIN_HOST_INFO_MINOR_SHIFT) |
     837                 :            :                 (DRV_MODULE_VER_SUBMINOR <<
     838                 :            :                         ENA_ADMIN_HOST_INFO_SUB_MINOR_SHIFT);
     839                 :          0 :         host_info->num_cpus = rte_lcore_count();
     840                 :            : 
     841                 :          0 :         host_info->driver_supported_features =
     842                 :            :                 ENA_ADMIN_HOST_INFO_RX_OFFSET_MASK |
     843                 :            :                 ENA_ADMIN_HOST_INFO_RSS_CONFIGURABLE_FUNCTION_KEY_MASK;
     844                 :            : 
     845                 :          0 :         rc = ena_com_set_host_attributes(ena_dev);
     846         [ #  # ]:          0 :         if (rc) {
     847         [ #  # ]:          0 :                 if (rc == ENA_COM_UNSUPPORTED)
     848                 :          0 :                         PMD_DRV_LOG_LINE(WARNING, "Cannot set host attributes");
     849                 :            :                 else
     850                 :          0 :                         PMD_DRV_LOG_LINE(ERR, "Cannot set host attributes");
     851                 :            : 
     852                 :          0 :                 goto err;
     853                 :            :         }
     854                 :            : 
     855                 :            :         return;
     856                 :            : 
     857                 :            : err:
     858                 :          0 :         ena_com_delete_host_info(ena_dev);
     859                 :            : }
     860                 :            : 
     861                 :            : /* This function calculates the number of xstats based on the current config */
     862                 :            : static unsigned int ena_xstats_calc_num(struct rte_eth_dev_data *data)
     863                 :            : {
     864                 :          0 :         struct ena_adapter *adapter = data->dev_private;
     865                 :            : 
     866                 :            :         return ENA_STATS_ARRAY_GLOBAL +
     867                 :          0 :                 adapter->metrics_num +
     868                 :            :                 ENA_STATS_ARRAY_ENA_SRD +
     869                 :          0 :                 (data->nb_tx_queues * ENA_STATS_ARRAY_TX) +
     870                 :          0 :                 (data->nb_rx_queues * ENA_STATS_ARRAY_RX);
     871                 :            : }
     872                 :            : 
     873                 :          0 : static void ena_config_debug_area(struct ena_adapter *adapter)
     874                 :            : {
     875                 :            :         u32 debug_area_size;
     876                 :            :         int rc, ss_count;
     877                 :            : 
     878                 :          0 :         ss_count = ena_xstats_calc_num(adapter->edev_data);
     879                 :            : 
     880                 :            :         /* allocate 32 bytes for each string and 64bit for the value */
     881                 :          0 :         debug_area_size = ss_count * ETH_GSTRING_LEN + sizeof(u64) * ss_count;
     882                 :            : 
     883                 :          0 :         rc = ena_com_allocate_debug_area(&adapter->ena_dev, debug_area_size);
     884         [ #  # ]:          0 :         if (rc) {
     885                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Cannot allocate debug area");
     886                 :          0 :                 return;
     887                 :            :         }
     888                 :            : 
     889                 :          0 :         rc = ena_com_set_host_attributes(&adapter->ena_dev);
     890         [ #  # ]:          0 :         if (rc) {
     891         [ #  # ]:          0 :                 if (rc == ENA_COM_UNSUPPORTED)
     892                 :          0 :                         PMD_DRV_LOG_LINE(WARNING, "Cannot set host attributes");
     893                 :            :                 else
     894                 :          0 :                         PMD_DRV_LOG_LINE(ERR, "Cannot set host attributes");
     895                 :            : 
     896                 :          0 :                 goto err;
     897                 :            :         }
     898                 :            : 
     899                 :            :         return;
     900                 :            : err:
     901                 :          0 :         ena_com_delete_debug_area(&adapter->ena_dev);
     902                 :            : }
     903                 :            : 
     904                 :            : static inline void ena_indirect_table_release(struct ena_adapter *adapter)
     905                 :            : {
     906         [ #  # ]:          0 :         if (likely(adapter->indirect_table)) {
     907                 :          0 :                 rte_free(adapter->indirect_table);
     908                 :          0 :                 adapter->indirect_table = NULL;
     909                 :            :         }
     910                 :            : }
     911                 :          0 : static int ena_close(struct rte_eth_dev *dev)
     912                 :            : {
     913                 :          0 :         struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
     914                 :          0 :         struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
     915                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
     916                 :          0 :         struct ena_com_dev *ena_dev = &adapter->ena_dev;
     917                 :            :         int ret = 0;
     918                 :            :         int rc;
     919                 :            : 
     920         [ #  # ]:          0 :         if (rte_eal_process_type() != RTE_PROC_PRIMARY)
     921                 :            :                 return 0;
     922                 :            : 
     923         [ #  # ]:          0 :         if (adapter->state == ENA_ADAPTER_STATE_CLOSED)
     924                 :            :                 return 0;
     925                 :            : 
     926         [ #  # ]:          0 :         if (adapter->state == ENA_ADAPTER_STATE_RUNNING)
     927                 :          0 :                 ret = ena_stop(dev);
     928                 :          0 :         adapter->state = ENA_ADAPTER_STATE_CLOSED;
     929                 :            : 
     930         [ #  # ]:          0 :         if (!adapter->control_path_poll_interval) {
     931                 :          0 :                 rte_intr_disable(intr_handle);
     932                 :          0 :                 rc = rte_intr_callback_unregister_sync(intr_handle, ena_control_path_handler, dev);
     933         [ #  # ]:          0 :                 if (unlikely(rc != 0))
     934                 :          0 :                         PMD_INIT_LOG_LINE(ERR, "Failed to unregister interrupt handler");
     935                 :            :         } else {
     936                 :          0 :                 rte_eal_alarm_cancel(ena_control_path_poll_handler, dev);
     937                 :            :         }
     938                 :            : 
     939                 :            :         ena_rx_queue_release_all(dev);
     940                 :            :         ena_tx_queue_release_all(dev);
     941                 :            : 
     942                 :            :         ena_indirect_table_release(adapter);
     943                 :          0 :         rte_free(adapter->drv_stats);
     944                 :          0 :         adapter->drv_stats = NULL;
     945                 :            : 
     946                 :          0 :         ena_com_set_admin_running_state(ena_dev, false);
     947                 :            : 
     948                 :          0 :         ena_com_rss_destroy(ena_dev);
     949                 :            : 
     950                 :          0 :         ena_com_delete_debug_area(ena_dev);
     951                 :          0 :         ena_com_delete_host_info(ena_dev);
     952                 :            : 
     953                 :          0 :         ena_com_abort_admin_commands(ena_dev);
     954                 :          0 :         ena_com_wait_for_abort_completion(ena_dev);
     955                 :          0 :         ena_com_admin_destroy(ena_dev);
     956                 :          0 :         ena_com_mmio_reg_read_request_destroy(ena_dev);
     957                 :          0 :         ena_com_delete_customer_metrics_buffer(ena_dev);
     958                 :            : 
     959                 :            :         /*
     960                 :            :          * MAC is not allocated dynamically. Setting NULL should prevent from
     961                 :            :          * release of the resource in the rte_eth_dev_release_port().
     962                 :            :          */
     963                 :          0 :         dev->data->mac_addrs = NULL;
     964                 :            : 
     965                 :          0 :         return ret;
     966                 :            : }
     967                 :            : 
     968                 :            : static int
     969                 :          0 : ena_dev_reset(struct rte_eth_dev *dev)
     970                 :            : {
     971                 :            :         int rc = 0;
     972                 :            : 
     973                 :            :         /* Cannot release memory in secondary process */
     974         [ #  # ]:          0 :         if (rte_eal_process_type() != RTE_PROC_PRIMARY) {
     975                 :          0 :                 PMD_DRV_LOG_LINE(WARNING, "dev_reset not supported in secondary.");
     976                 :          0 :                 return -EPERM;
     977                 :            :         }
     978                 :            : 
     979                 :            :         rc = eth_ena_dev_uninit(dev);
     980                 :            :         if (rc) {
     981                 :            :                 PMD_INIT_LOG_LINE(CRIT, "Failed to un-initialize device");
     982                 :            :                 return rc;
     983                 :            :         }
     984                 :            : 
     985                 :          0 :         rc = eth_ena_dev_init(dev);
     986         [ #  # ]:          0 :         if (rc)
     987                 :          0 :                 PMD_INIT_LOG_LINE(CRIT, "Cannot initialize device");
     988                 :            : 
     989                 :            :         return rc;
     990                 :            : }
     991                 :            : 
     992                 :            : static void ena_rx_queue_release_all(struct rte_eth_dev *dev)
     993                 :            : {
     994                 :          0 :         int nb_queues = dev->data->nb_rx_queues;
     995                 :            :         int i;
     996                 :            : 
     997         [ #  # ]:          0 :         for (i = 0; i < nb_queues; i++)
     998                 :          0 :                 ena_rx_queue_release(dev, i);
     999                 :            : }
    1000                 :            : 
    1001                 :            : static void ena_tx_queue_release_all(struct rte_eth_dev *dev)
    1002                 :            : {
    1003                 :          0 :         int nb_queues = dev->data->nb_tx_queues;
    1004                 :            :         int i;
    1005                 :            : 
    1006         [ #  # ]:          0 :         for (i = 0; i < nb_queues; i++)
    1007                 :          0 :                 ena_tx_queue_release(dev, i);
    1008                 :            : }
    1009                 :            : 
    1010                 :          0 : static void ena_rx_queue_release(struct rte_eth_dev *dev, uint16_t qid)
    1011                 :            : {
    1012                 :          0 :         struct ena_ring *ring = dev->data->rx_queues[qid];
    1013                 :            : 
    1014                 :            :         /* Free ring resources */
    1015                 :          0 :         rte_free(ring->rx_buffer_info);
    1016                 :          0 :         ring->rx_buffer_info = NULL;
    1017                 :            : 
    1018                 :          0 :         rte_free(ring->rx_refill_buffer);
    1019                 :          0 :         ring->rx_refill_buffer = NULL;
    1020                 :            : 
    1021                 :          0 :         rte_free(ring->empty_rx_reqs);
    1022                 :          0 :         ring->empty_rx_reqs = NULL;
    1023                 :            : 
    1024                 :          0 :         ring->configured = 0;
    1025                 :            : 
    1026                 :          0 :         PMD_DRV_LOG_LINE(NOTICE, "Rx queue %d:%d released",
    1027                 :            :                 ring->port_id, ring->id);
    1028                 :          0 : }
    1029                 :            : 
    1030                 :          0 : static void ena_tx_queue_release(struct rte_eth_dev *dev, uint16_t qid)
    1031                 :            : {
    1032                 :          0 :         struct ena_ring *ring = dev->data->tx_queues[qid];
    1033                 :            : 
    1034                 :            :         /* Free ring resources */
    1035                 :          0 :         rte_free(ring->push_buf_intermediate_buf);
    1036                 :            : 
    1037                 :          0 :         rte_free(ring->tx_buffer_info);
    1038                 :            : 
    1039                 :          0 :         rte_free(ring->empty_tx_reqs);
    1040                 :            : 
    1041                 :          0 :         ring->empty_tx_reqs = NULL;
    1042                 :          0 :         ring->tx_buffer_info = NULL;
    1043                 :          0 :         ring->push_buf_intermediate_buf = NULL;
    1044                 :            : 
    1045                 :          0 :         ring->configured = 0;
    1046                 :            : 
    1047                 :          0 :         PMD_DRV_LOG_LINE(NOTICE, "Tx queue %d:%d released",
    1048                 :            :                 ring->port_id, ring->id);
    1049                 :          0 : }
    1050                 :            : 
    1051                 :          0 : static void ena_rx_queue_release_bufs(struct ena_ring *ring)
    1052                 :            : {
    1053                 :            :         unsigned int i;
    1054                 :            : 
    1055         [ #  # ]:          0 :         for (i = 0; i < ring->ring_size; ++i) {
    1056                 :          0 :                 struct ena_rx_buffer *rx_info = &ring->rx_buffer_info[i];
    1057         [ #  # ]:          0 :                 if (rx_info->mbuf) {
    1058                 :            :                         rte_mbuf_raw_free(rx_info->mbuf);
    1059                 :          0 :                         rx_info->mbuf = NULL;
    1060                 :            :                 }
    1061                 :            :         }
    1062                 :          0 : }
    1063                 :            : 
    1064                 :          0 : static void ena_tx_queue_release_bufs(struct ena_ring *ring)
    1065                 :            : {
    1066                 :            :         unsigned int i;
    1067                 :            : 
    1068         [ #  # ]:          0 :         for (i = 0; i < ring->ring_size; ++i) {
    1069                 :          0 :                 struct ena_tx_buffer *tx_buf = &ring->tx_buffer_info[i];
    1070                 :            : 
    1071         [ #  # ]:          0 :                 if (tx_buf->mbuf) {
    1072                 :          0 :                         rte_pktmbuf_free(tx_buf->mbuf);
    1073                 :          0 :                         tx_buf->mbuf = NULL;
    1074                 :            :                 }
    1075                 :            :         }
    1076                 :          0 : }
    1077                 :            : 
    1078                 :          0 : static int ena_link_update(struct rte_eth_dev *dev,
    1079                 :            :                            __rte_unused int wait_to_complete)
    1080                 :            : {
    1081                 :          0 :         struct rte_eth_link *link = &dev->data->dev_link;
    1082                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1083                 :            : 
    1084                 :          0 :         link->link_status = adapter->link_status ? RTE_ETH_LINK_UP : RTE_ETH_LINK_DOWN;
    1085                 :          0 :         link->link_speed = RTE_ETH_SPEED_NUM_NONE;
    1086                 :          0 :         link->link_duplex = RTE_ETH_LINK_FULL_DUPLEX;
    1087                 :            : 
    1088                 :          0 :         return 0;
    1089                 :            : }
    1090                 :            : 
    1091                 :          0 : static int ena_queue_start_all(struct rte_eth_dev *dev,
    1092                 :            :                                enum ena_ring_type ring_type)
    1093                 :            : {
    1094                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1095                 :            :         struct ena_ring *queues = NULL;
    1096                 :            :         int nb_queues;
    1097                 :            :         int i = 0;
    1098                 :            :         int rc = 0;
    1099                 :            : 
    1100         [ #  # ]:          0 :         if (ring_type == ENA_RING_TYPE_RX) {
    1101                 :          0 :                 queues = adapter->rx_ring;
    1102                 :          0 :                 nb_queues = dev->data->nb_rx_queues;
    1103                 :            :         } else {
    1104                 :          0 :                 queues = adapter->tx_ring;
    1105                 :          0 :                 nb_queues = dev->data->nb_tx_queues;
    1106                 :            :         }
    1107         [ #  # ]:          0 :         for (i = 0; i < nb_queues; i++) {
    1108         [ #  # ]:          0 :                 if (queues[i].configured) {
    1109         [ #  # ]:          0 :                         if (ring_type == ENA_RING_TYPE_RX) {
    1110         [ #  # ]:          0 :                                 ena_assert_msg(
    1111                 :            :                                         dev->data->rx_queues[i] == &queues[i],
    1112                 :            :                                         "Inconsistent state of Rx queues\n");
    1113                 :            :                         } else {
    1114         [ #  # ]:          0 :                                 ena_assert_msg(
    1115                 :            :                                         dev->data->tx_queues[i] == &queues[i],
    1116                 :            :                                         "Inconsistent state of Tx queues\n");
    1117                 :            :                         }
    1118                 :            : 
    1119                 :          0 :                         rc = ena_queue_start(dev, &queues[i]);
    1120                 :            : 
    1121         [ #  # ]:          0 :                         if (rc) {
    1122                 :          0 :                                 PMD_INIT_LOG_LINE(ERR,
    1123                 :            :                                         "Failed to start queue[%d] of type(%d)",
    1124                 :            :                                         i, ring_type);
    1125                 :          0 :                                 goto err;
    1126                 :            :                         }
    1127                 :            :                 }
    1128                 :            :         }
    1129                 :            : 
    1130                 :            :         return 0;
    1131                 :            : 
    1132                 :            : err:
    1133         [ #  # ]:          0 :         while (i--)
    1134         [ #  # ]:          0 :                 if (queues[i].configured)
    1135                 :          0 :                         ena_queue_stop(&queues[i]);
    1136                 :            : 
    1137                 :            :         return rc;
    1138                 :            : }
    1139                 :            : 
    1140                 :            : static int
    1141                 :          0 : ena_calc_io_queue_size(struct ena_calc_queue_size_ctx *ctx,
    1142                 :            :                        bool use_large_llq_hdr)
    1143                 :            : {
    1144                 :          0 :         struct ena_admin_feature_llq_desc *dev = &ctx->get_feat_ctx->llq;
    1145                 :          0 :         struct ena_com_dev *ena_dev = ctx->ena_dev;
    1146                 :            :         uint32_t max_tx_queue_size;
    1147                 :            :         uint32_t max_rx_queue_size;
    1148                 :            : 
    1149         [ #  # ]:          0 :         if (ena_dev->supported_features & BIT(ENA_ADMIN_MAX_QUEUES_EXT)) {
    1150                 :            :                 struct ena_admin_queue_ext_feature_fields *max_queue_ext =
    1151                 :            :                         &ctx->get_feat_ctx->max_queue_ext.max_queue_ext;
    1152                 :          0 :                 max_rx_queue_size = RTE_MIN(max_queue_ext->max_rx_cq_depth,
    1153                 :            :                         max_queue_ext->max_rx_sq_depth);
    1154                 :          0 :                 max_tx_queue_size = max_queue_ext->max_tx_cq_depth;
    1155                 :            : 
    1156         [ #  # ]:          0 :                 if (ena_dev->tx_mem_queue_type ==
    1157                 :            :                     ENA_ADMIN_PLACEMENT_POLICY_DEV) {
    1158                 :          0 :                         max_tx_queue_size = RTE_MIN(max_tx_queue_size,
    1159                 :            :                                 dev->max_llq_depth);
    1160                 :            :                 } else {
    1161                 :          0 :                         max_tx_queue_size = RTE_MIN(max_tx_queue_size,
    1162                 :            :                                 max_queue_ext->max_tx_sq_depth);
    1163                 :            :                 }
    1164                 :            : 
    1165                 :          0 :                 ctx->max_rx_sgl_size = RTE_MIN(ENA_PKT_MAX_BUFS,
    1166                 :            :                         max_queue_ext->max_per_packet_rx_descs);
    1167                 :          0 :                 ctx->max_tx_sgl_size = RTE_MIN(ENA_PKT_MAX_BUFS,
    1168                 :            :                         max_queue_ext->max_per_packet_tx_descs);
    1169                 :            :         } else {
    1170                 :            :                 struct ena_admin_queue_feature_desc *max_queues =
    1171                 :            :                         &ctx->get_feat_ctx->max_queues;
    1172                 :          0 :                 max_rx_queue_size = RTE_MIN(max_queues->max_cq_depth,
    1173                 :            :                         max_queues->max_sq_depth);
    1174                 :            :                 max_tx_queue_size = max_queues->max_cq_depth;
    1175                 :            : 
    1176         [ #  # ]:          0 :                 if (ena_dev->tx_mem_queue_type ==
    1177                 :            :                     ENA_ADMIN_PLACEMENT_POLICY_DEV) {
    1178                 :          0 :                         max_tx_queue_size = RTE_MIN(max_tx_queue_size,
    1179                 :            :                                 dev->max_llq_depth);
    1180                 :            :                 } else {
    1181                 :            :                         max_tx_queue_size = RTE_MIN(max_tx_queue_size,
    1182                 :            :                                 max_queues->max_sq_depth);
    1183                 :            :                 }
    1184                 :            : 
    1185                 :          0 :                 ctx->max_rx_sgl_size = RTE_MIN(ENA_PKT_MAX_BUFS,
    1186                 :            :                         max_queues->max_packet_rx_descs);
    1187                 :          0 :                 ctx->max_tx_sgl_size = RTE_MIN(ENA_PKT_MAX_BUFS,
    1188                 :            :                         max_queues->max_packet_tx_descs);
    1189                 :            :         }
    1190                 :            : 
    1191                 :            :         /* Round down to the nearest power of 2 */
    1192                 :            :         max_rx_queue_size = rte_align32prevpow2(max_rx_queue_size);
    1193                 :            :         max_tx_queue_size = rte_align32prevpow2(max_tx_queue_size);
    1194                 :            : 
    1195   [ #  #  #  # ]:          0 :         if (ena_dev->tx_mem_queue_type == ENA_ADMIN_PLACEMENT_POLICY_DEV && use_large_llq_hdr) {
    1196                 :            :                 /* intersection between driver configuration and device capabilities */
    1197         [ #  # ]:          0 :                 if (dev->entry_size_ctrl_supported & ENA_ADMIN_LIST_ENTRY_SIZE_256B) {
    1198         [ #  # ]:          0 :                         if (dev->max_wide_llq_depth == MAX_WIDE_LLQ_DEPTH_UNSUPPORTED) {
    1199                 :            :                                 /* Devices that do not support the double-sized ENA memory BAR will
    1200                 :            :                                  * report max_wide_llq_depth as 0. In such case, driver halves the
    1201                 :            :                                  * queue depth when working in large llq policy.
    1202                 :            :                                  */
    1203                 :          0 :                                 max_tx_queue_size >>= 1;
    1204                 :          0 :                                 PMD_INIT_LOG_LINE(INFO,
    1205                 :            :                                         "large LLQ policy requires limiting Tx queue size to %u entries",
    1206                 :            :                                 max_tx_queue_size);
    1207                 :          0 :                         } else if (dev->max_wide_llq_depth < max_tx_queue_size) {
    1208                 :            :                                 /* In case the queue depth that the driver calculated exceeds
    1209                 :            :                                  * the maximal value that the device allows, it will be limited
    1210                 :            :                                  * to that maximal value
    1211                 :            :                                  */
    1212                 :            :                                 max_tx_queue_size = dev->max_wide_llq_depth;
    1213                 :            :                         }
    1214                 :            :                 } else {
    1215                 :          0 :                         PMD_INIT_LOG_LINE(INFO,
    1216                 :            :                                 "Forcing large LLQ headers failed since device lacks this support");
    1217                 :            :                 }
    1218                 :            :         }
    1219                 :            : 
    1220         [ #  # ]:          0 :         if (unlikely(max_rx_queue_size == 0 || max_tx_queue_size == 0)) {
    1221                 :          0 :                 PMD_INIT_LOG_LINE(ERR, "Invalid queue size");
    1222                 :          0 :                 return -EFAULT;
    1223                 :            :         }
    1224                 :            : 
    1225                 :          0 :         ctx->max_tx_queue_size = max_tx_queue_size;
    1226                 :          0 :         ctx->max_rx_queue_size = max_rx_queue_size;
    1227                 :            : 
    1228                 :          0 :         PMD_DRV_LOG_LINE(INFO, "tx queue size %u", max_tx_queue_size);
    1229                 :          0 :         return 0;
    1230                 :            : }
    1231                 :            : 
    1232                 :            : static void ena_stats_restart(struct rte_eth_dev *dev)
    1233                 :            : {
    1234                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1235                 :            : 
    1236                 :          0 :         rte_atomic64_init(&adapter->drv_stats->ierrors);
    1237                 :            :         rte_atomic64_init(&adapter->drv_stats->oerrors);
    1238                 :            :         rte_atomic64_init(&adapter->drv_stats->rx_nombuf);
    1239                 :          0 :         adapter->drv_stats->rx_drops = 0;
    1240                 :            : }
    1241                 :            : 
    1242                 :          0 : static int ena_stats_get(struct rte_eth_dev *dev,
    1243                 :            :                           struct rte_eth_stats *stats)
    1244                 :            : {
    1245                 :            :         struct ena_admin_basic_stats ena_stats;
    1246                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1247                 :          0 :         struct ena_com_dev *ena_dev = &adapter->ena_dev;
    1248                 :            :         int rc;
    1249                 :            :         int i;
    1250                 :            :         int max_rings_stats;
    1251                 :            : 
    1252                 :            :         memset(&ena_stats, 0, sizeof(ena_stats));
    1253                 :            : 
    1254                 :          0 :         rte_spinlock_lock(&adapter->admin_lock);
    1255   [ #  #  #  #  :          0 :         rc = ENA_PROXY(adapter, ena_com_get_dev_basic_stats, ena_dev,
             #  #  #  # ]
    1256                 :            :                        &ena_stats);
    1257                 :            :         rte_spinlock_unlock(&adapter->admin_lock);
    1258         [ #  # ]:          0 :         if (unlikely(rc)) {
    1259                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Could not retrieve statistics from ENA");
    1260                 :          0 :                 return rc;
    1261                 :            :         }
    1262                 :            : 
    1263                 :            :         /* Set of basic statistics from ENA */
    1264                 :          0 :         stats->ipackets = __MERGE_64B_H_L(ena_stats.rx_pkts_high,
    1265                 :            :                                           ena_stats.rx_pkts_low);
    1266                 :          0 :         stats->opackets = __MERGE_64B_H_L(ena_stats.tx_pkts_high,
    1267                 :            :                                           ena_stats.tx_pkts_low);
    1268                 :          0 :         stats->ibytes = __MERGE_64B_H_L(ena_stats.rx_bytes_high,
    1269                 :            :                                         ena_stats.rx_bytes_low);
    1270                 :          0 :         stats->obytes = __MERGE_64B_H_L(ena_stats.tx_bytes_high,
    1271                 :            :                                         ena_stats.tx_bytes_low);
    1272                 :            : 
    1273                 :            :         /* Driver related stats */
    1274                 :          0 :         stats->imissed = adapter->drv_stats->rx_drops;
    1275                 :          0 :         stats->ierrors = rte_atomic64_read(&adapter->drv_stats->ierrors);
    1276                 :          0 :         stats->oerrors = rte_atomic64_read(&adapter->drv_stats->oerrors);
    1277                 :          0 :         stats->rx_nombuf = rte_atomic64_read(&adapter->drv_stats->rx_nombuf);
    1278                 :            : 
    1279                 :          0 :         max_rings_stats = RTE_MIN(dev->data->nb_rx_queues,
    1280                 :            :                 RTE_ETHDEV_QUEUE_STAT_CNTRS);
    1281         [ #  # ]:          0 :         for (i = 0; i < max_rings_stats; ++i) {
    1282                 :            :                 struct ena_stats_rx *rx_stats = &adapter->rx_ring[i].rx_stats;
    1283                 :            : 
    1284                 :          0 :                 stats->q_ibytes[i] = rx_stats->bytes;
    1285                 :          0 :                 stats->q_ipackets[i] = rx_stats->cnt;
    1286                 :          0 :                 stats->q_errors[i] = rx_stats->bad_desc_num +
    1287                 :          0 :                         rx_stats->bad_req_id +
    1288                 :          0 :                         rx_stats->bad_desc +
    1289                 :          0 :                         rx_stats->unknown_error;
    1290                 :            :         }
    1291                 :            : 
    1292                 :          0 :         max_rings_stats = RTE_MIN(dev->data->nb_tx_queues,
    1293                 :            :                 RTE_ETHDEV_QUEUE_STAT_CNTRS);
    1294         [ #  # ]:          0 :         for (i = 0; i < max_rings_stats; ++i) {
    1295                 :            :                 struct ena_stats_tx *tx_stats = &adapter->tx_ring[i].tx_stats;
    1296                 :            : 
    1297                 :          0 :                 stats->q_obytes[i] = tx_stats->bytes;
    1298                 :          0 :                 stats->q_opackets[i] = tx_stats->cnt;
    1299                 :            :         }
    1300                 :            : 
    1301                 :            :         return 0;
    1302                 :            : }
    1303                 :            : 
    1304                 :          0 : static int ena_mtu_set(struct rte_eth_dev *dev, uint16_t mtu)
    1305                 :            : {
    1306                 :            :         struct ena_adapter *adapter;
    1307                 :            :         struct ena_com_dev *ena_dev;
    1308                 :            :         int rc = 0;
    1309                 :            : 
    1310         [ #  # ]:          0 :         ena_assert_msg(dev->data != NULL, "Uninitialized device\n");
    1311         [ #  # ]:          0 :         ena_assert_msg(dev->data->dev_private != NULL, "Uninitialized device\n");
    1312                 :            :         adapter = dev->data->dev_private;
    1313                 :            : 
    1314                 :          0 :         ena_dev = &adapter->ena_dev;
    1315                 :            :         ena_assert_msg(ena_dev != NULL, "Uninitialized device\n");
    1316                 :            : 
    1317   [ #  #  #  #  :          0 :         rc = ENA_PROXY(adapter, ena_com_set_dev_mtu, ena_dev, mtu);
             #  #  #  # ]
    1318         [ #  # ]:          0 :         if (rc)
    1319                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Could not set MTU: %d", mtu);
    1320                 :            :         else
    1321                 :          0 :                 PMD_DRV_LOG_LINE(NOTICE, "MTU set to: %d", mtu);
    1322                 :            : 
    1323                 :          0 :         return rc;
    1324                 :            : }
    1325                 :            : 
    1326                 :          0 : static int ena_start(struct rte_eth_dev *dev)
    1327                 :            : {
    1328                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1329                 :            :         uint64_t ticks;
    1330                 :            :         int rc = 0;
    1331                 :            :         uint16_t i;
    1332                 :            : 
    1333                 :            :         /* Cannot allocate memory in secondary process */
    1334         [ #  # ]:          0 :         if (rte_eal_process_type() != RTE_PROC_PRIMARY) {
    1335                 :          0 :                 PMD_DRV_LOG_LINE(WARNING, "dev_start not supported in secondary.");
    1336                 :          0 :                 return -EPERM;
    1337                 :            :         }
    1338                 :            : 
    1339                 :          0 :         rc = ena_setup_rx_intr(dev);
    1340         [ #  # ]:          0 :         if (rc)
    1341                 :            :                 return rc;
    1342                 :            : 
    1343                 :          0 :         rc = ena_queue_start_all(dev, ENA_RING_TYPE_RX);
    1344         [ #  # ]:          0 :         if (rc)
    1345                 :            :                 return rc;
    1346                 :            : 
    1347                 :          0 :         rc = ena_queue_start_all(dev, ENA_RING_TYPE_TX);
    1348         [ #  # ]:          0 :         if (rc)
    1349                 :          0 :                 goto err_start_tx;
    1350                 :            : 
    1351         [ #  # ]:          0 :         if (adapter->enable_frag_bypass) {
    1352                 :          0 :                 rc = ena_com_set_frag_bypass(&adapter->ena_dev, true);
    1353         [ #  # ]:          0 :                 if (rc)
    1354                 :          0 :                         PMD_DRV_LOG_LINE(WARNING, "Failed to enable frag bypass, rc: %d", rc);
    1355                 :            :         }
    1356         [ #  # ]:          0 :         if (adapter->edev_data->dev_conf.rxmode.mq_mode & RTE_ETH_MQ_RX_RSS_FLAG) {
    1357                 :          0 :                 rc = ena_rss_configure(adapter);
    1358         [ #  # ]:          0 :                 if (rc)
    1359                 :          0 :                         goto err_rss_init;
    1360                 :            :         }
    1361                 :            : 
    1362                 :            :         ena_stats_restart(dev);
    1363                 :            : 
    1364                 :          0 :         adapter->timestamp_wd = rte_get_timer_cycles();
    1365                 :          0 :         adapter->keep_alive_timeout = ENA_DEVICE_KALIVE_TIMEOUT;
    1366                 :            : 
    1367                 :            :         ticks = rte_get_timer_hz();
    1368                 :          0 :         rte_timer_reset(&adapter->timer_wd, ticks, PERIODICAL, rte_lcore_id(),
    1369                 :            :                         ena_timer_wd_callback, dev);
    1370                 :            : 
    1371                 :          0 :         ++adapter->dev_stats.dev_start;
    1372                 :          0 :         adapter->state = ENA_ADAPTER_STATE_RUNNING;
    1373                 :            : 
    1374         [ #  # ]:          0 :         for (i = 0; i < dev->data->nb_rx_queues; i++)
    1375                 :          0 :                 dev->data->rx_queue_state[i] = RTE_ETH_QUEUE_STATE_STARTED;
    1376         [ #  # ]:          0 :         for (i = 0; i < dev->data->nb_tx_queues; i++)
    1377                 :          0 :                 dev->data->tx_queue_state[i] = RTE_ETH_QUEUE_STATE_STARTED;
    1378                 :            : 
    1379                 :            :         return 0;
    1380                 :            : 
    1381                 :            : err_rss_init:
    1382                 :          0 :         ena_queue_stop_all(dev, ENA_RING_TYPE_TX);
    1383                 :          0 : err_start_tx:
    1384                 :          0 :         ena_queue_stop_all(dev, ENA_RING_TYPE_RX);
    1385                 :          0 :         return rc;
    1386                 :            : }
    1387                 :            : 
    1388                 :          0 : static int ena_stop(struct rte_eth_dev *dev)
    1389                 :            : {
    1390                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1391                 :          0 :         struct ena_com_dev *ena_dev = &adapter->ena_dev;
    1392                 :          0 :         struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
    1393                 :          0 :         struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
    1394                 :            :         uint16_t i;
    1395                 :            :         int rc;
    1396                 :            : 
    1397                 :            :         /* Cannot free memory in secondary process */
    1398         [ #  # ]:          0 :         if (rte_eal_process_type() != RTE_PROC_PRIMARY) {
    1399                 :          0 :                 PMD_DRV_LOG_LINE(WARNING, "dev_stop not supported in secondary.");
    1400                 :          0 :                 return -EPERM;
    1401                 :            :         }
    1402                 :            : 
    1403                 :          0 :         rte_timer_stop_sync(&adapter->timer_wd);
    1404                 :          0 :         ena_queue_stop_all(dev, ENA_RING_TYPE_TX);
    1405                 :          0 :         ena_queue_stop_all(dev, ENA_RING_TYPE_RX);
    1406                 :            : 
    1407         [ #  # ]:          0 :         if (adapter->trigger_reset) {
    1408                 :          0 :                 rc = ena_com_dev_reset(ena_dev, adapter->reset_reason);
    1409         [ #  # ]:          0 :                 if (rc)
    1410                 :          0 :                         PMD_DRV_LOG_LINE(ERR, "Device reset failed, rc: %d", rc);
    1411                 :            :         }
    1412                 :            : 
    1413                 :          0 :         rte_intr_disable(intr_handle);
    1414                 :            : 
    1415                 :          0 :         rte_intr_efd_disable(intr_handle);
    1416                 :            : 
    1417                 :            :         /* Cleanup vector list */
    1418                 :          0 :         rte_intr_vec_list_free(intr_handle);
    1419                 :            : 
    1420                 :          0 :         rte_intr_enable(intr_handle);
    1421                 :            : 
    1422                 :          0 :         ++adapter->dev_stats.dev_stop;
    1423                 :          0 :         adapter->state = ENA_ADAPTER_STATE_STOPPED;
    1424                 :          0 :         dev->data->dev_started = 0;
    1425                 :            : 
    1426         [ #  # ]:          0 :         for (i = 0; i < dev->data->nb_rx_queues; i++)
    1427                 :          0 :                 dev->data->rx_queue_state[i] = RTE_ETH_QUEUE_STATE_STOPPED;
    1428         [ #  # ]:          0 :         for (i = 0; i < dev->data->nb_tx_queues; i++)
    1429                 :          0 :                 dev->data->tx_queue_state[i] = RTE_ETH_QUEUE_STATE_STOPPED;
    1430                 :            : 
    1431                 :            :         return 0;
    1432                 :            : }
    1433                 :            : 
    1434                 :          0 : static int ena_create_io_queue(struct rte_eth_dev *dev, struct ena_ring *ring)
    1435                 :            : {
    1436                 :          0 :         struct ena_adapter *adapter = ring->adapter;
    1437                 :          0 :         struct ena_com_dev *ena_dev = &adapter->ena_dev;
    1438                 :          0 :         struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
    1439                 :          0 :         struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
    1440                 :          0 :         struct ena_com_create_io_ctx ctx =
    1441                 :            :                 { ENA_ADMIN_PLACEMENT_POLICY_HOST,
    1442                 :            :                   0, 0, 0, 0, 0 };
    1443                 :            :         uint16_t ena_qid;
    1444                 :            :         unsigned int i;
    1445                 :            :         int rc;
    1446                 :            : 
    1447                 :          0 :         ctx.msix_vector = -1;
    1448         [ #  # ]:          0 :         if (ring->type == ENA_RING_TYPE_TX) {
    1449                 :          0 :                 ena_qid = ENA_IO_TXQ_IDX(ring->id);
    1450                 :            :                 ctx.direction = ENA_COM_IO_QUEUE_DIRECTION_TX;
    1451                 :          0 :                 ctx.mem_queue_type = ena_dev->tx_mem_queue_type;
    1452         [ #  # ]:          0 :                 for (i = 0; i < ring->ring_size; i++)
    1453                 :          0 :                         ring->empty_tx_reqs[i] = i;
    1454                 :            :         } else {
    1455                 :          0 :                 ena_qid = ENA_IO_RXQ_IDX(ring->id);
    1456                 :          0 :                 ctx.direction = ENA_COM_IO_QUEUE_DIRECTION_RX;
    1457         [ #  # ]:          0 :                 if (rte_intr_dp_is_en(intr_handle))
    1458                 :          0 :                         ctx.msix_vector =
    1459                 :          0 :                                 rte_intr_vec_list_index_get(intr_handle,
    1460                 :          0 :                                                                    ring->id);
    1461                 :            : 
    1462         [ #  # ]:          0 :                 for (i = 0; i < ring->ring_size; i++)
    1463                 :          0 :                         ring->empty_rx_reqs[i] = i;
    1464                 :            :         }
    1465                 :          0 :         ctx.queue_size = ring->ring_size;
    1466                 :          0 :         ctx.qid = ena_qid;
    1467                 :          0 :         ctx.numa_node = ring->numa_socket_id;
    1468                 :            : 
    1469                 :          0 :         rc = ena_com_create_io_queue(ena_dev, &ctx);
    1470         [ #  # ]:          0 :         if (rc) {
    1471                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1472                 :            :                         "Failed to create IO queue[%d] (qid:%d), rc: %d",
    1473                 :            :                         ring->id, ena_qid, rc);
    1474                 :          0 :                 return rc;
    1475                 :            :         }
    1476                 :            : 
    1477                 :          0 :         rc = ena_com_get_io_handlers(ena_dev, ena_qid,
    1478                 :            :                                      &ring->ena_com_io_sq,
    1479                 :            :                                      &ring->ena_com_io_cq);
    1480         [ #  # ]:          0 :         if (rc) {
    1481                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1482                 :            :                         "Failed to get IO queue[%d] handlers, rc: %d",
    1483                 :            :                         ring->id, rc);
    1484                 :          0 :                 ena_com_destroy_io_queue(ena_dev, ena_qid);
    1485                 :          0 :                 return rc;
    1486                 :            :         }
    1487                 :            : 
    1488         [ #  # ]:          0 :         if (ring->type == ENA_RING_TYPE_TX)
    1489         [ #  # ]:          0 :                 ena_com_update_numa_node(ring->ena_com_io_cq, ctx.numa_node);
    1490                 :            : 
    1491                 :            :         /* Start with Rx interrupts being masked. */
    1492   [ #  #  #  # ]:          0 :         if (ring->type == ENA_RING_TYPE_RX && rte_intr_dp_is_en(intr_handle))
    1493                 :          0 :                 ena_rx_queue_intr_disable(dev, ring->id);
    1494                 :            : 
    1495                 :            :         return 0;
    1496                 :            : }
    1497                 :            : 
    1498                 :          0 : static void ena_queue_stop(struct ena_ring *ring)
    1499                 :            : {
    1500                 :          0 :         struct ena_com_dev *ena_dev = &ring->adapter->ena_dev;
    1501                 :            : 
    1502         [ #  # ]:          0 :         if (ring->type == ENA_RING_TYPE_RX) {
    1503                 :          0 :                 ena_com_destroy_io_queue(ena_dev, ENA_IO_RXQ_IDX(ring->id));
    1504                 :          0 :                 ena_rx_queue_release_bufs(ring);
    1505                 :            :         } else {
    1506                 :          0 :                 ena_com_destroy_io_queue(ena_dev, ENA_IO_TXQ_IDX(ring->id));
    1507                 :          0 :                 ena_tx_queue_release_bufs(ring);
    1508                 :            :         }
    1509                 :          0 : }
    1510                 :            : 
    1511                 :          0 : static void ena_queue_stop_all(struct rte_eth_dev *dev,
    1512                 :            :                               enum ena_ring_type ring_type)
    1513                 :            : {
    1514                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1515                 :            :         struct ena_ring *queues = NULL;
    1516                 :            :         uint16_t nb_queues, i;
    1517                 :            : 
    1518         [ #  # ]:          0 :         if (ring_type == ENA_RING_TYPE_RX) {
    1519                 :          0 :                 queues = adapter->rx_ring;
    1520                 :          0 :                 nb_queues = dev->data->nb_rx_queues;
    1521                 :            :         } else {
    1522                 :          0 :                 queues = adapter->tx_ring;
    1523                 :          0 :                 nb_queues = dev->data->nb_tx_queues;
    1524                 :            :         }
    1525                 :            : 
    1526         [ #  # ]:          0 :         for (i = 0; i < nb_queues; ++i)
    1527         [ #  # ]:          0 :                 if (queues[i].configured)
    1528                 :          0 :                         ena_queue_stop(&queues[i]);
    1529                 :          0 : }
    1530                 :            : 
    1531                 :          0 : static int ena_queue_start(struct rte_eth_dev *dev, struct ena_ring *ring)
    1532                 :            : {
    1533                 :            :         int rc, bufs_num;
    1534                 :            : 
    1535         [ #  # ]:          0 :         ena_assert_msg(ring->configured == 1,
    1536                 :            :                        "Trying to start unconfigured queue\n");
    1537                 :            : 
    1538                 :          0 :         rc = ena_create_io_queue(dev, ring);
    1539         [ #  # ]:          0 :         if (rc) {
    1540                 :          0 :                 PMD_INIT_LOG_LINE(ERR, "Failed to create IO queue");
    1541                 :          0 :                 return rc;
    1542                 :            :         }
    1543                 :            : 
    1544                 :          0 :         ring->next_to_clean = 0;
    1545                 :          0 :         ring->next_to_use = 0;
    1546                 :            : 
    1547         [ #  # ]:          0 :         if (ring->type == ENA_RING_TYPE_TX) {
    1548                 :          0 :                 ring->tx_stats.available_desc =
    1549                 :          0 :                         ena_com_free_q_entries(ring->ena_com_io_sq);
    1550                 :          0 :                 return 0;
    1551                 :            :         }
    1552                 :            : 
    1553                 :          0 :         bufs_num = ring->ring_size - 1;
    1554                 :          0 :         rc = ena_populate_rx_queue(ring, bufs_num);
    1555         [ #  # ]:          0 :         if (rc != bufs_num) {
    1556                 :          0 :                 ena_com_destroy_io_queue(&ring->adapter->ena_dev,
    1557                 :          0 :                                          ENA_IO_RXQ_IDX(ring->id));
    1558                 :          0 :                 PMD_INIT_LOG_LINE(ERR, "Failed to populate Rx ring");
    1559                 :          0 :                 return ENA_COM_FAULT;
    1560                 :            :         }
    1561                 :            :         /* Flush per-core RX buffers pools cache as they can be used on other
    1562                 :            :          * cores as well.
    1563                 :            :          */
    1564         [ #  # ]:          0 :         rte_mempool_cache_flush(NULL, ring->mb_pool);
    1565                 :            : 
    1566                 :            :         return 0;
    1567                 :            : }
    1568                 :            : 
    1569                 :          0 : static int ena_tx_queue_setup(struct rte_eth_dev *dev,
    1570                 :            :                               uint16_t queue_idx,
    1571                 :            :                               uint16_t nb_desc,
    1572                 :            :                               unsigned int socket_id,
    1573                 :            :                               const struct rte_eth_txconf *tx_conf)
    1574                 :            : {
    1575                 :            :         struct ena_ring *txq = NULL;
    1576                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1577                 :            :         unsigned int i;
    1578                 :            :         uint16_t dyn_thresh;
    1579                 :            : 
    1580                 :          0 :         txq = &adapter->tx_ring[queue_idx];
    1581                 :            : 
    1582         [ #  # ]:          0 :         if (txq->configured) {
    1583                 :          0 :                 PMD_DRV_LOG_LINE(CRIT,
    1584                 :            :                         "API violation. Queue[%d] is already configured",
    1585                 :            :                         queue_idx);
    1586                 :          0 :                 return ENA_COM_FAULT;
    1587                 :            :         }
    1588                 :            : 
    1589         [ #  # ]:          0 :         if (!rte_is_power_of_2(nb_desc)) {
    1590                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1591                 :            :                         "Unsupported size of Tx queue: %d is not a power of 2.",
    1592                 :            :                         nb_desc);
    1593                 :          0 :                 return -EINVAL;
    1594                 :            :         }
    1595                 :            : 
    1596         [ #  # ]:          0 :         if (nb_desc > adapter->max_tx_ring_size) {
    1597                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1598                 :            :                         "Unsupported size of Tx queue (max size: %d)",
    1599                 :            :                         adapter->max_tx_ring_size);
    1600                 :          0 :                 return -EINVAL;
    1601                 :            :         }
    1602                 :            : 
    1603                 :          0 :         txq->port_id = dev->data->port_id;
    1604                 :          0 :         txq->next_to_clean = 0;
    1605                 :          0 :         txq->next_to_use = 0;
    1606                 :          0 :         txq->ring_size = nb_desc;
    1607                 :          0 :         txq->size_mask = nb_desc - 1;
    1608                 :          0 :         txq->numa_socket_id = socket_id;
    1609                 :          0 :         txq->pkts_without_db = false;
    1610                 :          0 :         txq->last_cleanup_ticks = 0;
    1611                 :            : 
    1612                 :          0 :         txq->tx_buffer_info = rte_zmalloc_socket("txq->tx_buffer_info",
    1613                 :          0 :                 sizeof(struct ena_tx_buffer) * txq->ring_size,
    1614                 :            :                 RTE_CACHE_LINE_SIZE,
    1615                 :            :                 socket_id);
    1616         [ #  # ]:          0 :         if (!txq->tx_buffer_info) {
    1617                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1618                 :            :                         "Failed to allocate memory for Tx buffer info");
    1619                 :          0 :                 return -ENOMEM;
    1620                 :            :         }
    1621                 :            : 
    1622                 :          0 :         txq->empty_tx_reqs = rte_zmalloc_socket("txq->empty_tx_reqs",
    1623                 :          0 :                 sizeof(uint16_t) * txq->ring_size,
    1624                 :            :                 RTE_CACHE_LINE_SIZE,
    1625                 :            :                 socket_id);
    1626         [ #  # ]:          0 :         if (!txq->empty_tx_reqs) {
    1627                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1628                 :            :                         "Failed to allocate memory for empty Tx requests");
    1629                 :          0 :                 rte_free(txq->tx_buffer_info);
    1630                 :          0 :                 return -ENOMEM;
    1631                 :            :         }
    1632                 :            : 
    1633                 :          0 :         txq->push_buf_intermediate_buf =
    1634                 :          0 :                 rte_zmalloc_socket("txq->push_buf_intermediate_buf",
    1635                 :          0 :                         txq->tx_max_header_size,
    1636                 :            :                         RTE_CACHE_LINE_SIZE,
    1637                 :            :                         socket_id);
    1638         [ #  # ]:          0 :         if (!txq->push_buf_intermediate_buf) {
    1639                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Failed to alloc push buffer for LLQ");
    1640                 :          0 :                 rte_free(txq->tx_buffer_info);
    1641                 :          0 :                 rte_free(txq->empty_tx_reqs);
    1642                 :          0 :                 return -ENOMEM;
    1643                 :            :         }
    1644                 :            : 
    1645         [ #  # ]:          0 :         for (i = 0; i < txq->ring_size; i++)
    1646                 :          0 :                 txq->empty_tx_reqs[i] = i;
    1647                 :            : 
    1648                 :          0 :         txq->offloads = tx_conf->offloads | dev->data->dev_conf.txmode.offloads;
    1649                 :            : 
    1650                 :            :         /* Check if caller provided the Tx cleanup threshold value. */
    1651         [ #  # ]:          0 :         if (tx_conf->tx_free_thresh != 0) {
    1652                 :          0 :                 txq->tx_free_thresh = tx_conf->tx_free_thresh;
    1653                 :            :         } else {
    1654                 :          0 :                 dyn_thresh = txq->ring_size -
    1655                 :          0 :                         txq->ring_size / ENA_REFILL_THRESH_DIVIDER;
    1656                 :          0 :                 txq->tx_free_thresh = RTE_MAX(dyn_thresh,
    1657                 :            :                         txq->ring_size - ENA_REFILL_THRESH_PACKET);
    1658                 :            :         }
    1659                 :            : 
    1660                 :          0 :         txq->missing_tx_completion_threshold =
    1661                 :          0 :                 RTE_MIN(txq->ring_size / 2, ENA_DEFAULT_MISSING_COMP);
    1662                 :            : 
    1663                 :            :         /* Store pointer to this queue in upper layer */
    1664                 :          0 :         txq->configured = 1;
    1665                 :          0 :         dev->data->tx_queues[queue_idx] = txq;
    1666                 :            : 
    1667                 :          0 :         return 0;
    1668                 :            : }
    1669                 :            : 
    1670                 :          0 : static int ena_rx_queue_setup(struct rte_eth_dev *dev,
    1671                 :            :                               uint16_t queue_idx,
    1672                 :            :                               uint16_t nb_desc,
    1673                 :            :                               unsigned int socket_id,
    1674                 :            :                               const struct rte_eth_rxconf *rx_conf,
    1675                 :            :                               struct rte_mempool *mp)
    1676                 :            : {
    1677                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1678                 :            :         struct ena_ring *rxq = NULL;
    1679                 :            :         size_t buffer_size;
    1680                 :            :         int i;
    1681                 :            :         uint16_t dyn_thresh;
    1682                 :            : 
    1683                 :          0 :         rxq = &adapter->rx_ring[queue_idx];
    1684         [ #  # ]:          0 :         if (rxq->configured) {
    1685                 :          0 :                 PMD_DRV_LOG_LINE(CRIT,
    1686                 :            :                         "API violation. Queue[%d] is already configured",
    1687                 :            :                         queue_idx);
    1688                 :          0 :                 return ENA_COM_FAULT;
    1689                 :            :         }
    1690                 :            : 
    1691         [ #  # ]:          0 :         if (!rte_is_power_of_2(nb_desc)) {
    1692                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1693                 :            :                         "Unsupported size of Rx queue: %d is not a power of 2.",
    1694                 :            :                         nb_desc);
    1695                 :          0 :                 return -EINVAL;
    1696                 :            :         }
    1697                 :            : 
    1698         [ #  # ]:          0 :         if (nb_desc > adapter->max_rx_ring_size) {
    1699                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1700                 :            :                         "Unsupported size of Rx queue (max size: %d)",
    1701                 :            :                         adapter->max_rx_ring_size);
    1702                 :          0 :                 return -EINVAL;
    1703                 :            :         }
    1704                 :            : 
    1705                 :            :         /* ENA isn't supporting buffers smaller than 1400 bytes */
    1706                 :          0 :         buffer_size = rte_pktmbuf_data_room_size(mp) - RTE_PKTMBUF_HEADROOM;
    1707         [ #  # ]:          0 :         if (buffer_size < ENA_RX_BUF_MIN_SIZE) {
    1708                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1709                 :            :                         "Unsupported size of Rx buffer: %zu (min size: %d)",
    1710                 :            :                         buffer_size, ENA_RX_BUF_MIN_SIZE);
    1711                 :          0 :                 return -EINVAL;
    1712                 :            :         }
    1713                 :            : 
    1714                 :          0 :         rxq->port_id = dev->data->port_id;
    1715                 :          0 :         rxq->next_to_clean = 0;
    1716                 :          0 :         rxq->next_to_use = 0;
    1717                 :          0 :         rxq->ring_size = nb_desc;
    1718                 :          0 :         rxq->size_mask = nb_desc - 1;
    1719                 :          0 :         rxq->numa_socket_id = socket_id;
    1720                 :          0 :         rxq->mb_pool = mp;
    1721                 :            : 
    1722                 :          0 :         rxq->rx_buffer_info = rte_zmalloc_socket("rxq->buffer_info",
    1723                 :            :                 sizeof(struct ena_rx_buffer) * nb_desc,
    1724                 :            :                 RTE_CACHE_LINE_SIZE,
    1725                 :            :                 socket_id);
    1726         [ #  # ]:          0 :         if (!rxq->rx_buffer_info) {
    1727                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1728                 :            :                         "Failed to allocate memory for Rx buffer info");
    1729                 :          0 :                 return -ENOMEM;
    1730                 :            :         }
    1731                 :            : 
    1732                 :          0 :         rxq->rx_refill_buffer = rte_zmalloc_socket("rxq->rx_refill_buffer",
    1733                 :            :                 sizeof(struct rte_mbuf *) * nb_desc,
    1734                 :            :                 RTE_CACHE_LINE_SIZE,
    1735                 :            :                 socket_id);
    1736         [ #  # ]:          0 :         if (!rxq->rx_refill_buffer) {
    1737                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1738                 :            :                         "Failed to allocate memory for Rx refill buffer");
    1739                 :          0 :                 rte_free(rxq->rx_buffer_info);
    1740                 :          0 :                 rxq->rx_buffer_info = NULL;
    1741                 :          0 :                 return -ENOMEM;
    1742                 :            :         }
    1743                 :            : 
    1744                 :          0 :         rxq->empty_rx_reqs = rte_zmalloc_socket("rxq->empty_rx_reqs",
    1745                 :            :                 sizeof(uint16_t) * nb_desc,
    1746                 :            :                 RTE_CACHE_LINE_SIZE,
    1747                 :            :                 socket_id);
    1748         [ #  # ]:          0 :         if (!rxq->empty_rx_reqs) {
    1749                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1750                 :            :                         "Failed to allocate memory for empty Rx requests");
    1751                 :          0 :                 rte_free(rxq->rx_buffer_info);
    1752                 :          0 :                 rxq->rx_buffer_info = NULL;
    1753                 :          0 :                 rte_free(rxq->rx_refill_buffer);
    1754                 :          0 :                 rxq->rx_refill_buffer = NULL;
    1755                 :          0 :                 return -ENOMEM;
    1756                 :            :         }
    1757                 :            : 
    1758         [ #  # ]:          0 :         for (i = 0; i < nb_desc; i++)
    1759                 :          0 :                 rxq->empty_rx_reqs[i] = i;
    1760                 :            : 
    1761                 :          0 :         rxq->offloads = rx_conf->offloads | dev->data->dev_conf.rxmode.offloads;
    1762                 :            : 
    1763         [ #  # ]:          0 :         if (rx_conf->rx_free_thresh != 0) {
    1764                 :          0 :                 rxq->rx_free_thresh = rx_conf->rx_free_thresh;
    1765                 :            :         } else {
    1766                 :          0 :                 dyn_thresh = rxq->ring_size / ENA_REFILL_THRESH_DIVIDER;
    1767                 :          0 :                 rxq->rx_free_thresh = RTE_MIN(dyn_thresh,
    1768                 :            :                         (uint16_t)(ENA_REFILL_THRESH_PACKET));
    1769                 :            :         }
    1770                 :            : 
    1771                 :            :         /* Store pointer to this queue in upper layer */
    1772                 :          0 :         rxq->configured = 1;
    1773                 :          0 :         dev->data->rx_queues[queue_idx] = rxq;
    1774                 :            : 
    1775                 :          0 :         return 0;
    1776                 :            : }
    1777                 :            : 
    1778                 :            : static int ena_add_single_rx_desc(struct ena_com_io_sq *io_sq,
    1779                 :            :                                   struct rte_mbuf *mbuf, uint16_t id)
    1780                 :            : {
    1781                 :            :         struct ena_com_buf ebuf;
    1782                 :            :         int rc;
    1783                 :            : 
    1784                 :            :         /* prepare physical address for DMA transaction */
    1785                 :          0 :         ebuf.paddr = mbuf->buf_iova + RTE_PKTMBUF_HEADROOM;
    1786                 :          0 :         ebuf.len = mbuf->buf_len - RTE_PKTMBUF_HEADROOM;
    1787                 :            : 
    1788                 :            :         /* pass resource to device */
    1789                 :          0 :         rc = ena_com_add_single_rx_desc(io_sq, &ebuf, id);
    1790                 :            :         if (unlikely(rc != 0))
    1791                 :            :                 PMD_RX_LOG_LINE(WARNING, "Failed adding Rx desc");
    1792                 :            : 
    1793                 :            :         return rc;
    1794                 :            : }
    1795                 :            : 
    1796                 :          0 : static int ena_populate_rx_queue(struct ena_ring *rxq, unsigned int count)
    1797                 :            : {
    1798                 :            :         unsigned int i;
    1799                 :            :         int rc;
    1800                 :          0 :         uint16_t next_to_use = rxq->next_to_use;
    1801                 :            :         uint16_t req_id;
    1802                 :            : #ifdef RTE_ETHDEV_DEBUG_RX
    1803                 :            :         uint16_t in_use;
    1804                 :            : #endif
    1805                 :          0 :         struct rte_mbuf **mbufs = rxq->rx_refill_buffer;
    1806                 :            : 
    1807         [ #  # ]:          0 :         if (unlikely(!count))
    1808                 :            :                 return 0;
    1809                 :            : 
    1810                 :            : #ifdef RTE_ETHDEV_DEBUG_RX
    1811                 :            :         in_use = rxq->ring_size - 1 -
    1812                 :            :                 ena_com_free_q_entries(rxq->ena_com_io_sq);
    1813                 :            :         if (unlikely((in_use + count) >= rxq->ring_size))
    1814                 :            :                 PMD_RX_LOG_LINE(ERR, "Bad Rx ring state");
    1815                 :            : #endif
    1816                 :            : 
    1817                 :            :         /* get resources for incoming packets */
    1818                 :          0 :         rc = rte_pktmbuf_alloc_bulk(rxq->mb_pool, mbufs, count);
    1819         [ #  # ]:          0 :         if (unlikely(rc < 0)) {
    1820                 :          0 :                 rte_atomic64_inc(&rxq->adapter->drv_stats->rx_nombuf);
    1821                 :          0 :                 ++rxq->rx_stats.mbuf_alloc_fail;
    1822                 :            :                 PMD_RX_LOG_LINE(DEBUG, "There are not enough free buffers");
    1823                 :          0 :                 return 0;
    1824                 :            :         }
    1825                 :            : 
    1826         [ #  # ]:          0 :         for (i = 0; i < count; i++) {
    1827                 :          0 :                 struct rte_mbuf *mbuf = mbufs[i];
    1828                 :            :                 struct ena_rx_buffer *rx_info;
    1829                 :            : 
    1830         [ #  # ]:          0 :                 if (likely((i + 4) < count))
    1831                 :          0 :                         rte_prefetch0(mbufs[i + 4]);
    1832                 :            : 
    1833                 :          0 :                 req_id = rxq->empty_rx_reqs[next_to_use];
    1834                 :          0 :                 rx_info = &rxq->rx_buffer_info[req_id];
    1835                 :            : 
    1836                 :          0 :                 rc = ena_add_single_rx_desc(rxq->ena_com_io_sq, mbuf, req_id);
    1837         [ #  # ]:          0 :                 if (unlikely(rc != 0))
    1838                 :            :                         break;
    1839                 :            : 
    1840                 :          0 :                 rx_info->mbuf = mbuf;
    1841                 :          0 :                 next_to_use = ENA_IDX_NEXT_MASKED(next_to_use, rxq->size_mask);
    1842                 :            :         }
    1843                 :            : 
    1844         [ #  # ]:          0 :         if (unlikely(i < count)) {
    1845                 :            :                 PMD_RX_LOG_LINE(WARNING,
    1846                 :            :                         "Refilled Rx queue[%d] with only %d/%d buffers",
    1847                 :            :                         rxq->id, i, count);
    1848                 :          0 :                 rte_pktmbuf_free_bulk(&mbufs[i], count - i);
    1849                 :          0 :                 ++rxq->rx_stats.refill_partial;
    1850                 :            :         }
    1851                 :            : 
    1852                 :            :         /* When we submitted free resources to device... */
    1853         [ #  # ]:          0 :         if (likely(i > 0)) {
    1854                 :            :                 /* ...let HW know that it can fill buffers with data. */
    1855                 :          0 :                 ena_com_write_rx_sq_doorbell(rxq->ena_com_io_sq);
    1856                 :            : 
    1857                 :          0 :                 rxq->next_to_use = next_to_use;
    1858                 :            :         }
    1859                 :            : 
    1860                 :          0 :         return i;
    1861                 :            : }
    1862                 :            : 
    1863         [ #  # ]:          0 : static size_t ena_get_metrics_entries(struct ena_adapter *adapter)
    1864                 :            : {
    1865                 :            :         struct ena_com_dev *ena_dev = &adapter->ena_dev;
    1866                 :            :         size_t metrics_num = 0;
    1867                 :            : 
    1868         [ #  # ]:          0 :         if (ena_com_get_cap(ena_dev, ENA_ADMIN_CUSTOMER_METRICS))
    1869                 :            :                 metrics_num = ENA_STATS_ARRAY_METRICS;
    1870         [ #  # ]:          0 :         else if (ena_com_get_cap(ena_dev, ENA_ADMIN_ENI_STATS))
    1871                 :            :                 metrics_num = ENA_STATS_ARRAY_METRICS_LEGACY;
    1872                 :          0 :         PMD_DRV_LOG_LINE(NOTICE, "0x%x customer metrics are supported", (unsigned int)metrics_num);
    1873                 :            :         if (metrics_num > ENA_MAX_CUSTOMER_METRICS) {
    1874                 :            :                 PMD_DRV_LOG_LINE(NOTICE, "Not enough space for the requested customer metrics");
    1875                 :            :                 metrics_num = ENA_MAX_CUSTOMER_METRICS;
    1876                 :            :         }
    1877                 :          0 :         return metrics_num;
    1878                 :            : }
    1879                 :            : 
    1880                 :          0 : static int ena_device_init(struct ena_adapter *adapter,
    1881                 :            :                            struct rte_pci_device *pdev,
    1882                 :            :                            struct ena_com_dev_get_features_ctx *get_feat_ctx)
    1883                 :            : {
    1884                 :          0 :         struct ena_com_dev *ena_dev = &adapter->ena_dev;
    1885                 :            :         uint32_t aenq_groups;
    1886                 :            :         int rc;
    1887                 :            :         bool readless_supported;
    1888                 :            : 
    1889                 :            :         /* Initialize mmio registers */
    1890                 :          0 :         rc = ena_com_mmio_reg_read_request_init(ena_dev);
    1891         [ #  # ]:          0 :         if (rc) {
    1892                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Failed to init MMIO read less");
    1893                 :          0 :                 return rc;
    1894                 :            :         }
    1895                 :            : 
    1896                 :            :         /* The PCIe configuration space revision id indicate if mmio reg
    1897                 :            :          * read is disabled.
    1898                 :            :          */
    1899                 :          0 :         readless_supported = !(pdev->id.class_id & ENA_MMIO_DISABLE_REG_READ);
    1900                 :          0 :         ena_com_set_mmio_read_mode(ena_dev, readless_supported);
    1901                 :            : 
    1902                 :            :         /* reset device */
    1903                 :          0 :         rc = ena_com_dev_reset(ena_dev, ENA_REGS_RESET_NORMAL);
    1904         [ #  # ]:          0 :         if (rc) {
    1905                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Cannot reset device");
    1906                 :          0 :                 goto err_mmio_read_less;
    1907                 :            :         }
    1908                 :            : 
    1909                 :            :         /* check FW version */
    1910                 :          0 :         rc = ena_com_validate_version(ena_dev);
    1911         [ #  # ]:          0 :         if (rc) {
    1912                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Device version is too low");
    1913                 :          0 :                 goto err_mmio_read_less;
    1914                 :            :         }
    1915                 :            : 
    1916                 :          0 :         ena_dev->dma_addr_bits = ena_com_get_dma_width(ena_dev);
    1917                 :            : 
    1918                 :            :         /* ENA device administration layer init */
    1919                 :          0 :         rc = ena_com_admin_init(ena_dev, &aenq_handlers);
    1920         [ #  # ]:          0 :         if (rc) {
    1921                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1922                 :            :                         "Cannot initialize ENA admin queue");
    1923                 :          0 :                 goto err_mmio_read_less;
    1924                 :            :         }
    1925                 :            : 
    1926                 :            :         /* To enable the msix interrupts the driver needs to know the number
    1927                 :            :          * of queues. So the driver uses polling mode to retrieve this
    1928                 :            :          * information.
    1929                 :            :          */
    1930                 :          0 :         ena_com_set_admin_polling_mode(ena_dev, true);
    1931                 :            : 
    1932                 :          0 :         ena_config_host_info(ena_dev);
    1933                 :            : 
    1934                 :            :         /* Get Device Attributes and features */
    1935                 :          0 :         rc = ena_com_get_dev_attr_feat(ena_dev, get_feat_ctx);
    1936         [ #  # ]:          0 :         if (rc) {
    1937                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    1938                 :            :                         "Cannot get attribute for ENA device, rc: %d", rc);
    1939                 :          0 :                 goto err_admin_init;
    1940                 :            :         }
    1941                 :            : 
    1942                 :            :         aenq_groups = BIT(ENA_ADMIN_LINK_CHANGE) |
    1943                 :            :                       BIT(ENA_ADMIN_KEEP_ALIVE) |
    1944                 :            :                       BIT(ENA_ADMIN_CONF_NOTIFICATIONS);
    1945                 :            : 
    1946                 :          0 :         aenq_groups &= get_feat_ctx->aenq.supported_groups;
    1947                 :            : 
    1948                 :          0 :         adapter->all_aenq_groups = aenq_groups;
    1949                 :            :         /* The actual supported number of metrics is negotiated with the device at runtime */
    1950                 :          0 :         adapter->metrics_num = ena_get_metrics_entries(adapter);
    1951                 :            : 
    1952                 :          0 :         return 0;
    1953                 :            : 
    1954                 :            : err_admin_init:
    1955                 :          0 :         ena_com_admin_destroy(ena_dev);
    1956                 :            : 
    1957                 :          0 : err_mmio_read_less:
    1958                 :          0 :         ena_com_mmio_reg_read_request_destroy(ena_dev);
    1959                 :            : 
    1960                 :          0 :         return rc;
    1961                 :            : }
    1962                 :            : 
    1963                 :          0 : static void ena_control_path_handler(void *cb_arg)
    1964                 :            : {
    1965                 :            :         struct rte_eth_dev *dev = cb_arg;
    1966                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1967                 :          0 :         struct ena_com_dev *ena_dev = &adapter->ena_dev;
    1968                 :            : 
    1969         [ #  # ]:          0 :         if (likely(adapter->state != ENA_ADAPTER_STATE_CLOSED)) {
    1970                 :          0 :                 ena_com_admin_q_comp_intr_handler(ena_dev);
    1971                 :          0 :                 ena_com_aenq_intr_handler(ena_dev, dev);
    1972                 :            :         }
    1973                 :          0 : }
    1974                 :            : 
    1975                 :          0 : static void ena_control_path_poll_handler(void *cb_arg)
    1976                 :            : {
    1977                 :            :         struct rte_eth_dev *dev = cb_arg;
    1978                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    1979                 :            :         int rc;
    1980                 :            : 
    1981         [ #  # ]:          0 :         if (likely(adapter->state != ENA_ADAPTER_STATE_CLOSED)) {
    1982                 :          0 :                 ena_control_path_handler(cb_arg);
    1983                 :          0 :                 rc = rte_eal_alarm_set(adapter->control_path_poll_interval,
    1984                 :            :                                        ena_control_path_poll_handler, cb_arg);
    1985         [ #  # ]:          0 :                 if (unlikely(rc != 0)) {
    1986                 :          0 :                         PMD_DRV_LOG_LINE(ERR, "Failed to retrigger control path alarm");
    1987                 :            :                         ena_trigger_reset(adapter, ENA_REGS_RESET_GENERIC);
    1988                 :            :                 }
    1989                 :            :         }
    1990                 :          0 : }
    1991                 :            : 
    1992                 :          0 : static void check_for_missing_keep_alive(struct ena_adapter *adapter)
    1993                 :            : {
    1994         [ #  # ]:          0 :         if (!(adapter->active_aenq_groups & BIT(ENA_ADMIN_KEEP_ALIVE)))
    1995                 :            :                 return;
    1996                 :            : 
    1997         [ #  # ]:          0 :         if (adapter->keep_alive_timeout == ENA_HW_HINTS_NO_TIMEOUT)
    1998                 :            :                 return;
    1999                 :            : 
    2000         [ #  # ]:          0 :         if (unlikely((rte_get_timer_cycles() - adapter->timestamp_wd) >=
    2001                 :            :             adapter->keep_alive_timeout)) {
    2002                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Keep alive timeout");
    2003                 :            :                 ena_trigger_reset(adapter, ENA_REGS_RESET_KEEP_ALIVE_TO);
    2004                 :          0 :                 ++adapter->dev_stats.wd_expired;
    2005                 :            :         }
    2006                 :            : }
    2007                 :            : 
    2008                 :            : /* Check if admin queue is enabled */
    2009                 :          0 : static void check_for_admin_com_state(struct ena_adapter *adapter)
    2010                 :            : {
    2011         [ #  # ]:          0 :         if (unlikely(!ena_com_get_admin_running_state(&adapter->ena_dev))) {
    2012                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "ENA admin queue is not in running state");
    2013                 :            :                 ena_trigger_reset(adapter, ENA_REGS_RESET_ADMIN_TO);
    2014                 :            :         }
    2015                 :          0 : }
    2016                 :            : 
    2017                 :          0 : static int check_for_tx_completion_in_queue(struct ena_adapter *adapter,
    2018                 :            :                                             struct ena_ring *tx_ring)
    2019                 :            : {
    2020                 :            :         struct ena_tx_buffer *tx_buf;
    2021                 :            :         uint64_t timestamp;
    2022                 :            :         uint64_t completion_delay;
    2023                 :            :         uint32_t missed_tx = 0;
    2024                 :            :         unsigned int i;
    2025                 :            :         int rc = 0;
    2026                 :            : 
    2027         [ #  # ]:          0 :         for (i = 0; i < tx_ring->ring_size; ++i) {
    2028                 :          0 :                 tx_buf = &tx_ring->tx_buffer_info[i];
    2029                 :          0 :                 timestamp = tx_buf->timestamp;
    2030                 :            : 
    2031         [ #  # ]:          0 :                 if (timestamp == 0)
    2032                 :          0 :                         continue;
    2033                 :            : 
    2034                 :          0 :                 completion_delay = rte_get_timer_cycles() - timestamp;
    2035         [ #  # ]:          0 :                 if (completion_delay > adapter->missing_tx_completion_to) {
    2036         [ #  # ]:          0 :                         if (unlikely(!tx_buf->print_once)) {
    2037                 :            :                                 PMD_TX_LOG_LINE(WARNING,
    2038                 :            :                                         "Found a Tx that wasn't completed on time, qid %d, index %d. "
    2039                 :            :                                         "Missing Tx outstanding for %" PRIu64 " msecs.",
    2040                 :            :                                         tx_ring->id, i,      completion_delay /
    2041                 :            :                                         rte_get_timer_hz() * 1000);
    2042                 :          0 :                                 tx_buf->print_once = true;
    2043                 :            :                         }
    2044                 :          0 :                         ++missed_tx;
    2045                 :            :                 }
    2046                 :            :         }
    2047                 :            : 
    2048         [ #  # ]:          0 :         if (unlikely(missed_tx > tx_ring->missing_tx_completion_threshold)) {
    2049                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    2050                 :            :                         "The number of lost Tx completions is above the threshold (%d > %d). "
    2051                 :            :                         "Trigger the device reset.",
    2052                 :            :                         missed_tx,
    2053                 :            :                         tx_ring->missing_tx_completion_threshold);
    2054                 :          0 :                 adapter->reset_reason = ENA_REGS_RESET_MISS_TX_CMPL;
    2055                 :          0 :                 adapter->trigger_reset = true;
    2056                 :            :                 rc = -EIO;
    2057                 :            :         }
    2058                 :            : 
    2059                 :          0 :         tx_ring->tx_stats.missed_tx += missed_tx;
    2060                 :            : 
    2061                 :          0 :         return rc;
    2062                 :            : }
    2063                 :            : 
    2064                 :          0 : static void check_for_tx_completions(struct ena_adapter *adapter)
    2065                 :            : {
    2066                 :            :         struct ena_ring *tx_ring;
    2067                 :            :         uint64_t tx_cleanup_delay;
    2068                 :            :         size_t qid;
    2069                 :            :         int budget;
    2070                 :          0 :         uint16_t nb_tx_queues = adapter->edev_data->nb_tx_queues;
    2071                 :            : 
    2072         [ #  # ]:          0 :         if (adapter->missing_tx_completion_to == ENA_HW_HINTS_NO_TIMEOUT)
    2073                 :            :                 return;
    2074                 :            : 
    2075                 :            :         nb_tx_queues = adapter->edev_data->nb_tx_queues;
    2076                 :          0 :         budget = adapter->missing_tx_completion_budget;
    2077                 :            : 
    2078                 :          0 :         qid = adapter->last_tx_comp_qid;
    2079         [ #  # ]:          0 :         while (budget-- > 0) {
    2080                 :          0 :                 tx_ring = &adapter->tx_ring[qid];
    2081                 :            : 
    2082                 :            :                 /* Tx cleanup is called only by the burst function and can be
    2083                 :            :                  * called dynamically by the application. Also cleanup is
    2084                 :            :                  * limited by the threshold. To avoid false detection of the
    2085                 :            :                  * missing HW Tx completion, get the delay since last cleanup
    2086                 :            :                  * function was called.
    2087                 :            :                  */
    2088                 :          0 :                 tx_cleanup_delay = rte_get_timer_cycles() -
    2089                 :          0 :                         tx_ring->last_cleanup_ticks;
    2090         [ #  # ]:          0 :                 if (tx_cleanup_delay < adapter->tx_cleanup_stall_delay)
    2091                 :          0 :                         check_for_tx_completion_in_queue(adapter, tx_ring);
    2092                 :          0 :                 qid = (qid + 1) % nb_tx_queues;
    2093                 :            :         }
    2094                 :            : 
    2095                 :          0 :         adapter->last_tx_comp_qid = qid;
    2096                 :            : }
    2097                 :            : 
    2098                 :          0 : static void ena_timer_wd_callback(__rte_unused struct rte_timer *timer,
    2099                 :            :                                   void *arg)
    2100                 :            : {
    2101                 :            :         struct rte_eth_dev *dev = arg;
    2102                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    2103                 :            : 
    2104         [ #  # ]:          0 :         if (unlikely(adapter->trigger_reset))
    2105                 :            :                 return;
    2106                 :            : 
    2107                 :          0 :         check_for_missing_keep_alive(adapter);
    2108                 :          0 :         check_for_admin_com_state(adapter);
    2109                 :          0 :         check_for_tx_completions(adapter);
    2110                 :            : 
    2111         [ #  # ]:          0 :         if (unlikely(adapter->trigger_reset)) {
    2112                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Trigger reset is on");
    2113                 :          0 :                 rte_eth_dev_callback_process(dev, RTE_ETH_EVENT_INTR_RESET,
    2114                 :            :                         NULL);
    2115                 :            :         }
    2116                 :            : }
    2117                 :            : 
    2118                 :            : static inline void
    2119                 :            : set_default_llq_configurations(struct ena_llq_configurations *llq_config,
    2120                 :            :                                struct ena_admin_feature_llq_desc *llq,
    2121                 :            :                                bool use_large_llq_hdr)
    2122                 :            : {
    2123                 :          0 :         llq_config->llq_header_location = ENA_ADMIN_INLINE_HEADER;
    2124                 :          0 :         llq_config->llq_stride_ctrl = ENA_ADMIN_MULTIPLE_DESCS_PER_ENTRY;
    2125                 :          0 :         llq_config->llq_num_decs_before_header =
    2126                 :            :                 ENA_ADMIN_LLQ_NUM_DESCS_BEFORE_HEADER_2;
    2127                 :            : 
    2128                 :          0 :         if (use_large_llq_hdr &&
    2129         [ #  # ]:          0 :             (llq->entry_size_ctrl_supported & ENA_ADMIN_LIST_ENTRY_SIZE_256B)) {
    2130                 :          0 :                 llq_config->llq_ring_entry_size =
    2131                 :            :                         ENA_ADMIN_LIST_ENTRY_SIZE_256B;
    2132                 :          0 :                 llq_config->llq_ring_entry_size_value = 256;
    2133                 :            :         } else {
    2134                 :          0 :                 llq_config->llq_ring_entry_size =
    2135                 :            :                         ENA_ADMIN_LIST_ENTRY_SIZE_128B;
    2136                 :          0 :                 llq_config->llq_ring_entry_size_value = 128;
    2137                 :            :         }
    2138                 :            : }
    2139                 :            : 
    2140                 :            : static int
    2141                 :          0 : ena_set_queues_placement_policy(struct ena_adapter *adapter,
    2142                 :            :                                 struct ena_com_dev *ena_dev,
    2143                 :            :                                 struct ena_admin_feature_llq_desc *llq,
    2144                 :            :                                 struct ena_llq_configurations *llq_default_configurations)
    2145                 :            : {
    2146                 :            :         int rc;
    2147                 :            :         u32 llq_feature_mask;
    2148                 :            : 
    2149         [ #  # ]:          0 :         if (adapter->llq_header_policy == ENA_LLQ_POLICY_DISABLED) {
    2150                 :          0 :                 PMD_DRV_LOG_LINE(WARNING,
    2151                 :            :                         "NOTE: LLQ has been disabled as per user's request. "
    2152                 :            :                         "This may lead to a huge performance degradation!");
    2153                 :          0 :                 ena_dev->tx_mem_queue_type = ENA_ADMIN_PLACEMENT_POLICY_HOST;
    2154                 :          0 :                 return 0;
    2155                 :            :         }
    2156                 :            : 
    2157                 :            :         llq_feature_mask = 1 << ENA_ADMIN_LLQ;
    2158         [ #  # ]:          0 :         if (!(ena_dev->supported_features & llq_feature_mask)) {
    2159                 :          0 :                 PMD_DRV_LOG_LINE(INFO,
    2160                 :            :                         "LLQ is not supported. Fallback to host mode policy.");
    2161                 :          0 :                 ena_dev->tx_mem_queue_type = ENA_ADMIN_PLACEMENT_POLICY_HOST;
    2162                 :          0 :                 return 0;
    2163                 :            :         }
    2164                 :            : 
    2165         [ #  # ]:          0 :         if (adapter->dev_mem_base == NULL) {
    2166                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    2167                 :            :                         "LLQ is advertised as supported, but device doesn't expose mem bar");
    2168                 :          0 :                 ena_dev->tx_mem_queue_type = ENA_ADMIN_PLACEMENT_POLICY_HOST;
    2169                 :          0 :                 return 0;
    2170                 :            :         }
    2171                 :            : 
    2172                 :          0 :         rc = ena_com_config_dev_mode(ena_dev, llq, llq_default_configurations);
    2173         [ #  # ]:          0 :         if (unlikely(rc)) {
    2174                 :          0 :                 PMD_INIT_LOG_LINE(WARNING,
    2175                 :            :                         "Failed to config dev mode. Fallback to host mode policy.");
    2176                 :          0 :                 ena_dev->tx_mem_queue_type = ENA_ADMIN_PLACEMENT_POLICY_HOST;
    2177                 :          0 :                 return 0;
    2178                 :            :         }
    2179                 :            : 
    2180                 :            :         /* Nothing to config, exit */
    2181         [ #  # ]:          0 :         if (ena_dev->tx_mem_queue_type == ENA_ADMIN_PLACEMENT_POLICY_HOST)
    2182                 :            :                 return 0;
    2183                 :            : 
    2184                 :          0 :         ena_dev->mem_bar = adapter->dev_mem_base;
    2185                 :            : 
    2186                 :          0 :         return 0;
    2187                 :            : }
    2188                 :            : 
    2189                 :          0 : static uint32_t ena_calc_max_io_queue_num(struct ena_com_dev *ena_dev,
    2190                 :            :         struct ena_com_dev_get_features_ctx *get_feat_ctx)
    2191                 :            : {
    2192                 :            :         uint32_t io_tx_sq_num, io_tx_cq_num, io_rx_num, max_num_io_queues;
    2193                 :            : 
    2194                 :            :         /* Regular queues capabilities */
    2195         [ #  # ]:          0 :         if (ena_dev->supported_features & BIT(ENA_ADMIN_MAX_QUEUES_EXT)) {
    2196                 :            :                 struct ena_admin_queue_ext_feature_fields *max_queue_ext =
    2197                 :            :                         &get_feat_ctx->max_queue_ext.max_queue_ext;
    2198                 :          0 :                 io_rx_num = RTE_MIN(max_queue_ext->max_rx_sq_num,
    2199                 :            :                                     max_queue_ext->max_rx_cq_num);
    2200                 :          0 :                 io_tx_sq_num = max_queue_ext->max_tx_sq_num;
    2201                 :          0 :                 io_tx_cq_num = max_queue_ext->max_tx_cq_num;
    2202                 :            :         } else {
    2203                 :            :                 struct ena_admin_queue_feature_desc *max_queues =
    2204                 :            :                         &get_feat_ctx->max_queues;
    2205                 :          0 :                 io_tx_sq_num = max_queues->max_sq_num;
    2206                 :          0 :                 io_tx_cq_num = max_queues->max_cq_num;
    2207                 :          0 :                 io_rx_num = RTE_MIN(io_tx_sq_num, io_tx_cq_num);
    2208                 :            :         }
    2209                 :            : 
    2210                 :            :         /* In case of LLQ use the llq number in the get feature cmd */
    2211         [ #  # ]:          0 :         if (ena_dev->tx_mem_queue_type == ENA_ADMIN_PLACEMENT_POLICY_DEV)
    2212                 :          0 :                 io_tx_sq_num = get_feat_ctx->llq.max_llq_num;
    2213                 :            : 
    2214                 :          0 :         max_num_io_queues = RTE_MIN(ENA_MAX_NUM_IO_QUEUES, io_rx_num);
    2215                 :          0 :         max_num_io_queues = RTE_MIN(max_num_io_queues, io_tx_sq_num);
    2216                 :          0 :         max_num_io_queues = RTE_MIN(max_num_io_queues, io_tx_cq_num);
    2217                 :            : 
    2218         [ #  # ]:          0 :         if (unlikely(max_num_io_queues == 0)) {
    2219                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Number of IO queues cannot not be 0");
    2220                 :          0 :                 return -EFAULT;
    2221                 :            :         }
    2222                 :            : 
    2223                 :            :         return max_num_io_queues;
    2224                 :            : }
    2225                 :            : 
    2226                 :            : static void
    2227                 :          0 : ena_set_offloads(struct ena_offloads *offloads,
    2228                 :            :                  struct ena_admin_feature_offload_desc *offload_desc)
    2229                 :            : {
    2230         [ #  # ]:          0 :         if (offload_desc->tx & ENA_ADMIN_FEATURE_OFFLOAD_DESC_TSO_IPV4_MASK)
    2231                 :          0 :                 offloads->tx_offloads |= ENA_IPV4_TSO;
    2232                 :            : 
    2233                 :            :         /* Tx IPv4 checksum offloads */
    2234         [ #  # ]:          0 :         if (offload_desc->tx &
    2235                 :            :             ENA_ADMIN_FEATURE_OFFLOAD_DESC_TX_L3_CSUM_IPV4_MASK)
    2236                 :          0 :                 offloads->tx_offloads |= ENA_L3_IPV4_CSUM;
    2237         [ #  # ]:          0 :         if (offload_desc->tx &
    2238                 :            :             ENA_ADMIN_FEATURE_OFFLOAD_DESC_TX_L4_IPV4_CSUM_FULL_MASK)
    2239                 :          0 :                 offloads->tx_offloads |= ENA_L4_IPV4_CSUM;
    2240         [ #  # ]:          0 :         if (offload_desc->tx &
    2241                 :            :             ENA_ADMIN_FEATURE_OFFLOAD_DESC_TX_L4_IPV4_CSUM_PART_MASK)
    2242                 :          0 :                 offloads->tx_offloads |= ENA_L4_IPV4_CSUM_PARTIAL;
    2243                 :            : 
    2244                 :            :         /* Tx IPv6 checksum offloads */
    2245         [ #  # ]:          0 :         if (offload_desc->tx &
    2246                 :            :             ENA_ADMIN_FEATURE_OFFLOAD_DESC_TX_L4_IPV6_CSUM_FULL_MASK)
    2247                 :          0 :                 offloads->tx_offloads |= ENA_L4_IPV6_CSUM;
    2248         [ #  # ]:          0 :         if (offload_desc->tx &
    2249                 :            :              ENA_ADMIN_FEATURE_OFFLOAD_DESC_TX_L4_IPV6_CSUM_PART_MASK)
    2250                 :          0 :                 offloads->tx_offloads |= ENA_L4_IPV6_CSUM_PARTIAL;
    2251                 :            : 
    2252                 :            :         /* Rx IPv4 checksum offloads */
    2253         [ #  # ]:          0 :         if (offload_desc->rx_supported &
    2254                 :            :             ENA_ADMIN_FEATURE_OFFLOAD_DESC_RX_L3_CSUM_IPV4_MASK)
    2255                 :          0 :                 offloads->rx_offloads |= ENA_L3_IPV4_CSUM;
    2256         [ #  # ]:          0 :         if (offload_desc->rx_supported &
    2257                 :            :             ENA_ADMIN_FEATURE_OFFLOAD_DESC_RX_L4_IPV4_CSUM_MASK)
    2258                 :          0 :                 offloads->rx_offloads |= ENA_L4_IPV4_CSUM;
    2259                 :            : 
    2260                 :            :         /* Rx IPv6 checksum offloads */
    2261         [ #  # ]:          0 :         if (offload_desc->rx_supported &
    2262                 :            :             ENA_ADMIN_FEATURE_OFFLOAD_DESC_RX_L4_IPV6_CSUM_MASK)
    2263                 :          0 :                 offloads->rx_offloads |= ENA_L4_IPV6_CSUM;
    2264                 :            : 
    2265         [ #  # ]:          0 :         if (offload_desc->rx_supported &
    2266                 :            :             ENA_ADMIN_FEATURE_OFFLOAD_DESC_RX_HASH_MASK)
    2267                 :          0 :                 offloads->rx_offloads |= ENA_RX_RSS_HASH;
    2268                 :          0 : }
    2269                 :            : 
    2270                 :          0 : static int ena_init_once(void)
    2271                 :            : {
    2272                 :            :         static bool init_done;
    2273                 :            : 
    2274         [ #  # ]:          0 :         if (init_done)
    2275                 :            :                 return 0;
    2276                 :            : 
    2277         [ #  # ]:          0 :         if (rte_eal_process_type() == RTE_PROC_PRIMARY) {
    2278                 :            :                 /* Init timer subsystem for the ENA timer service. */
    2279                 :          0 :                 rte_timer_subsystem_init();
    2280                 :            :                 /* Register handler for requests from secondary processes. */
    2281                 :          0 :                 rte_mp_action_register(ENA_MP_NAME, ena_mp_primary_handle);
    2282                 :            :         }
    2283                 :            : 
    2284                 :          0 :         init_done = true;
    2285                 :          0 :         return 0;
    2286                 :            : }
    2287                 :            : 
    2288                 :          0 : static int eth_ena_dev_init(struct rte_eth_dev *eth_dev)
    2289                 :            : {
    2290                 :          0 :         struct ena_calc_queue_size_ctx calc_queue_ctx = { 0 };
    2291                 :            :         struct rte_pci_device *pci_dev;
    2292                 :            :         struct rte_intr_handle *intr_handle;
    2293                 :          0 :         struct ena_adapter *adapter = eth_dev->data->dev_private;
    2294                 :          0 :         struct ena_com_dev *ena_dev = &adapter->ena_dev;
    2295                 :            :         struct ena_com_dev_get_features_ctx get_feat_ctx;
    2296                 :            :         struct ena_llq_configurations llq_config;
    2297                 :            :         const char *queue_type_str;
    2298                 :            :         uint32_t max_num_io_queues;
    2299                 :            :         int rc;
    2300                 :            :         static int adapters_found;
    2301                 :            :         bool disable_meta_caching;
    2302                 :            :         size_t indirect_table_size;
    2303                 :            : 
    2304                 :          0 :         eth_dev->dev_ops = &ena_dev_ops;
    2305                 :          0 :         eth_dev->rx_pkt_burst = &eth_ena_recv_pkts;
    2306                 :          0 :         eth_dev->tx_pkt_burst = &eth_ena_xmit_pkts;
    2307                 :          0 :         eth_dev->tx_pkt_prepare = &eth_ena_prep_pkts;
    2308                 :            : 
    2309                 :          0 :         rc = ena_init_once();
    2310         [ #  # ]:          0 :         if (rc != 0)
    2311                 :            :                 return rc;
    2312                 :            : 
    2313         [ #  # ]:          0 :         if (rte_eal_process_type() != RTE_PROC_PRIMARY)
    2314                 :            :                 return 0;
    2315                 :            : 
    2316                 :          0 :         eth_dev->data->dev_flags |= RTE_ETH_DEV_AUTOFILL_QUEUE_XSTATS;
    2317                 :            : 
    2318                 :            :         memset(adapter, 0, sizeof(struct ena_adapter));
    2319                 :            :         ena_dev = &adapter->ena_dev;
    2320                 :            : 
    2321                 :          0 :         adapter->edev_data = eth_dev->data;
    2322                 :            : 
    2323                 :          0 :         pci_dev = RTE_ETH_DEV_TO_PCI(eth_dev);
    2324                 :            : 
    2325                 :          0 :         PMD_INIT_LOG_LINE(INFO, "Initializing " PCI_PRI_FMT,
    2326                 :            :                      pci_dev->addr.domain,
    2327                 :            :                      pci_dev->addr.bus,
    2328                 :            :                      pci_dev->addr.devid,
    2329                 :            :                      pci_dev->addr.function);
    2330                 :            : 
    2331                 :          0 :         intr_handle = pci_dev->intr_handle;
    2332                 :            : 
    2333                 :          0 :         adapter->regs = pci_dev->mem_resource[ENA_REGS_BAR].addr;
    2334                 :          0 :         adapter->dev_mem_base = pci_dev->mem_resource[ENA_MEM_BAR].addr;
    2335                 :            : 
    2336         [ #  # ]:          0 :         if (!adapter->regs) {
    2337                 :          0 :                 PMD_INIT_LOG_LINE(CRIT, "Failed to access registers BAR(%d)",
    2338                 :            :                              ENA_REGS_BAR);
    2339                 :          0 :                 return -ENXIO;
    2340                 :            :         }
    2341                 :            : 
    2342                 :          0 :         ena_dev->reg_bar = adapter->regs;
    2343                 :            :         /* Pass device data as a pointer which can be passed to the IO functions
    2344                 :            :          * by the ena_com (for example - the memory allocation).
    2345                 :            :          */
    2346                 :          0 :         ena_dev->dmadev = eth_dev->data;
    2347                 :            : 
    2348                 :          0 :         adapter->id_number = adapters_found;
    2349                 :            : 
    2350                 :          0 :         snprintf(adapter->name, ENA_NAME_MAX_LEN, "ena_%d",
    2351                 :            :                  adapter->id_number);
    2352                 :            : 
    2353                 :            :         /* Assign default devargs values */
    2354                 :          0 :         adapter->missing_tx_completion_to = ENA_TX_TIMEOUT;
    2355                 :          0 :         adapter->llq_header_policy = ENA_LLQ_POLICY_RECOMMENDED;
    2356                 :            : 
    2357                 :            :         /* Get user bypass */
    2358                 :          0 :         rc = ena_parse_devargs(adapter, pci_dev->device.devargs);
    2359         [ #  # ]:          0 :         if (rc != 0) {
    2360                 :          0 :                 PMD_INIT_LOG_LINE(CRIT, "Failed to parse devargs");
    2361                 :          0 :                 goto err;
    2362                 :            :         }
    2363                 :          0 :         rc = ena_com_allocate_customer_metrics_buffer(ena_dev);
    2364         [ #  # ]:          0 :         if (rc != 0) {
    2365                 :          0 :                 PMD_INIT_LOG_LINE(CRIT, "Failed to allocate customer metrics buffer");
    2366                 :          0 :                 goto err;
    2367                 :            :         }
    2368                 :            : 
    2369                 :            :         /* device specific initialization routine */
    2370                 :          0 :         rc = ena_device_init(adapter, pci_dev, &get_feat_ctx);
    2371         [ #  # ]:          0 :         if (rc) {
    2372                 :          0 :                 PMD_INIT_LOG_LINE(CRIT, "Failed to init ENA device");
    2373                 :          0 :                 goto err_metrics_delete;
    2374                 :            :         }
    2375                 :            : 
    2376                 :            :         /* Check if device supports LSC */
    2377         [ #  # ]:          0 :         if (!(adapter->all_aenq_groups & BIT(ENA_ADMIN_LINK_CHANGE)))
    2378                 :          0 :                 adapter->edev_data->dev_flags &= ~RTE_ETH_DEV_INTR_LSC;
    2379                 :            : 
    2380                 :          0 :         bool use_large_llq_hdr = ena_use_large_llq_hdr(adapter,
    2381                 :          0 :                                                        get_feat_ctx.llq.entry_size_recommended);
    2382         [ #  # ]:          0 :         set_default_llq_configurations(&llq_config, &get_feat_ctx.llq, use_large_llq_hdr);
    2383                 :          0 :         rc = ena_set_queues_placement_policy(adapter, ena_dev,
    2384                 :            :                                              &get_feat_ctx.llq, &llq_config);
    2385         [ #  # ]:          0 :         if (unlikely(rc)) {
    2386                 :          0 :                 PMD_INIT_LOG_LINE(CRIT, "Failed to set placement policy");
    2387                 :          0 :                 return rc;
    2388                 :            :         }
    2389                 :            : 
    2390         [ #  # ]:          0 :         if (ena_dev->tx_mem_queue_type == ENA_ADMIN_PLACEMENT_POLICY_HOST) {
    2391                 :            :                 queue_type_str = "Regular";
    2392                 :            :         } else {
    2393                 :            :                 queue_type_str = "Low latency";
    2394                 :          0 :                 PMD_DRV_LOG_LINE(INFO, "LLQ entry size %uB", llq_config.llq_ring_entry_size_value);
    2395                 :            :         }
    2396                 :          0 :         PMD_DRV_LOG_LINE(INFO, "Placement policy: %s", queue_type_str);
    2397                 :            : 
    2398                 :          0 :         calc_queue_ctx.ena_dev = ena_dev;
    2399                 :          0 :         calc_queue_ctx.get_feat_ctx = &get_feat_ctx;
    2400                 :            : 
    2401                 :          0 :         max_num_io_queues = ena_calc_max_io_queue_num(ena_dev, &get_feat_ctx);
    2402                 :          0 :         rc = ena_calc_io_queue_size(&calc_queue_ctx, use_large_llq_hdr);
    2403         [ #  # ]:          0 :         if (unlikely((rc != 0) || (max_num_io_queues == 0))) {
    2404                 :            :                 rc = -EFAULT;
    2405                 :          0 :                 goto err_device_destroy;
    2406                 :            :         }
    2407                 :            : 
    2408                 :          0 :         adapter->max_tx_ring_size = calc_queue_ctx.max_tx_queue_size;
    2409                 :          0 :         adapter->max_rx_ring_size = calc_queue_ctx.max_rx_queue_size;
    2410                 :          0 :         adapter->max_tx_sgl_size = calc_queue_ctx.max_tx_sgl_size;
    2411                 :          0 :         adapter->max_rx_sgl_size = calc_queue_ctx.max_rx_sgl_size;
    2412                 :          0 :         adapter->max_num_io_queues = max_num_io_queues;
    2413                 :            : 
    2414         [ #  # ]:          0 :         if (ena_dev->tx_mem_queue_type == ENA_ADMIN_PLACEMENT_POLICY_DEV) {
    2415                 :          0 :                 disable_meta_caching =
    2416                 :          0 :                         !!(get_feat_ctx.llq.accel_mode.u.get.supported_flags &
    2417                 :            :                         BIT(ENA_ADMIN_DISABLE_META_CACHING));
    2418                 :            :         } else {
    2419                 :            :                 disable_meta_caching = false;
    2420                 :            :         }
    2421                 :            : 
    2422                 :            :         /* prepare ring structures */
    2423                 :          0 :         ena_init_rings(adapter, disable_meta_caching);
    2424                 :            : 
    2425                 :          0 :         ena_config_debug_area(adapter);
    2426                 :            : 
    2427                 :            :         /* Set max MTU for this device */
    2428                 :          0 :         adapter->max_mtu = get_feat_ctx.dev_attr.max_mtu;
    2429                 :            : 
    2430                 :          0 :         ena_set_offloads(&adapter->offloads, &get_feat_ctx.offload);
    2431                 :            : 
    2432                 :            :         /* Copy MAC address and point DPDK to it */
    2433                 :          0 :         eth_dev->data->mac_addrs = (struct rte_ether_addr *)adapter->mac_addr;
    2434                 :            :         rte_ether_addr_copy((struct rte_ether_addr *)
    2435                 :            :                         get_feat_ctx.dev_attr.mac_addr,
    2436                 :            :                         (struct rte_ether_addr *)adapter->mac_addr);
    2437                 :            : 
    2438                 :          0 :         rc = ena_com_rss_init(ena_dev);
    2439         [ #  # ]:          0 :         if (unlikely(rc != 0)) {
    2440                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Failed to initialize RSS in ENA device");
    2441                 :          0 :                 goto err_delete_debug_area;
    2442                 :            :         }
    2443                 :            : 
    2444                 :          0 :         indirect_table_size = ena_rss_get_indirection_table_size(adapter);
    2445         [ #  # ]:          0 :         if (indirect_table_size) {
    2446                 :          0 :                 adapter->indirect_table = rte_zmalloc("adapter RSS indirection table",
    2447                 :            :                                                 sizeof(u32) * indirect_table_size,
    2448                 :            :                                                 RTE_CACHE_LINE_SIZE);
    2449         [ #  # ]:          0 :                 if (!adapter->indirect_table) {
    2450                 :          0 :                         PMD_DRV_LOG_LINE(ERR,
    2451                 :            :                                 "Failed to allocate memory for RSS indirection table");
    2452                 :            :                         rc = -ENOMEM;
    2453                 :          0 :                         goto err_rss_destroy;
    2454                 :            :                 }
    2455                 :            :         }
    2456                 :          0 :         adapter->drv_stats = rte_zmalloc("adapter stats",
    2457                 :            :                                          sizeof(*adapter->drv_stats),
    2458                 :            :                                          RTE_CACHE_LINE_SIZE);
    2459         [ #  # ]:          0 :         if (!adapter->drv_stats) {
    2460                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    2461                 :            :                         "Failed to allocate memory for adapter statistics");
    2462                 :            :                 rc = -ENOMEM;
    2463                 :          0 :                 goto err_indirect_table_destroy;
    2464                 :            :         }
    2465                 :            : 
    2466                 :            :         rte_spinlock_init(&adapter->admin_lock);
    2467                 :            : 
    2468         [ #  # ]:          0 :         if (!adapter->control_path_poll_interval) {
    2469                 :            :                 /* Control path interrupt mode */
    2470                 :          0 :                 rc = rte_intr_callback_register(intr_handle, ena_control_path_handler, eth_dev);
    2471         [ #  # ]:          0 :                 if (unlikely(rc < 0)) {
    2472                 :          0 :                         PMD_DRV_LOG_LINE(ERR, "Failed to register control path interrupt");
    2473                 :          0 :                         goto err_stats_destroy;
    2474                 :            :                 }
    2475                 :          0 :                 rc = rte_intr_enable(intr_handle);
    2476         [ #  # ]:          0 :                 if (unlikely(rc < 0)) {
    2477                 :          0 :                         PMD_DRV_LOG_LINE(ERR, "Failed to enable control path interrupt");
    2478                 :          0 :                         goto err_control_path_destroy;
    2479                 :            :                 }
    2480                 :          0 :                 ena_com_set_admin_polling_mode(ena_dev, false);
    2481                 :            :         } else {
    2482                 :            :                 /* Control path polling mode */
    2483                 :          0 :                 rc = rte_eal_alarm_set(adapter->control_path_poll_interval,
    2484                 :            :                                        ena_control_path_poll_handler, eth_dev);
    2485         [ #  # ]:          0 :                 if (unlikely(rc != 0)) {
    2486                 :          0 :                         PMD_DRV_LOG_LINE(ERR, "Failed to set control path alarm");
    2487                 :          0 :                         goto err_control_path_destroy;
    2488                 :            :                 }
    2489                 :            :         }
    2490                 :          0 :         ena_com_admin_aenq_enable(ena_dev);
    2491                 :          0 :         rte_timer_init(&adapter->timer_wd);
    2492                 :            : 
    2493                 :          0 :         adapters_found++;
    2494                 :          0 :         adapter->state = ENA_ADAPTER_STATE_INIT;
    2495                 :            : 
    2496                 :          0 :         return 0;
    2497                 :          0 : err_control_path_destroy:
    2498         [ #  # ]:          0 :         if (!adapter->control_path_poll_interval) {
    2499                 :          0 :                 rc = rte_intr_callback_unregister_sync(intr_handle,
    2500                 :            :                                         ena_control_path_handler,
    2501                 :            :                                         eth_dev);
    2502         [ #  # ]:          0 :                 if (unlikely(rc < 0))
    2503                 :          0 :                         PMD_INIT_LOG_LINE(ERR, "Failed to unregister interrupt handler");
    2504                 :            :         }
    2505                 :          0 : err_stats_destroy:
    2506                 :          0 :         rte_free(adapter->drv_stats);
    2507         [ #  # ]:          0 : err_indirect_table_destroy:
    2508                 :            :         ena_indirect_table_release(adapter);
    2509                 :          0 : err_rss_destroy:
    2510                 :          0 :         ena_com_rss_destroy(ena_dev);
    2511                 :          0 : err_delete_debug_area:
    2512                 :          0 :         ena_com_delete_debug_area(ena_dev);
    2513                 :            : 
    2514                 :          0 : err_device_destroy:
    2515                 :          0 :         ena_com_delete_host_info(ena_dev);
    2516                 :          0 :         ena_com_admin_destroy(ena_dev);
    2517                 :          0 : err_metrics_delete:
    2518                 :          0 :         ena_com_delete_customer_metrics_buffer(ena_dev);
    2519                 :            : err:
    2520                 :            :         return rc;
    2521                 :            : }
    2522                 :            : 
    2523                 :          0 : static int eth_ena_dev_uninit(struct rte_eth_dev *eth_dev)
    2524                 :            : {
    2525   [ #  #  #  # ]:          0 :         if (rte_eal_process_type() != RTE_PROC_PRIMARY)
    2526                 :            :                 return 0;
    2527                 :            : 
    2528                 :          0 :         ena_close(eth_dev);
    2529                 :            : 
    2530                 :          0 :         return 0;
    2531                 :            : }
    2532                 :            : 
    2533                 :          0 : static int ena_dev_configure(struct rte_eth_dev *dev)
    2534                 :            : {
    2535                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    2536                 :            :         int rc;
    2537                 :            : 
    2538                 :          0 :         adapter->state = ENA_ADAPTER_STATE_CONFIG;
    2539                 :            : 
    2540         [ #  # ]:          0 :         if (dev->data->dev_conf.rxmode.mq_mode & RTE_ETH_MQ_RX_RSS_FLAG)
    2541                 :          0 :                 dev->data->dev_conf.rxmode.offloads |= RTE_ETH_RX_OFFLOAD_RSS_HASH;
    2542                 :          0 :         dev->data->dev_conf.txmode.offloads |= RTE_ETH_TX_OFFLOAD_MULTI_SEGS;
    2543                 :            : 
    2544                 :            :         /* Scattered Rx cannot be turned off in the HW, so this capability must
    2545                 :            :          * be forced.
    2546                 :            :          */
    2547                 :          0 :         dev->data->scattered_rx = 1;
    2548                 :            : 
    2549                 :          0 :         adapter->last_tx_comp_qid = 0;
    2550                 :            : 
    2551                 :          0 :         adapter->missing_tx_completion_budget =
    2552                 :          0 :                 RTE_MIN(ENA_MONITORED_TX_QUEUES, dev->data->nb_tx_queues);
    2553                 :            : 
    2554                 :            :         /* To avoid detection of the spurious Tx completion timeout due to
    2555                 :            :          * application not calling the Tx cleanup function, set timeout for the
    2556                 :            :          * Tx queue which should be half of the missing completion timeout for a
    2557                 :            :          * safety. If there will be a lot of missing Tx completions in the
    2558                 :            :          * queue, they will be detected sooner or later.
    2559                 :            :          */
    2560                 :          0 :         adapter->tx_cleanup_stall_delay = adapter->missing_tx_completion_to / 2;
    2561                 :            : 
    2562                 :          0 :         rc = ena_configure_aenq(adapter);
    2563                 :            : 
    2564                 :          0 :         return rc;
    2565                 :            : }
    2566                 :            : 
    2567                 :          0 : static void ena_init_rings(struct ena_adapter *adapter,
    2568                 :            :                            bool disable_meta_caching)
    2569                 :            : {
    2570                 :            :         size_t i;
    2571                 :            : 
    2572         [ #  # ]:          0 :         for (i = 0; i < adapter->max_num_io_queues; i++) {
    2573                 :            :                 struct ena_ring *ring = &adapter->tx_ring[i];
    2574                 :            : 
    2575                 :          0 :                 ring->configured = 0;
    2576                 :          0 :                 ring->type = ENA_RING_TYPE_TX;
    2577                 :          0 :                 ring->adapter = adapter;
    2578                 :          0 :                 ring->id = i;
    2579                 :          0 :                 ring->tx_mem_queue_type = adapter->ena_dev.tx_mem_queue_type;
    2580                 :          0 :                 ring->tx_max_header_size = adapter->ena_dev.tx_max_header_size;
    2581                 :          0 :                 ring->sgl_size = adapter->max_tx_sgl_size;
    2582                 :          0 :                 ring->disable_meta_caching = disable_meta_caching;
    2583                 :            :         }
    2584                 :            : 
    2585         [ #  # ]:          0 :         for (i = 0; i < adapter->max_num_io_queues; i++) {
    2586                 :            :                 struct ena_ring *ring = &adapter->rx_ring[i];
    2587                 :            : 
    2588                 :          0 :                 ring->configured = 0;
    2589                 :          0 :                 ring->type = ENA_RING_TYPE_RX;
    2590                 :          0 :                 ring->adapter = adapter;
    2591                 :          0 :                 ring->id = i;
    2592                 :          0 :                 ring->sgl_size = adapter->max_rx_sgl_size;
    2593                 :            :         }
    2594                 :          0 : }
    2595                 :            : 
    2596                 :            : static uint64_t ena_get_rx_port_offloads(struct ena_adapter *adapter)
    2597                 :            : {
    2598                 :            :         uint64_t port_offloads = 0;
    2599                 :            : 
    2600                 :          0 :         if (adapter->offloads.rx_offloads & ENA_L3_IPV4_CSUM)
    2601                 :            :                 port_offloads |= RTE_ETH_RX_OFFLOAD_IPV4_CKSUM;
    2602                 :            : 
    2603         [ #  # ]:          0 :         if (adapter->offloads.rx_offloads &
    2604                 :            :             (ENA_L4_IPV4_CSUM | ENA_L4_IPV6_CSUM))
    2605                 :          0 :                 port_offloads |=
    2606                 :            :                         RTE_ETH_RX_OFFLOAD_UDP_CKSUM | RTE_ETH_RX_OFFLOAD_TCP_CKSUM;
    2607                 :            : 
    2608         [ #  # ]:          0 :         if (adapter->offloads.rx_offloads & ENA_RX_RSS_HASH)
    2609                 :          0 :                 port_offloads |= RTE_ETH_RX_OFFLOAD_RSS_HASH;
    2610                 :            : 
    2611                 :          0 :         port_offloads |= RTE_ETH_RX_OFFLOAD_SCATTER;
    2612                 :            : 
    2613                 :            :         return port_offloads;
    2614                 :            : }
    2615                 :            : 
    2616                 :            : static uint64_t ena_get_tx_port_offloads(struct ena_adapter *adapter)
    2617                 :            : {
    2618                 :            :         uint64_t port_offloads = 0;
    2619                 :            : 
    2620                 :          0 :         if (adapter->offloads.tx_offloads & ENA_IPV4_TSO)
    2621                 :            :                 port_offloads |= RTE_ETH_TX_OFFLOAD_TCP_TSO;
    2622                 :            : 
    2623         [ #  # ]:          0 :         if (adapter->offloads.tx_offloads & ENA_L3_IPV4_CSUM)
    2624                 :          0 :                 port_offloads |= RTE_ETH_TX_OFFLOAD_IPV4_CKSUM;
    2625         [ #  # ]:          0 :         if (adapter->offloads.tx_offloads &
    2626                 :            :             (ENA_L4_IPV4_CSUM_PARTIAL | ENA_L4_IPV4_CSUM |
    2627                 :            :              ENA_L4_IPV6_CSUM | ENA_L4_IPV6_CSUM_PARTIAL))
    2628                 :          0 :                 port_offloads |=
    2629                 :            :                         RTE_ETH_TX_OFFLOAD_UDP_CKSUM | RTE_ETH_TX_OFFLOAD_TCP_CKSUM;
    2630                 :            : 
    2631                 :            :         port_offloads |= RTE_ETH_TX_OFFLOAD_MULTI_SEGS;
    2632                 :            : 
    2633                 :          0 :         port_offloads |= RTE_ETH_TX_OFFLOAD_MBUF_FAST_FREE;
    2634                 :            : 
    2635                 :            :         return port_offloads;
    2636                 :            : }
    2637                 :            : 
    2638                 :            : static uint64_t ena_get_rx_queue_offloads(struct ena_adapter *adapter)
    2639                 :            : {
    2640                 :            :         RTE_SET_USED(adapter);
    2641                 :            : 
    2642                 :            :         return 0;
    2643                 :            : }
    2644                 :            : 
    2645                 :            : static uint64_t ena_get_tx_queue_offloads(struct ena_adapter *adapter)
    2646                 :            : {
    2647                 :            :         uint64_t queue_offloads = 0;
    2648                 :            :         RTE_SET_USED(adapter);
    2649                 :            : 
    2650                 :            :         queue_offloads |= RTE_ETH_TX_OFFLOAD_MBUF_FAST_FREE;
    2651                 :            : 
    2652                 :            :         return queue_offloads;
    2653                 :            : }
    2654                 :            : 
    2655                 :          0 : static int ena_infos_get(struct rte_eth_dev *dev,
    2656                 :            :                           struct rte_eth_dev_info *dev_info)
    2657                 :            : {
    2658                 :            :         struct ena_adapter *adapter;
    2659                 :            :         struct ena_com_dev *ena_dev;
    2660                 :            : 
    2661         [ #  # ]:          0 :         ena_assert_msg(dev->data != NULL, "Uninitialized device\n");
    2662         [ #  # ]:          0 :         ena_assert_msg(dev->data->dev_private != NULL, "Uninitialized device\n");
    2663                 :            :         adapter = dev->data->dev_private;
    2664                 :            : 
    2665                 :            :         ena_dev = &adapter->ena_dev;
    2666                 :            :         ena_assert_msg(ena_dev != NULL, "Uninitialized device\n");
    2667                 :            : 
    2668         [ #  # ]:          0 :         dev_info->speed_capa =
    2669                 :            :                         RTE_ETH_LINK_SPEED_1G   |
    2670                 :            :                         RTE_ETH_LINK_SPEED_2_5G |
    2671                 :            :                         RTE_ETH_LINK_SPEED_5G   |
    2672                 :            :                         RTE_ETH_LINK_SPEED_10G  |
    2673                 :            :                         RTE_ETH_LINK_SPEED_25G  |
    2674                 :            :                         RTE_ETH_LINK_SPEED_40G  |
    2675                 :            :                         RTE_ETH_LINK_SPEED_50G  |
    2676                 :            :                         RTE_ETH_LINK_SPEED_100G |
    2677                 :            :                         RTE_ETH_LINK_SPEED_200G |
    2678                 :            :                         RTE_ETH_LINK_SPEED_400G;
    2679                 :            : 
    2680                 :            :         /* Inform framework about available features */
    2681         [ #  # ]:          0 :         dev_info->rx_offload_capa = ena_get_rx_port_offloads(adapter);
    2682                 :          0 :         dev_info->tx_offload_capa = ena_get_tx_port_offloads(adapter);
    2683                 :          0 :         dev_info->rx_queue_offload_capa = ena_get_rx_queue_offloads(adapter);
    2684                 :          0 :         dev_info->tx_queue_offload_capa = ena_get_tx_queue_offloads(adapter);
    2685                 :            : 
    2686                 :          0 :         dev_info->flow_type_rss_offloads = ENA_ALL_RSS_HF;
    2687                 :          0 :         dev_info->hash_key_size = ENA_HASH_KEY_SIZE;
    2688                 :            : 
    2689                 :          0 :         dev_info->min_rx_bufsize = ENA_MIN_FRAME_LEN;
    2690                 :          0 :         dev_info->max_rx_pktlen  = adapter->max_mtu + RTE_ETHER_HDR_LEN +
    2691                 :            :                 RTE_ETHER_CRC_LEN;
    2692                 :          0 :         dev_info->min_mtu = ENA_MIN_MTU;
    2693                 :          0 :         dev_info->max_mtu = adapter->max_mtu;
    2694                 :          0 :         dev_info->max_mac_addrs = 1;
    2695                 :            : 
    2696                 :          0 :         dev_info->max_rx_queues = adapter->max_num_io_queues;
    2697                 :          0 :         dev_info->max_tx_queues = adapter->max_num_io_queues;
    2698                 :          0 :         dev_info->reta_size = adapter->indirect_table_size;
    2699                 :            : 
    2700                 :          0 :         dev_info->rx_desc_lim.nb_max = adapter->max_rx_ring_size;
    2701                 :          0 :         dev_info->rx_desc_lim.nb_min = ENA_MIN_RING_DESC;
    2702                 :          0 :         dev_info->rx_desc_lim.nb_seg_max = RTE_MIN(ENA_PKT_MAX_BUFS,
    2703                 :            :                                         adapter->max_rx_sgl_size);
    2704                 :          0 :         dev_info->rx_desc_lim.nb_mtu_seg_max = RTE_MIN(ENA_PKT_MAX_BUFS,
    2705                 :            :                                         adapter->max_rx_sgl_size);
    2706                 :            : 
    2707                 :          0 :         dev_info->tx_desc_lim.nb_max = adapter->max_tx_ring_size;
    2708                 :          0 :         dev_info->tx_desc_lim.nb_min = ENA_MIN_RING_DESC;
    2709                 :          0 :         dev_info->tx_desc_lim.nb_seg_max = RTE_MIN(ENA_PKT_MAX_BUFS,
    2710                 :            :                                         adapter->max_tx_sgl_size);
    2711                 :          0 :         dev_info->tx_desc_lim.nb_mtu_seg_max = RTE_MIN(ENA_PKT_MAX_BUFS,
    2712                 :            :                                         adapter->max_tx_sgl_size);
    2713                 :            : 
    2714                 :          0 :         dev_info->default_rxportconf.ring_size = RTE_MIN(ENA_DEFAULT_RING_SIZE,
    2715                 :            :                                                          dev_info->rx_desc_lim.nb_max);
    2716                 :          0 :         dev_info->default_txportconf.ring_size = RTE_MIN(ENA_DEFAULT_RING_SIZE,
    2717                 :            :                                                          dev_info->tx_desc_lim.nb_max);
    2718                 :            : 
    2719                 :          0 :         dev_info->err_handle_mode = RTE_ETH_ERROR_HANDLE_MODE_PASSIVE;
    2720                 :            : 
    2721                 :          0 :         return 0;
    2722                 :            : }
    2723                 :            : 
    2724                 :            : static inline void ena_init_rx_mbuf(struct rte_mbuf *mbuf, uint16_t len)
    2725                 :            : {
    2726                 :          0 :         mbuf->data_len = len;
    2727                 :          0 :         mbuf->data_off = RTE_PKTMBUF_HEADROOM;
    2728                 :          0 :         mbuf->refcnt = 1;
    2729                 :          0 :         mbuf->next = NULL;
    2730                 :            : }
    2731                 :            : 
    2732                 :          0 : static struct rte_mbuf *ena_rx_mbuf(struct ena_ring *rx_ring,
    2733                 :            :                                     struct ena_com_rx_buf_info *ena_bufs,
    2734                 :            :                                     uint32_t descs,
    2735                 :            :                                     uint16_t *next_to_clean,
    2736                 :            :                                     uint8_t offset)
    2737                 :            : {
    2738                 :            :         struct rte_mbuf *mbuf;
    2739                 :            :         struct rte_mbuf *mbuf_head;
    2740                 :            :         struct ena_rx_buffer *rx_info;
    2741                 :            :         int rc;
    2742                 :            :         uint16_t ntc, len, req_id, buf = 0;
    2743                 :            : 
    2744         [ #  # ]:          0 :         if (unlikely(descs == 0))
    2745                 :            :                 return NULL;
    2746                 :            : 
    2747                 :          0 :         ntc = *next_to_clean;
    2748                 :            : 
    2749                 :          0 :         len = ena_bufs[buf].len;
    2750                 :          0 :         req_id = ena_bufs[buf].req_id;
    2751                 :            : 
    2752                 :          0 :         rx_info = &rx_ring->rx_buffer_info[req_id];
    2753                 :            : 
    2754                 :          0 :         mbuf = rx_info->mbuf;
    2755                 :            :         RTE_ASSERT(mbuf != NULL);
    2756                 :            : 
    2757                 :            :         ena_init_rx_mbuf(mbuf, len);
    2758                 :            : 
    2759                 :            :         /* Fill the mbuf head with the data specific for 1st segment. */
    2760                 :            :         mbuf_head = mbuf;
    2761                 :          0 :         mbuf_head->nb_segs = descs;
    2762                 :          0 :         mbuf_head->port = rx_ring->port_id;
    2763                 :          0 :         mbuf_head->pkt_len = len;
    2764                 :          0 :         mbuf_head->data_off += offset;
    2765                 :            : 
    2766                 :          0 :         rx_info->mbuf = NULL;
    2767                 :          0 :         rx_ring->empty_rx_reqs[ntc] = req_id;
    2768                 :          0 :         ntc = ENA_IDX_NEXT_MASKED(ntc, rx_ring->size_mask);
    2769                 :            : 
    2770         [ #  # ]:          0 :         while (--descs) {
    2771                 :          0 :                 ++buf;
    2772                 :          0 :                 len = ena_bufs[buf].len;
    2773                 :          0 :                 req_id = ena_bufs[buf].req_id;
    2774                 :            : 
    2775                 :          0 :                 rx_info = &rx_ring->rx_buffer_info[req_id];
    2776                 :            :                 RTE_ASSERT(rx_info->mbuf != NULL);
    2777                 :            : 
    2778         [ #  # ]:          0 :                 if (unlikely(len == 0)) {
    2779                 :            :                         /*
    2780                 :            :                          * Some devices can pass descriptor with the length 0.
    2781                 :            :                          * To avoid confusion, the PMD is simply putting the
    2782                 :            :                          * descriptor back, as it was never used. We'll avoid
    2783                 :            :                          * mbuf allocation that way.
    2784                 :            :                          */
    2785                 :          0 :                         rc = ena_add_single_rx_desc(rx_ring->ena_com_io_sq,
    2786                 :            :                                 rx_info->mbuf, req_id);
    2787         [ #  # ]:          0 :                         if (unlikely(rc != 0)) {
    2788                 :            :                                 /* Free the mbuf in case of an error. */
    2789         [ #  # ]:          0 :                                 rte_mbuf_raw_free(rx_info->mbuf);
    2790                 :            :                         } else {
    2791                 :            :                                 /*
    2792                 :            :                                  * If there was no error, just exit the loop as
    2793                 :            :                                  * 0 length descriptor is always the last one.
    2794                 :            :                                  */
    2795                 :            :                                 break;
    2796                 :            :                         }
    2797                 :            :                 } else {
    2798                 :            :                         /* Create an mbuf chain. */
    2799                 :          0 :                         mbuf->next = rx_info->mbuf;
    2800                 :            :                         mbuf = mbuf->next;
    2801                 :            : 
    2802                 :            :                         ena_init_rx_mbuf(mbuf, len);
    2803                 :          0 :                         mbuf_head->pkt_len += len;
    2804                 :            :                 }
    2805                 :            : 
    2806                 :            :                 /*
    2807                 :            :                  * Mark the descriptor as depleted and perform necessary
    2808                 :            :                  * cleanup.
    2809                 :            :                  * This code will execute in two cases:
    2810                 :            :                  *  1. Descriptor len was greater than 0 - normal situation.
    2811                 :            :                  *  2. Descriptor len was 0 and we failed to add the descriptor
    2812                 :            :                  *     to the device. In that situation, we should try to add
    2813                 :            :                  *     the mbuf again in the populate routine and mark the
    2814                 :            :                  *     descriptor as used up by the device.
    2815                 :            :                  */
    2816                 :          0 :                 rx_info->mbuf = NULL;
    2817                 :          0 :                 rx_ring->empty_rx_reqs[ntc] = req_id;
    2818                 :          0 :                 ntc = ENA_IDX_NEXT_MASKED(ntc, rx_ring->size_mask);
    2819                 :            :         }
    2820                 :            : 
    2821                 :          0 :         *next_to_clean = ntc;
    2822                 :            : 
    2823                 :          0 :         return mbuf_head;
    2824                 :            : }
    2825                 :            : 
    2826                 :          0 : static uint16_t eth_ena_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
    2827                 :            :                                   uint16_t nb_pkts)
    2828                 :            : {
    2829                 :            :         struct ena_ring *rx_ring = (struct ena_ring *)(rx_queue);
    2830                 :            :         unsigned int free_queue_entries;
    2831                 :          0 :         uint16_t next_to_clean = rx_ring->next_to_clean;
    2832                 :            :         enum ena_regs_reset_reason_types reset_reason;
    2833                 :            :         uint16_t descs_in_use;
    2834                 :            :         struct rte_mbuf *mbuf;
    2835                 :            :         uint16_t completed;
    2836                 :            :         struct ena_com_rx_ctx ena_rx_ctx;
    2837                 :            :         int i, rc = 0;
    2838                 :            : 
    2839                 :            : #ifdef RTE_ETHDEV_DEBUG_RX
    2840                 :            :         /* Check adapter state */
    2841                 :            :         if (unlikely(rx_ring->adapter->state != ENA_ADAPTER_STATE_RUNNING)) {
    2842                 :            :                 PMD_RX_LOG_LINE(ALERT,
    2843                 :            :                         "Trying to receive pkts while device is NOT running");
    2844                 :            :                 return 0;
    2845                 :            :         }
    2846                 :            : #endif
    2847                 :            : 
    2848                 :          0 :         descs_in_use = rx_ring->ring_size -
    2849                 :          0 :                 ena_com_free_q_entries(rx_ring->ena_com_io_sq) - 1;
    2850                 :          0 :         nb_pkts = RTE_MIN(descs_in_use, nb_pkts);
    2851                 :            : 
    2852         [ #  # ]:          0 :         for (completed = 0; completed < nb_pkts; completed++) {
    2853                 :          0 :                 ena_rx_ctx.max_bufs = rx_ring->sgl_size;
    2854                 :          0 :                 ena_rx_ctx.ena_bufs = rx_ring->ena_bufs;
    2855                 :          0 :                 ena_rx_ctx.descs = 0;
    2856                 :          0 :                 ena_rx_ctx.pkt_offset = 0;
    2857                 :            :                 /* receive packet context */
    2858                 :          0 :                 rc = ena_com_rx_pkt(rx_ring->ena_com_io_cq,
    2859                 :            :                                     rx_ring->ena_com_io_sq,
    2860                 :            :                                     &ena_rx_ctx);
    2861         [ #  # ]:          0 :                 if (unlikely(rc)) {
    2862                 :            :                         PMD_RX_LOG_LINE(ERR,
    2863                 :            :                                 "Failed to get the packet from the device, rc: %d",
    2864                 :            :                                 rc);
    2865   [ #  #  #  # ]:          0 :                         switch (rc) {
    2866                 :          0 :                         case ENA_COM_NO_SPACE:
    2867                 :          0 :                                 ++rx_ring->rx_stats.bad_desc_num;
    2868                 :            :                                 reset_reason = ENA_REGS_RESET_TOO_MANY_RX_DESCS;
    2869                 :          0 :                                 break;
    2870                 :          0 :                         case ENA_COM_FAULT:
    2871                 :          0 :                                 ++rx_ring->rx_stats.bad_desc;
    2872                 :            :                                 reset_reason = ENA_REGS_RESET_RX_DESCRIPTOR_MALFORMED;
    2873                 :          0 :                                 break;
    2874                 :          0 :                         case ENA_COM_EIO:
    2875                 :          0 :                                 ++rx_ring->rx_stats.bad_req_id;
    2876                 :            :                                 reset_reason = ENA_REGS_RESET_INV_RX_REQ_ID;
    2877                 :          0 :                                 break;
    2878                 :          0 :                         default:
    2879                 :          0 :                                 ++rx_ring->rx_stats.unknown_error;
    2880                 :            :                                 reset_reason = ENA_REGS_RESET_DRIVER_INVALID_STATE;
    2881                 :          0 :                                 break;
    2882                 :            :                         }
    2883         [ #  # ]:          0 :                         ena_trigger_reset(rx_ring->adapter, reset_reason);
    2884                 :          0 :                         return 0;
    2885                 :            :                 }
    2886                 :            : 
    2887                 :          0 :                 mbuf = ena_rx_mbuf(rx_ring,
    2888                 :            :                         ena_rx_ctx.ena_bufs,
    2889                 :          0 :                         ena_rx_ctx.descs,
    2890                 :            :                         &next_to_clean,
    2891                 :          0 :                         ena_rx_ctx.pkt_offset);
    2892         [ #  # ]:          0 :                 if (unlikely(mbuf == NULL)) {
    2893         [ #  # ]:          0 :                         for (i = 0; i < ena_rx_ctx.descs; ++i) {
    2894                 :          0 :                                 rx_ring->empty_rx_reqs[next_to_clean] =
    2895                 :          0 :                                         rx_ring->ena_bufs[i].req_id;
    2896                 :          0 :                                 next_to_clean = ENA_IDX_NEXT_MASKED(
    2897                 :            :                                         next_to_clean, rx_ring->size_mask);
    2898                 :            :                         }
    2899                 :            :                         break;
    2900                 :            :                 }
    2901                 :            : 
    2902                 :            :                 /* fill mbuf attributes if any */
    2903                 :          0 :                 ena_rx_mbuf_prepare(rx_ring, mbuf, &ena_rx_ctx);
    2904                 :            : 
    2905         [ #  # ]:          0 :                 if (unlikely(mbuf->ol_flags &
    2906                 :            :                                 (RTE_MBUF_F_RX_IP_CKSUM_BAD | RTE_MBUF_F_RX_L4_CKSUM_BAD)))
    2907                 :          0 :                         rte_atomic64_inc(&rx_ring->adapter->drv_stats->ierrors);
    2908                 :            : 
    2909                 :          0 :                 rx_pkts[completed] = mbuf;
    2910                 :          0 :                 rx_ring->rx_stats.bytes += mbuf->pkt_len;
    2911                 :            :         }
    2912                 :            : 
    2913                 :          0 :         rx_ring->rx_stats.cnt += completed;
    2914                 :          0 :         rx_ring->next_to_clean = next_to_clean;
    2915                 :            : 
    2916         [ #  # ]:          0 :         free_queue_entries = ena_com_free_q_entries(rx_ring->ena_com_io_sq);
    2917                 :            : 
    2918                 :            :         /* Burst refill to save doorbells, memory barriers, const interval */
    2919         [ #  # ]:          0 :         if (free_queue_entries >= rx_ring->rx_free_thresh) {
    2920                 :          0 :                 ena_populate_rx_queue(rx_ring, free_queue_entries);
    2921                 :            :         }
    2922                 :            : 
    2923                 :            :         return completed;
    2924                 :            : }
    2925                 :            : 
    2926                 :            : static uint16_t
    2927                 :          0 : eth_ena_prep_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
    2928                 :            :                 uint16_t nb_pkts)
    2929                 :            : {
    2930                 :            :         int32_t ret;
    2931                 :            :         uint32_t i;
    2932                 :            :         struct rte_mbuf *m;
    2933                 :            :         struct ena_ring *tx_ring = (struct ena_ring *)(tx_queue);
    2934                 :          0 :         struct ena_adapter *adapter = tx_ring->adapter;
    2935                 :            :         struct rte_ipv4_hdr *ip_hdr;
    2936                 :            :         uint64_t ol_flags;
    2937                 :            :         uint64_t l4_csum_flag;
    2938                 :            :         uint64_t dev_offload_capa;
    2939                 :            :         uint16_t frag_field;
    2940                 :            :         bool need_pseudo_csum;
    2941                 :            : 
    2942                 :          0 :         dev_offload_capa = adapter->offloads.tx_offloads;
    2943         [ #  # ]:          0 :         for (i = 0; i != nb_pkts; i++) {
    2944                 :          0 :                 m = tx_pkts[i];
    2945                 :          0 :                 ol_flags = m->ol_flags;
    2946                 :            : 
    2947                 :            :                 /* Check if any offload flag was set */
    2948         [ #  # ]:          0 :                 if (ol_flags == 0)
    2949                 :          0 :                         continue;
    2950                 :            : 
    2951                 :          0 :                 l4_csum_flag = ol_flags & RTE_MBUF_F_TX_L4_MASK;
    2952                 :            :                 /* SCTP checksum offload is not supported by the ENA. */
    2953   [ #  #  #  # ]:          0 :                 if ((ol_flags & ENA_TX_OFFLOAD_NOTSUP_MASK) ||
    2954                 :            :                     l4_csum_flag == RTE_MBUF_F_TX_SCTP_CKSUM) {
    2955                 :            :                         PMD_TX_LOG_LINE(DEBUG,
    2956                 :            :                                 "mbuf[%" PRIu32 "] has unsupported offloads flags set: 0x%" PRIu64,
    2957                 :            :                                 i, ol_flags);
    2958                 :          0 :                         rte_errno = ENOTSUP;
    2959                 :          0 :                         return i;
    2960                 :            :                 }
    2961                 :            : 
    2962   [ #  #  #  #  :          0 :                 if (unlikely(m->nb_segs >= tx_ring->sgl_size &&
             #  #  #  # ]
    2963                 :            :                     !(tx_ring->tx_mem_queue_type == ENA_ADMIN_PLACEMENT_POLICY_DEV &&
    2964                 :            :                       m->nb_segs == tx_ring->sgl_size &&
    2965                 :            :                       m->data_len < tx_ring->tx_max_header_size))) {
    2966                 :            :                         PMD_TX_LOG_LINE(DEBUG,
    2967                 :            :                                 "mbuf[%" PRIu32 "] has too many segments: %" PRIu16,
    2968                 :            :                                 i, m->nb_segs);
    2969                 :          0 :                         rte_errno = EINVAL;
    2970                 :          0 :                         return i;
    2971                 :            :                 }
    2972                 :            : 
    2973                 :            : #ifdef RTE_LIBRTE_ETHDEV_DEBUG
    2974                 :            :                 /* Check if requested offload is also enabled for the queue */
    2975                 :            :                 if ((ol_flags & RTE_MBUF_F_TX_IP_CKSUM &&
    2976                 :            :                      !(tx_ring->offloads & RTE_ETH_TX_OFFLOAD_IPV4_CKSUM)) ||
    2977                 :            :                     (l4_csum_flag == RTE_MBUF_F_TX_TCP_CKSUM &&
    2978                 :            :                      !(tx_ring->offloads & RTE_ETH_TX_OFFLOAD_TCP_CKSUM)) ||
    2979                 :            :                     (l4_csum_flag == RTE_MBUF_F_TX_UDP_CKSUM &&
    2980                 :            :                      !(tx_ring->offloads & RTE_ETH_TX_OFFLOAD_UDP_CKSUM))) {
    2981                 :            :                         PMD_TX_LOG_LINE(DEBUG,
    2982                 :            :                                 "mbuf[%" PRIu32 "]: requested offloads: %" PRIu16 " are not enabled for the queue[%u]",
    2983                 :            :                                 i, m->nb_segs, tx_ring->id);
    2984                 :            :                         rte_errno = EINVAL;
    2985                 :            :                         return i;
    2986                 :            :                 }
    2987                 :            : 
    2988                 :            :                 /* The caller is obligated to set l2 and l3 len if any cksum
    2989                 :            :                  * offload is enabled.
    2990                 :            :                  */
    2991                 :            :                 if (unlikely(ol_flags & (RTE_MBUF_F_TX_IP_CKSUM | RTE_MBUF_F_TX_L4_MASK) &&
    2992                 :            :                     (m->l2_len == 0 || m->l3_len == 0))) {
    2993                 :            :                         PMD_TX_LOG_LINE(DEBUG,
    2994                 :            :                                 "mbuf[%" PRIu32 "]: l2_len or l3_len values are 0 while the offload was requested",
    2995                 :            :                                 i);
    2996                 :            :                         rte_errno = EINVAL;
    2997                 :            :                         return i;
    2998                 :            :                 }
    2999                 :            :                 ret = rte_validate_tx_offload(m);
    3000                 :            :                 if (ret != 0) {
    3001                 :            :                         rte_errno = -ret;
    3002                 :            :                         return i;
    3003                 :            :                 }
    3004                 :            : #endif
    3005                 :            : 
    3006                 :            :                 /* Verify HW support for requested offloads and determine if
    3007                 :            :                  * pseudo header checksum is needed.
    3008                 :            :                  */
    3009                 :            :                 need_pseudo_csum = false;
    3010         [ #  # ]:          0 :                 if (ol_flags & RTE_MBUF_F_TX_IPV4) {
    3011   [ #  #  #  # ]:          0 :                         if (ol_flags & RTE_MBUF_F_TX_IP_CKSUM &&
    3012                 :            :                             !(dev_offload_capa & ENA_L3_IPV4_CSUM)) {
    3013                 :          0 :                                 rte_errno = ENOTSUP;
    3014                 :          0 :                                 return i;
    3015                 :            :                         }
    3016                 :            : 
    3017   [ #  #  #  # ]:          0 :                         if (ol_flags & RTE_MBUF_F_TX_TCP_SEG &&
    3018                 :            :                             !(dev_offload_capa & ENA_IPV4_TSO)) {
    3019                 :          0 :                                 rte_errno = ENOTSUP;
    3020                 :          0 :                                 return i;
    3021                 :            :                         }
    3022                 :            : 
    3023                 :            :                         /* Check HW capabilities and if pseudo csum is needed
    3024                 :            :                          * for L4 offloads.
    3025                 :            :                          */
    3026   [ #  #  #  # ]:          0 :                         if (l4_csum_flag != RTE_MBUF_F_TX_L4_NO_CKSUM &&
    3027                 :            :                             !(dev_offload_capa & ENA_L4_IPV4_CSUM)) {
    3028         [ #  # ]:          0 :                                 if (dev_offload_capa &
    3029                 :            :                                     ENA_L4_IPV4_CSUM_PARTIAL) {
    3030                 :            :                                         need_pseudo_csum = true;
    3031                 :            :                                 } else {
    3032                 :          0 :                                         rte_errno = ENOTSUP;
    3033                 :          0 :                                         return i;
    3034                 :            :                                 }
    3035                 :            :                         }
    3036                 :            : 
    3037                 :            :                         /* Parse the DF flag */
    3038                 :          0 :                         ip_hdr = rte_pktmbuf_mtod_offset(m,
    3039                 :            :                                 struct rte_ipv4_hdr *, m->l2_len);
    3040         [ #  # ]:          0 :                         frag_field = rte_be_to_cpu_16(ip_hdr->fragment_offset);
    3041         [ #  # ]:          0 :                         if (frag_field & RTE_IPV4_HDR_DF_FLAG) {
    3042                 :          0 :                                 m->packet_type |= RTE_PTYPE_L4_NONFRAG;
    3043         [ #  # ]:          0 :                         } else if (ol_flags & RTE_MBUF_F_TX_TCP_SEG) {
    3044                 :            :                                 /* In case we are supposed to TSO and have DF
    3045                 :            :                                  * not set (DF=0) hardware must be provided with
    3046                 :            :                                  * partial checksum.
    3047                 :            :                                  */
    3048                 :            :                                 need_pseudo_csum = true;
    3049                 :            :                         }
    3050         [ #  # ]:          0 :                 } else if (ol_flags & RTE_MBUF_F_TX_IPV6) {
    3051                 :            :                         /* There is no support for IPv6 TSO as for now. */
    3052         [ #  # ]:          0 :                         if (ol_flags & RTE_MBUF_F_TX_TCP_SEG) {
    3053                 :          0 :                                 rte_errno = ENOTSUP;
    3054                 :          0 :                                 return i;
    3055                 :            :                         }
    3056                 :            : 
    3057                 :            :                         /* Check HW capabilities and if pseudo csum is needed */
    3058   [ #  #  #  # ]:          0 :                         if (l4_csum_flag != RTE_MBUF_F_TX_L4_NO_CKSUM &&
    3059                 :            :                             !(dev_offload_capa & ENA_L4_IPV6_CSUM)) {
    3060         [ #  # ]:          0 :                                 if (dev_offload_capa &
    3061                 :            :                                     ENA_L4_IPV6_CSUM_PARTIAL) {
    3062                 :            :                                         need_pseudo_csum = true;
    3063                 :            :                                 } else {
    3064                 :          0 :                                         rte_errno = ENOTSUP;
    3065                 :          0 :                                         return i;
    3066                 :            :                                 }
    3067                 :            :                         }
    3068                 :            :                 }
    3069                 :            : 
    3070         [ #  # ]:          0 :                 if (need_pseudo_csum) {
    3071                 :          0 :                         ret = rte_net_intel_cksum_flags_prepare(m, ol_flags);
    3072         [ #  # ]:          0 :                         if (ret != 0) {
    3073                 :          0 :                                 rte_errno = -ret;
    3074                 :          0 :                                 return i;
    3075                 :            :                         }
    3076                 :            :                 }
    3077                 :            :         }
    3078                 :            : 
    3079                 :          0 :         return i;
    3080                 :            : }
    3081                 :            : 
    3082                 :          0 : static void ena_tx_map_mbuf(struct ena_ring *tx_ring,
    3083                 :            :         struct ena_tx_buffer *tx_info,
    3084                 :            :         struct rte_mbuf *mbuf,
    3085                 :            :         void **push_header,
    3086                 :            :         uint16_t *header_len)
    3087                 :            : {
    3088                 :            :         struct ena_com_buf *ena_buf;
    3089                 :            :         uint16_t delta, seg_len, push_len;
    3090                 :            : 
    3091                 :            :         delta = 0;
    3092                 :          0 :         seg_len = mbuf->data_len;
    3093                 :            : 
    3094                 :          0 :         tx_info->mbuf = mbuf;
    3095                 :          0 :         ena_buf = tx_info->bufs;
    3096                 :            : 
    3097         [ #  # ]:          0 :         if (tx_ring->tx_mem_queue_type == ENA_ADMIN_PLACEMENT_POLICY_DEV) {
    3098                 :            :                 /*
    3099                 :            :                  * Tx header might be (and will be in most cases) smaller than
    3100                 :            :                  * tx_max_header_size. But it's not an issue to send more data
    3101                 :            :                  * to the device, than actually needed if the mbuf size is
    3102                 :            :                  * greater than tx_max_header_size.
    3103                 :            :                  */
    3104                 :          0 :                 push_len = RTE_MIN(mbuf->pkt_len, tx_ring->tx_max_header_size);
    3105                 :          0 :                 *header_len = push_len;
    3106                 :            : 
    3107         [ #  # ]:          0 :                 if (likely(push_len <= seg_len)) {
    3108                 :            :                         /* If the push header is in the single segment, then
    3109                 :            :                          * just point it to the 1st mbuf data.
    3110                 :            :                          */
    3111                 :          0 :                         *push_header = rte_pktmbuf_mtod(mbuf, uint8_t *);
    3112                 :            :                 } else {
    3113                 :            :                         /* If the push header lays in the several segments, copy
    3114                 :            :                          * it to the intermediate buffer.
    3115                 :            :                          */
    3116                 :          0 :                         rte_pktmbuf_read(mbuf, 0, push_len,
    3117                 :          0 :                                 tx_ring->push_buf_intermediate_buf);
    3118                 :          0 :                         *push_header = tx_ring->push_buf_intermediate_buf;
    3119                 :          0 :                         delta = push_len - seg_len;
    3120                 :            :                 }
    3121                 :            :         } else {
    3122                 :          0 :                 *push_header = NULL;
    3123                 :          0 :                 *header_len = 0;
    3124                 :            :                 push_len = 0;
    3125                 :            :         }
    3126                 :            : 
    3127                 :            :         /* Process first segment taking into consideration pushed header */
    3128         [ #  # ]:          0 :         if (seg_len > push_len) {
    3129                 :          0 :                 ena_buf->paddr = mbuf->buf_iova +
    3130                 :          0 :                                 mbuf->data_off +
    3131                 :            :                                 push_len;
    3132                 :          0 :                 ena_buf->len = seg_len - push_len;
    3133                 :          0 :                 ena_buf++;
    3134                 :          0 :                 tx_info->num_of_bufs++;
    3135                 :            :         }
    3136                 :            : 
    3137         [ #  # ]:          0 :         while ((mbuf = mbuf->next) != NULL) {
    3138                 :          0 :                 seg_len = mbuf->data_len;
    3139                 :            : 
    3140                 :            :                 /* Skip mbufs if whole data is pushed as a header */
    3141         [ #  # ]:          0 :                 if (unlikely(delta > seg_len)) {
    3142                 :          0 :                         delta -= seg_len;
    3143                 :          0 :                         continue;
    3144                 :            :                 }
    3145                 :            : 
    3146                 :          0 :                 ena_buf->paddr = mbuf->buf_iova + mbuf->data_off + delta;
    3147                 :          0 :                 ena_buf->len = seg_len - delta;
    3148                 :          0 :                 ena_buf++;
    3149                 :          0 :                 tx_info->num_of_bufs++;
    3150                 :            : 
    3151                 :            :                 delta = 0;
    3152                 :            :         }
    3153                 :          0 : }
    3154                 :            : 
    3155                 :          0 : static int ena_xmit_mbuf(struct ena_ring *tx_ring, struct rte_mbuf *mbuf)
    3156                 :            : {
    3157                 :            :         struct ena_tx_buffer *tx_info;
    3158                 :          0 :         struct ena_com_tx_ctx ena_tx_ctx = { { 0 } };
    3159                 :            :         uint16_t next_to_use;
    3160                 :            :         uint16_t header_len;
    3161                 :            :         uint16_t req_id;
    3162                 :            :         void *push_header;
    3163                 :            :         int nb_hw_desc;
    3164                 :            :         int rc;
    3165                 :            : 
    3166                 :            :         /* Checking for space for 2 additional metadata descriptors due to
    3167                 :            :          * possible header split and metadata descriptor
    3168                 :            :          */
    3169         [ #  # ]:          0 :         if (!ena_com_sq_have_enough_space(tx_ring->ena_com_io_sq,
    3170         [ #  # ]:          0 :                                           mbuf->nb_segs + 2)) {
    3171                 :            :                 PMD_TX_LOG_LINE(DEBUG, "Not enough space in the tx queue");
    3172                 :            :                 return ENA_COM_NO_MEM;
    3173                 :            :         }
    3174                 :            : 
    3175                 :          0 :         next_to_use = tx_ring->next_to_use;
    3176                 :            : 
    3177                 :          0 :         req_id = tx_ring->empty_tx_reqs[next_to_use];
    3178                 :          0 :         tx_info = &tx_ring->tx_buffer_info[req_id];
    3179                 :          0 :         tx_info->num_of_bufs = 0;
    3180                 :            :         RTE_ASSERT(tx_info->mbuf == NULL);
    3181                 :            : 
    3182                 :          0 :         ena_tx_map_mbuf(tx_ring, tx_info, mbuf, &push_header, &header_len);
    3183                 :            : 
    3184                 :          0 :         ena_tx_ctx.ena_bufs = tx_info->bufs;
    3185                 :          0 :         ena_tx_ctx.push_header = push_header;
    3186                 :          0 :         ena_tx_ctx.num_bufs = tx_info->num_of_bufs;
    3187                 :          0 :         ena_tx_ctx.req_id = req_id;
    3188                 :          0 :         ena_tx_ctx.header_len = header_len;
    3189                 :            : 
    3190                 :            :         /* Set Tx offloads flags, if applicable */
    3191                 :          0 :         ena_tx_mbuf_prepare(mbuf, &ena_tx_ctx, tx_ring->offloads,
    3192                 :          0 :                 tx_ring->disable_meta_caching);
    3193                 :            : 
    3194         [ #  # ]:          0 :         if (unlikely(ena_com_is_doorbell_needed(tx_ring->ena_com_io_sq,
    3195                 :            :                         &ena_tx_ctx))) {
    3196                 :            :                 PMD_TX_LOG_LINE(DEBUG,
    3197                 :            :                         "LLQ Tx max burst size of queue %d achieved, writing doorbell to send burst",
    3198                 :            :                         tx_ring->id);
    3199                 :            :                 ena_com_write_tx_sq_doorbell(tx_ring->ena_com_io_sq);
    3200                 :          0 :                 tx_ring->tx_stats.doorbells++;
    3201                 :          0 :                 tx_ring->pkts_without_db = false;
    3202                 :            :         }
    3203                 :            : 
    3204                 :            :         /* prepare the packet's descriptors to dma engine */
    3205                 :          0 :         rc = ena_com_prepare_tx(tx_ring->ena_com_io_sq,      &ena_tx_ctx,
    3206                 :            :                 &nb_hw_desc);
    3207         [ #  # ]:          0 :         if (unlikely(rc)) {
    3208                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Failed to prepare Tx buffers, rc: %d", rc);
    3209                 :          0 :                 ++tx_ring->tx_stats.prepare_ctx_err;
    3210         [ #  # ]:          0 :                 ena_trigger_reset(tx_ring->adapter,
    3211                 :            :                         ENA_REGS_RESET_DRIVER_INVALID_STATE);
    3212                 :          0 :                 return rc;
    3213                 :            :         }
    3214                 :            : 
    3215                 :          0 :         tx_info->tx_descs = nb_hw_desc;
    3216                 :          0 :         tx_info->timestamp = rte_get_timer_cycles();
    3217                 :            : 
    3218                 :          0 :         tx_ring->tx_stats.cnt++;
    3219                 :          0 :         tx_ring->tx_stats.bytes += mbuf->pkt_len;
    3220                 :            : 
    3221                 :          0 :         tx_ring->next_to_use = ENA_IDX_NEXT_MASKED(next_to_use,
    3222                 :            :                 tx_ring->size_mask);
    3223                 :            : 
    3224                 :          0 :         return 0;
    3225                 :            : }
    3226                 :            : 
    3227                 :          0 : static int ena_tx_cleanup(void *txp, uint32_t free_pkt_cnt)
    3228                 :            : {
    3229                 :            :         struct rte_mbuf *pkts_to_clean[ENA_CLEANUP_BUF_THRESH];
    3230                 :            :         struct ena_ring *tx_ring = (struct ena_ring *)txp;
    3231                 :            :         size_t mbuf_cnt = 0;
    3232                 :            :         size_t pkt_cnt = 0;
    3233                 :            :         unsigned int total_tx_descs = 0;
    3234                 :            :         unsigned int total_tx_pkts = 0;
    3235                 :            :         uint16_t cleanup_budget;
    3236                 :          0 :         uint16_t next_to_clean = tx_ring->next_to_clean;
    3237                 :          0 :         bool fast_free = tx_ring->offloads & RTE_ETH_TX_OFFLOAD_MBUF_FAST_FREE;
    3238                 :            : 
    3239                 :            :         /*
    3240                 :            :          * If free_pkt_cnt is equal to 0, it means that the user requested
    3241                 :            :          * full cleanup, so attempt to release all Tx descriptors
    3242                 :            :          * (ring_size - 1 -> size_mask)
    3243                 :            :          */
    3244         [ #  # ]:          0 :         cleanup_budget = (free_pkt_cnt == 0) ? tx_ring->size_mask : free_pkt_cnt;
    3245                 :            : 
    3246         [ #  # ]:          0 :         while (likely(total_tx_pkts < cleanup_budget)) {
    3247                 :            :                 struct rte_mbuf *mbuf;
    3248                 :            :                 struct ena_tx_buffer *tx_info;
    3249                 :            :                 uint16_t req_id;
    3250                 :            : 
    3251         [ #  # ]:          0 :                 if (ena_com_tx_comp_req_id_get(tx_ring->ena_com_io_cq, &req_id) != 0)
    3252                 :            :                         break;
    3253                 :            : 
    3254   [ #  #  #  # ]:          0 :                 if (unlikely(validate_tx_req_id(tx_ring, req_id) != 0))
    3255                 :            :                         break;
    3256                 :            : 
    3257                 :            :                 /* Get Tx info & store how many descs were processed  */
    3258                 :          0 :                 tx_info = &tx_ring->tx_buffer_info[req_id];
    3259                 :          0 :                 tx_info->timestamp = 0;
    3260                 :            : 
    3261                 :          0 :                 mbuf = tx_info->mbuf;
    3262         [ #  # ]:          0 :                 if (fast_free) {
    3263                 :          0 :                         pkts_to_clean[pkt_cnt++] = mbuf;
    3264                 :          0 :                         mbuf_cnt += mbuf->nb_segs;
    3265         [ #  # ]:          0 :                         if (mbuf_cnt >= ENA_CLEANUP_BUF_THRESH) {
    3266                 :          0 :                                 rte_pktmbuf_free_bulk(pkts_to_clean, pkt_cnt);
    3267                 :            :                                 mbuf_cnt = 0;
    3268                 :            :                                 pkt_cnt = 0;
    3269                 :            :                         }
    3270                 :            :                 } else {
    3271                 :          0 :                         rte_pktmbuf_free(mbuf);
    3272                 :            :                 }
    3273                 :            : 
    3274                 :          0 :                 tx_info->mbuf = NULL;
    3275                 :          0 :                 tx_ring->empty_tx_reqs[next_to_clean] = req_id;
    3276                 :            : 
    3277                 :          0 :                 total_tx_descs += tx_info->tx_descs;
    3278                 :          0 :                 total_tx_pkts++;
    3279                 :            : 
    3280                 :            :                 /* Put back descriptor to the ring for reuse */
    3281                 :          0 :                 next_to_clean = ENA_IDX_NEXT_MASKED(next_to_clean,
    3282                 :            :                         tx_ring->size_mask);
    3283                 :            :         }
    3284                 :            : 
    3285         [ #  # ]:          0 :         if (likely(total_tx_descs > 0)) {
    3286                 :            :                 /* acknowledge completion of sent packets */
    3287                 :          0 :                 tx_ring->next_to_clean = next_to_clean;
    3288                 :          0 :                 ena_com_comp_ack(tx_ring->ena_com_io_sq, total_tx_descs);
    3289                 :            :         }
    3290                 :            : 
    3291         [ #  # ]:          0 :         if (mbuf_cnt != 0)
    3292                 :          0 :                 rte_pktmbuf_free_bulk(pkts_to_clean, pkt_cnt);
    3293                 :            : 
    3294                 :            :         /* Notify completion handler that full cleanup was performed */
    3295   [ #  #  #  # ]:          0 :         if (free_pkt_cnt == 0 || total_tx_pkts < cleanup_budget)
    3296                 :          0 :                 tx_ring->last_cleanup_ticks = rte_get_timer_cycles();
    3297                 :            : 
    3298                 :          0 :         return total_tx_pkts;
    3299                 :            : }
    3300                 :            : 
    3301                 :          0 : static uint16_t eth_ena_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
    3302                 :            :                                   uint16_t nb_pkts)
    3303                 :            : {
    3304                 :            :         struct ena_ring *tx_ring = (struct ena_ring *)(tx_queue);
    3305                 :            :         int available_desc;
    3306                 :            :         uint16_t sent_idx = 0;
    3307                 :            : 
    3308                 :            : #ifdef RTE_ETHDEV_DEBUG_TX
    3309                 :            :         /* Check adapter state */
    3310                 :            :         if (unlikely(tx_ring->adapter->state != ENA_ADAPTER_STATE_RUNNING)) {
    3311                 :            :                 PMD_TX_LOG_LINE(ALERT,
    3312                 :            :                         "Trying to xmit pkts while device is NOT running");
    3313                 :            :                 return 0;
    3314                 :            :         }
    3315                 :            : #endif
    3316                 :            : 
    3317         [ #  # ]:          0 :         available_desc = ena_com_free_q_entries(tx_ring->ena_com_io_sq);
    3318         [ #  # ]:          0 :         if (available_desc < tx_ring->tx_free_thresh)
    3319                 :          0 :                 ena_tx_cleanup((void *)tx_ring, 0);
    3320                 :            : 
    3321         [ #  # ]:          0 :         for (sent_idx = 0; sent_idx < nb_pkts; sent_idx++) {
    3322         [ #  # ]:          0 :                 if (ena_xmit_mbuf(tx_ring, tx_pkts[sent_idx]))
    3323                 :            :                         break;
    3324                 :          0 :                 tx_ring->pkts_without_db = true;
    3325                 :          0 :                 rte_prefetch0(tx_pkts[ENA_IDX_ADD_MASKED(sent_idx, 4,
    3326                 :            :                         tx_ring->size_mask)]);
    3327                 :            :         }
    3328                 :            : 
    3329                 :            :         /* If there are ready packets to be xmitted... */
    3330         [ #  # ]:          0 :         if (likely(tx_ring->pkts_without_db)) {
    3331                 :            :                 /* ...let HW do its best :-) */
    3332                 :          0 :                 ena_com_write_tx_sq_doorbell(tx_ring->ena_com_io_sq);
    3333                 :          0 :                 tx_ring->tx_stats.doorbells++;
    3334                 :          0 :                 tx_ring->pkts_without_db = false;
    3335                 :            :         }
    3336                 :            : 
    3337                 :          0 :         tx_ring->tx_stats.available_desc =
    3338                 :          0 :                 ena_com_free_q_entries(tx_ring->ena_com_io_sq);
    3339                 :          0 :         tx_ring->tx_stats.tx_poll++;
    3340                 :            : 
    3341                 :          0 :         return sent_idx;
    3342                 :            : }
    3343                 :            : 
    3344         [ #  # ]:          0 : static void ena_copy_customer_metrics(struct ena_adapter *adapter, uint64_t *buf,
    3345                 :            :                                              size_t num_metrics)
    3346                 :            : {
    3347                 :            :         struct ena_com_dev *ena_dev = &adapter->ena_dev;
    3348                 :            :         int rc;
    3349                 :            : 
    3350         [ #  # ]:          0 :         if (ena_com_get_cap(ena_dev, ENA_ADMIN_CUSTOMER_METRICS)) {
    3351         [ #  # ]:          0 :                 if (num_metrics != ENA_STATS_ARRAY_METRICS) {
    3352                 :          0 :                         PMD_DRV_LOG_LINE(ERR, "Detected discrepancy in the number of customer metrics");
    3353                 :          0 :                         return;
    3354                 :            :                 }
    3355                 :          0 :                 rte_spinlock_lock(&adapter->admin_lock);
    3356   [ #  #  #  #  :          0 :                 rc = ENA_PROXY(adapter,
             #  #  #  # ]
    3357                 :            :                                         ena_com_get_customer_metrics,
    3358                 :            :                                         &adapter->ena_dev,
    3359                 :            :                                         (char *)buf,
    3360                 :            :                                         num_metrics * sizeof(uint64_t));
    3361                 :            :                 rte_spinlock_unlock(&adapter->admin_lock);
    3362         [ #  # ]:          0 :                 if (rc != 0) {
    3363                 :          0 :                         PMD_DRV_LOG_LINE(WARNING, "Failed to get customer metrics, rc: %d", rc);
    3364                 :          0 :                         return;
    3365                 :            :                 }
    3366                 :            : 
    3367         [ #  # ]:          0 :         } else if (ena_com_get_cap(ena_dev, ENA_ADMIN_ENI_STATS)) {
    3368         [ #  # ]:          0 :                 if (num_metrics != ENA_STATS_ARRAY_METRICS_LEGACY) {
    3369                 :          0 :                         PMD_DRV_LOG_LINE(ERR, "Detected discrepancy in the number of legacy metrics");
    3370                 :          0 :                         return;
    3371                 :            :                 }
    3372                 :            : 
    3373                 :          0 :                 rte_spinlock_lock(&adapter->admin_lock);
    3374   [ #  #  #  #  :          0 :                 rc = ENA_PROXY(adapter,
             #  #  #  # ]
    3375                 :            :                                ena_com_get_eni_stats,
    3376                 :            :                                &adapter->ena_dev,
    3377                 :            :                                (struct ena_admin_eni_stats *)buf);
    3378                 :            :                 rte_spinlock_unlock(&adapter->admin_lock);
    3379         [ #  # ]:          0 :                 if (rc != 0) {
    3380                 :          0 :                         PMD_DRV_LOG_LINE(WARNING,
    3381                 :            :                                 "Failed to get ENI metrics, rc: %d", rc);
    3382                 :          0 :                         return;
    3383                 :            :                 }
    3384                 :            :         }
    3385                 :            : }
    3386                 :            : 
    3387         [ #  # ]:          0 : static void ena_copy_ena_srd_info(struct ena_adapter *adapter,
    3388                 :            :                 struct ena_stats_srd *srd_info)
    3389                 :            : {
    3390                 :            :         int rc;
    3391                 :            : 
    3392         [ #  # ]:          0 :         if (!ena_com_get_cap(&adapter->ena_dev, ENA_ADMIN_ENA_SRD_INFO))
    3393                 :            :                 return;
    3394                 :            : 
    3395                 :          0 :         rte_spinlock_lock(&adapter->admin_lock);
    3396   [ #  #  #  #  :          0 :         rc = ENA_PROXY(adapter,
             #  #  #  # ]
    3397                 :            :                        ena_com_get_ena_srd_info,
    3398                 :            :                        &adapter->ena_dev,
    3399                 :            :                        (struct ena_admin_ena_srd_info *)srd_info);
    3400                 :            :         rte_spinlock_unlock(&adapter->admin_lock);
    3401         [ #  # ]:          0 :         if (rc != ENA_COM_OK && rc != ENA_COM_UNSUPPORTED) {
    3402                 :          0 :                 PMD_DRV_LOG_LINE(WARNING,
    3403                 :            :                                 "Failed to get ENA express srd info, rc: %d", rc);
    3404                 :          0 :                 return;
    3405                 :            :         }
    3406                 :            : }
    3407                 :            : 
    3408                 :            : /**
    3409                 :            :  * DPDK callback to retrieve names of extended device statistics
    3410                 :            :  *
    3411                 :            :  * @param dev
    3412                 :            :  *   Pointer to Ethernet device structure.
    3413                 :            :  * @param[out] xstats_names
    3414                 :            :  *   Buffer to insert names into.
    3415                 :            :  * @param n
    3416                 :            :  *   Number of names.
    3417                 :            :  *
    3418                 :            :  * @return
    3419                 :            :  *   Number of xstats names.
    3420                 :            :  */
    3421                 :          0 : static int ena_xstats_get_names(struct rte_eth_dev *dev,
    3422                 :            :                                 struct rte_eth_xstat_name *xstats_names,
    3423                 :            :                                 unsigned int n)
    3424                 :            : {
    3425                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    3426                 :            :         unsigned int xstats_count = ena_xstats_calc_num(dev->data);
    3427                 :            :         unsigned int stat, i, count = 0;
    3428                 :            : 
    3429         [ #  # ]:          0 :         if (n < xstats_count || !xstats_names)
    3430                 :          0 :                 return xstats_count;
    3431                 :            : 
    3432         [ #  # ]:          0 :         for (stat = 0; stat < ENA_STATS_ARRAY_GLOBAL; stat++, count++)
    3433                 :          0 :                 strcpy(xstats_names[count].name,
    3434                 :          0 :                         ena_stats_global_strings[stat].name);
    3435                 :            : 
    3436         [ #  # ]:          0 :         for (stat = 0; stat < adapter->metrics_num; stat++, count++)
    3437                 :          0 :                 rte_strscpy(xstats_names[count].name,
    3438                 :          0 :                             ena_stats_metrics_strings[stat].name,
    3439                 :            :                             RTE_ETH_XSTATS_NAME_SIZE);
    3440         [ #  # ]:          0 :         for (stat = 0; stat < ENA_STATS_ARRAY_ENA_SRD; stat++, count++)
    3441                 :          0 :                 rte_strscpy(xstats_names[count].name,
    3442                 :          0 :                             ena_stats_srd_strings[stat].name,
    3443                 :            :                             RTE_ETH_XSTATS_NAME_SIZE);
    3444                 :            : 
    3445         [ #  # ]:          0 :         for (stat = 0; stat < ENA_STATS_ARRAY_RX; stat++)
    3446         [ #  # ]:          0 :                 for (i = 0; i < dev->data->nb_rx_queues; i++, count++)
    3447                 :          0 :                         snprintf(xstats_names[count].name,
    3448                 :            :                                 sizeof(xstats_names[count].name),
    3449                 :            :                                 "rx_q%d_%s", i,
    3450                 :          0 :                                 ena_stats_rx_strings[stat].name);
    3451                 :            : 
    3452         [ #  # ]:          0 :         for (stat = 0; stat < ENA_STATS_ARRAY_TX; stat++)
    3453         [ #  # ]:          0 :                 for (i = 0; i < dev->data->nb_tx_queues; i++, count++)
    3454                 :          0 :                         snprintf(xstats_names[count].name,
    3455                 :            :                                 sizeof(xstats_names[count].name),
    3456                 :            :                                 "tx_q%d_%s", i,
    3457                 :          0 :                                 ena_stats_tx_strings[stat].name);
    3458                 :            : 
    3459                 :          0 :         return xstats_count;
    3460                 :            : }
    3461                 :            : 
    3462                 :            : /**
    3463                 :            :  * DPDK callback to retrieve names of extended device statistics for the given
    3464                 :            :  * ids.
    3465                 :            :  *
    3466                 :            :  * @param dev
    3467                 :            :  *   Pointer to Ethernet device structure.
    3468                 :            :  * @param[out] xstats_names
    3469                 :            :  *   Buffer to insert names into.
    3470                 :            :  * @param ids
    3471                 :            :  *   IDs array for which the names should be retrieved.
    3472                 :            :  * @param size
    3473                 :            :  *   Number of ids.
    3474                 :            :  *
    3475                 :            :  * @return
    3476                 :            :  *   Positive value: number of xstats names. Negative value: error code.
    3477                 :            :  */
    3478                 :          0 : static int ena_xstats_get_names_by_id(struct rte_eth_dev *dev,
    3479                 :            :                                       const uint64_t *ids,
    3480                 :            :                                       struct rte_eth_xstat_name *xstats_names,
    3481                 :            :                                       unsigned int size)
    3482                 :            : {
    3483                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    3484                 :          0 :         uint64_t xstats_count = ena_xstats_calc_num(dev->data);
    3485                 :            :         uint64_t id, qid;
    3486                 :            :         unsigned int i;
    3487                 :            : 
    3488         [ #  # ]:          0 :         if (xstats_names == NULL)
    3489                 :          0 :                 return xstats_count;
    3490                 :            : 
    3491         [ #  # ]:          0 :         for (i = 0; i < size; ++i) {
    3492                 :          0 :                 id = ids[i];
    3493         [ #  # ]:          0 :                 if (id > xstats_count) {
    3494                 :          0 :                         PMD_DRV_LOG_LINE(ERR,
    3495                 :            :                                 "ID value out of range: id=%" PRIu64 ", xstats_num=%" PRIu64,
    3496                 :            :                                  id, xstats_count);
    3497                 :          0 :                         return -EINVAL;
    3498                 :            :                 }
    3499                 :            : 
    3500         [ #  # ]:          0 :                 if (id < ENA_STATS_ARRAY_GLOBAL) {
    3501                 :          0 :                         strcpy(xstats_names[i].name,
    3502                 :          0 :                                ena_stats_global_strings[id].name);
    3503                 :          0 :                         continue;
    3504                 :            :                 }
    3505                 :            : 
    3506                 :          0 :                 id -= ENA_STATS_ARRAY_GLOBAL;
    3507         [ #  # ]:          0 :                 if (id < adapter->metrics_num) {
    3508                 :          0 :                         rte_strscpy(xstats_names[i].name,
    3509                 :          0 :                                     ena_stats_metrics_strings[id].name,
    3510                 :            :                                     RTE_ETH_XSTATS_NAME_SIZE);
    3511                 :          0 :                         continue;
    3512                 :            :                 }
    3513                 :            : 
    3514                 :          0 :                 id -= adapter->metrics_num;
    3515                 :            : 
    3516         [ #  # ]:          0 :                 if (id < ENA_STATS_ARRAY_ENA_SRD) {
    3517                 :          0 :                         rte_strscpy(xstats_names[i].name,
    3518                 :          0 :                                     ena_stats_srd_strings[id].name,
    3519                 :            :                                     RTE_ETH_XSTATS_NAME_SIZE);
    3520                 :          0 :                         continue;
    3521                 :            :                 }
    3522                 :          0 :                 id -= ENA_STATS_ARRAY_ENA_SRD;
    3523                 :            : 
    3524         [ #  # ]:          0 :                 if (id < ENA_STATS_ARRAY_RX) {
    3525                 :          0 :                         qid = id / dev->data->nb_rx_queues;
    3526                 :          0 :                         id %= dev->data->nb_rx_queues;
    3527                 :          0 :                         snprintf(xstats_names[i].name,
    3528                 :            :                                  sizeof(xstats_names[i].name),
    3529                 :            :                                  "rx_q%" PRIu64 "d_%s",
    3530                 :          0 :                                  qid, ena_stats_rx_strings[id].name);
    3531                 :          0 :                         continue;
    3532                 :            :                 }
    3533                 :            : 
    3534                 :          0 :                 id -= ENA_STATS_ARRAY_RX;
    3535                 :            :                 /* Although this condition is not needed, it was added for
    3536                 :            :                  * compatibility if new xstat structure would be ever added.
    3537                 :            :                  */
    3538         [ #  # ]:          0 :                 if (id < ENA_STATS_ARRAY_TX) {
    3539                 :          0 :                         qid = id / dev->data->nb_tx_queues;
    3540                 :          0 :                         id %= dev->data->nb_tx_queues;
    3541                 :          0 :                         snprintf(xstats_names[i].name,
    3542                 :            :                                  sizeof(xstats_names[i].name),
    3543                 :            :                                  "tx_q%" PRIu64 "_%s",
    3544                 :          0 :                                  qid, ena_stats_tx_strings[id].name);
    3545                 :          0 :                         continue;
    3546                 :            :                 }
    3547                 :            :         }
    3548                 :            : 
    3549                 :          0 :         return i;
    3550                 :            : }
    3551                 :            : 
    3552                 :            : /**
    3553                 :            :  * DPDK callback to get extended device statistics.
    3554                 :            :  *
    3555                 :            :  * @param dev
    3556                 :            :  *   Pointer to Ethernet device structure.
    3557                 :            :  * @param[out] stats
    3558                 :            :  *   Stats table output buffer.
    3559                 :            :  * @param n
    3560                 :            :  *   The size of the stats table.
    3561                 :            :  *
    3562                 :            :  * @return
    3563                 :            :  *   Number of xstats on success, negative on failure.
    3564                 :            :  */
    3565                 :          0 : static int ena_xstats_get(struct rte_eth_dev *dev,
    3566                 :            :                           struct rte_eth_xstat *xstats,
    3567                 :            :                           unsigned int n)
    3568                 :            : {
    3569                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    3570                 :            :         unsigned int xstats_count = ena_xstats_calc_num(dev->data);
    3571                 :            :         unsigned int stat, i, count = 0;
    3572                 :            :         int stat_offset;
    3573                 :            :         void *stats_begin;
    3574                 :            :         uint64_t metrics_stats[ENA_MAX_CUSTOMER_METRICS];
    3575                 :          0 :         struct ena_stats_srd srd_info = {0};
    3576                 :            : 
    3577         [ #  # ]:          0 :         if (n < xstats_count)
    3578                 :          0 :                 return xstats_count;
    3579                 :            : 
    3580         [ #  # ]:          0 :         if (!xstats)
    3581                 :            :                 return 0;
    3582                 :            : 
    3583         [ #  # ]:          0 :         for (stat = 0; stat < ENA_STATS_ARRAY_GLOBAL; stat++, count++) {
    3584                 :          0 :                 stat_offset = ena_stats_global_strings[stat].stat_offset;
    3585                 :          0 :                 stats_begin = &adapter->dev_stats;
    3586                 :            : 
    3587                 :          0 :                 xstats[count].id = count;
    3588                 :          0 :                 xstats[count].value = *((uint64_t *)
    3589                 :            :                         ((char *)stats_begin + stat_offset));
    3590                 :            :         }
    3591                 :            : 
    3592                 :          0 :         ena_copy_customer_metrics(adapter, metrics_stats, adapter->metrics_num);
    3593                 :            :         stats_begin = metrics_stats;
    3594         [ #  # ]:          0 :         for (stat = 0; stat < adapter->metrics_num; stat++, count++) {
    3595                 :          0 :                 stat_offset = ena_stats_metrics_strings[stat].stat_offset;
    3596                 :            : 
    3597                 :          0 :                 xstats[count].id = count;
    3598                 :          0 :                 xstats[count].value = *((uint64_t *)
    3599                 :            :                     ((char *)stats_begin + stat_offset));
    3600                 :            :         }
    3601                 :            : 
    3602                 :          0 :         ena_copy_ena_srd_info(adapter, &srd_info);
    3603                 :            :         stats_begin = &srd_info;
    3604         [ #  # ]:          0 :         for (stat = 0; stat < ENA_STATS_ARRAY_ENA_SRD; stat++, count++) {
    3605                 :          0 :                 stat_offset = ena_stats_srd_strings[stat].stat_offset;
    3606                 :          0 :                 xstats[count].id = count;
    3607                 :          0 :                 xstats[count].value = *((uint64_t *)
    3608                 :            :                     ((char *)stats_begin + stat_offset));
    3609                 :            :         }
    3610                 :            : 
    3611         [ #  # ]:          0 :         for (stat = 0; stat < ENA_STATS_ARRAY_RX; stat++) {
    3612         [ #  # ]:          0 :                 for (i = 0; i < dev->data->nb_rx_queues; i++, count++) {
    3613                 :          0 :                         stat_offset = ena_stats_rx_strings[stat].stat_offset;
    3614                 :          0 :                         stats_begin = &adapter->rx_ring[i].rx_stats;
    3615                 :            : 
    3616                 :          0 :                         xstats[count].id = count;
    3617                 :          0 :                         xstats[count].value = *((uint64_t *)
    3618                 :            :                                 ((char *)stats_begin + stat_offset));
    3619                 :            :                 }
    3620                 :            :         }
    3621                 :            : 
    3622         [ #  # ]:          0 :         for (stat = 0; stat < ENA_STATS_ARRAY_TX; stat++) {
    3623         [ #  # ]:          0 :                 for (i = 0; i < dev->data->nb_tx_queues; i++, count++) {
    3624                 :          0 :                         stat_offset = ena_stats_tx_strings[stat].stat_offset;
    3625                 :          0 :                         stats_begin = &adapter->tx_ring[i].rx_stats;
    3626                 :            : 
    3627                 :          0 :                         xstats[count].id = count;
    3628                 :          0 :                         xstats[count].value = *((uint64_t *)
    3629                 :            :                                 ((char *)stats_begin + stat_offset));
    3630                 :            :                 }
    3631                 :            :         }
    3632                 :            : 
    3633                 :          0 :         return count;
    3634                 :            : }
    3635                 :            : 
    3636                 :          0 : static int ena_xstats_get_by_id(struct rte_eth_dev *dev,
    3637                 :            :                                 const uint64_t *ids,
    3638                 :            :                                 uint64_t *values,
    3639                 :            :                                 unsigned int n)
    3640                 :            : {
    3641                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    3642                 :            :         uint64_t id;
    3643                 :            :         uint64_t rx_entries, tx_entries;
    3644                 :            :         unsigned int i;
    3645                 :            :         int qid;
    3646                 :            :         int valid = 0;
    3647                 :            :         bool were_metrics_copied = false;
    3648                 :            :         bool was_srd_info_copied = false;
    3649                 :            :         uint64_t metrics_stats[ENA_MAX_CUSTOMER_METRICS];
    3650                 :          0 :         struct ena_stats_srd srd_info = {0};
    3651                 :            : 
    3652         [ #  # ]:          0 :         for (i = 0; i < n; ++i) {
    3653                 :          0 :                 id = ids[i];
    3654                 :            :                 /* Check if id belongs to global statistics */
    3655         [ #  # ]:          0 :                 if (id < ENA_STATS_ARRAY_GLOBAL) {
    3656                 :          0 :                         values[i] = *((uint64_t *)&adapter->dev_stats + id);
    3657                 :          0 :                         ++valid;
    3658                 :          0 :                         continue;
    3659                 :            :                 }
    3660                 :            : 
    3661                 :            :                 /* Check if id belongs to ENI statistics */
    3662                 :          0 :                 id -= ENA_STATS_ARRAY_GLOBAL;
    3663         [ #  # ]:          0 :                 if (id < adapter->metrics_num) {
    3664                 :            :                         /* Avoid reading metrics multiple times in a single
    3665                 :            :                          * function call, as it requires communication with the
    3666                 :            :                          * admin queue.
    3667                 :            :                          */
    3668         [ #  # ]:          0 :                         if (!were_metrics_copied) {
    3669                 :            :                                 were_metrics_copied = true;
    3670                 :          0 :                                 ena_copy_customer_metrics(adapter,
    3671                 :            :                                                 metrics_stats,
    3672                 :            :                                                 adapter->metrics_num);
    3673                 :            :                         }
    3674                 :            : 
    3675                 :          0 :                         values[i] = *((uint64_t *)&metrics_stats + id);
    3676                 :          0 :                         ++valid;
    3677                 :          0 :                         continue;
    3678                 :            :                 }
    3679                 :            : 
    3680                 :            :                 /* Check if id belongs to SRD info statistics */
    3681                 :          0 :                 id -= adapter->metrics_num;
    3682                 :            : 
    3683         [ #  # ]:          0 :                 if (id < ENA_STATS_ARRAY_ENA_SRD) {
    3684                 :            :                         /*
    3685                 :            :                          * Avoid reading srd info multiple times in a single
    3686                 :            :                          * function call, as it requires communication with the
    3687                 :            :                          * admin queue.
    3688                 :            :                          */
    3689         [ #  # ]:          0 :                         if (!was_srd_info_copied) {
    3690                 :            :                                 was_srd_info_copied = true;
    3691                 :          0 :                                 ena_copy_ena_srd_info(adapter, &srd_info);
    3692                 :            :                         }
    3693                 :          0 :                         values[i] = *((uint64_t *)&adapter->srd_stats + id);
    3694                 :          0 :                         ++valid;
    3695                 :          0 :                         continue;
    3696                 :            :                 }
    3697                 :            : 
    3698                 :            :                 /* Check if id belongs to rx queue statistics */
    3699                 :          0 :                 id -= ENA_STATS_ARRAY_ENA_SRD;
    3700                 :            : 
    3701                 :          0 :                 rx_entries = ENA_STATS_ARRAY_RX * dev->data->nb_rx_queues;
    3702         [ #  # ]:          0 :                 if (id < rx_entries) {
    3703                 :          0 :                         qid = id % dev->data->nb_rx_queues;
    3704                 :          0 :                         id /= dev->data->nb_rx_queues;
    3705                 :          0 :                         values[i] = *((uint64_t *)
    3706                 :          0 :                                 &adapter->rx_ring[qid].rx_stats + id);
    3707                 :          0 :                         ++valid;
    3708                 :          0 :                         continue;
    3709                 :            :                 }
    3710                 :            :                                 /* Check if id belongs to rx queue statistics */
    3711                 :          0 :                 id -= rx_entries;
    3712                 :          0 :                 tx_entries = ENA_STATS_ARRAY_TX * dev->data->nb_tx_queues;
    3713         [ #  # ]:          0 :                 if (id < tx_entries) {
    3714                 :          0 :                         qid = id % dev->data->nb_tx_queues;
    3715                 :          0 :                         id /= dev->data->nb_tx_queues;
    3716                 :          0 :                         values[i] = *((uint64_t *)
    3717                 :          0 :                                 &adapter->tx_ring[qid].tx_stats + id);
    3718                 :          0 :                         ++valid;
    3719                 :          0 :                         continue;
    3720                 :            :                 }
    3721                 :            :         }
    3722                 :            : 
    3723                 :          0 :         return valid;
    3724                 :            : }
    3725                 :            : 
    3726                 :          0 : static int ena_process_uint_devarg(const char *key,
    3727                 :            :                                   const char *value,
    3728                 :            :                                   void *opaque)
    3729                 :            : {
    3730                 :            :         struct ena_adapter *adapter = opaque;
    3731                 :            :         char *str_end;
    3732                 :            :         uint64_t uint64_value;
    3733                 :            : 
    3734                 :          0 :         uint64_value = strtoull(value, &str_end, DECIMAL_BASE);
    3735         [ #  # ]:          0 :         if (value == str_end) {
    3736                 :          0 :                 PMD_INIT_LOG_LINE(ERR,
    3737                 :            :                         "Invalid value for key '%s'. Only uint values are accepted.",
    3738                 :            :                         key);
    3739                 :          0 :                 return -EINVAL;
    3740                 :            :         }
    3741                 :            : 
    3742         [ #  # ]:          0 :         if (strcmp(key, ENA_DEVARG_MISS_TXC_TO) == 0) {
    3743         [ #  # ]:          0 :                 if (uint64_value > ENA_MAX_TX_TIMEOUT_SECONDS) {
    3744                 :          0 :                         PMD_INIT_LOG_LINE(ERR,
    3745                 :            :                                 "Tx timeout too high: %" PRIu64 " sec. Maximum allowed: %d sec.",
    3746                 :            :                                 uint64_value, ENA_MAX_TX_TIMEOUT_SECONDS);
    3747                 :          0 :                         return -EINVAL;
    3748         [ #  # ]:          0 :                 } else if (uint64_value == 0) {
    3749                 :          0 :                         PMD_INIT_LOG_LINE(INFO,
    3750                 :            :                                 "Check for missing Tx completions has been disabled.");
    3751                 :          0 :                         adapter->missing_tx_completion_to =
    3752                 :            :                                 ENA_HW_HINTS_NO_TIMEOUT;
    3753                 :            :                 } else {
    3754                 :          0 :                         PMD_INIT_LOG_LINE(INFO,
    3755                 :            :                                 "Tx packet completion timeout set to %" PRIu64 " seconds.",
    3756                 :            :                                 uint64_value);
    3757                 :          0 :                         adapter->missing_tx_completion_to =
    3758                 :          0 :                                 uint64_value * rte_get_timer_hz();
    3759                 :            :                 }
    3760         [ #  # ]:          0 :         } else if (strcmp(key, ENA_DEVARG_CONTROL_PATH_POLL_INTERVAL) == 0) {
    3761         [ #  # ]:          0 :                 if (uint64_value == 0) {
    3762                 :          0 :                         PMD_INIT_LOG_LINE(INFO,
    3763                 :            :                                 "Control path polling is disabled - Operating in interrupt mode");
    3764                 :            :                 } else {
    3765                 :          0 :                         uint64_value = CLAMP_VAL(uint64_value,
    3766                 :            :                                 ENA_MIN_CONTROL_PATH_POLL_INTERVAL_MSEC,
    3767                 :            :                                 ENA_MAX_CONTROL_PATH_POLL_INTERVAL_MSEC);
    3768                 :          0 :                         PMD_INIT_LOG_LINE(INFO,
    3769                 :            :                                 "Control path polling interval is %" PRIu64 " msec",
    3770                 :            :                                 uint64_value);
    3771                 :            :                 }
    3772                 :          0 :                 adapter->control_path_poll_interval = uint64_value * (USEC_PER_MSEC);
    3773                 :            :         }
    3774                 :            :         return 0;
    3775                 :            : }
    3776                 :            : 
    3777                 :          0 : static int ena_process_llq_policy_devarg(const char *key, const char *value, void *opaque)
    3778                 :            : {
    3779                 :            :         struct ena_adapter *adapter = opaque;
    3780                 :            :         uint32_t policy;
    3781                 :            : 
    3782                 :          0 :         policy = strtoul(value, NULL, DECIMAL_BASE);
    3783         [ #  # ]:          0 :         if (policy < ENA_LLQ_POLICY_LAST) {
    3784                 :          0 :                 adapter->llq_header_policy = policy;
    3785                 :            :         } else {
    3786                 :          0 :                 PMD_INIT_LOG_LINE(ERR,
    3787                 :            :                         "Invalid value: '%s' for key '%s'. valid [0-3]",
    3788                 :            :                         value, key);
    3789                 :          0 :                 return -EINVAL;
    3790                 :            :         }
    3791                 :          0 :         PMD_INIT_LOG_LINE(INFO,
    3792                 :            :                 "LLQ policy is %u [0 - disabled, 1 - device recommended, 2 - normal, 3 - large]",
    3793                 :            :                 adapter->llq_header_policy);
    3794                 :            : 
    3795                 :          0 :         return 0;
    3796                 :            : }
    3797                 :            : 
    3798                 :          0 : static int ena_process_bool_devarg(const char *key, const char *value, void *opaque)
    3799                 :            : {
    3800                 :            :         struct ena_adapter *adapter = opaque;
    3801                 :            :         bool bool_value;
    3802                 :            : 
    3803                 :            :         /* Parse the value. */
    3804         [ #  # ]:          0 :         if (strcmp(value, "1") == 0) {
    3805                 :            :                 bool_value = true;
    3806         [ #  # ]:          0 :         } else if (strcmp(value, "0") == 0) {
    3807                 :            :                 bool_value = false;
    3808                 :            :         } else {
    3809                 :          0 :                 PMD_INIT_LOG_LINE(ERR,
    3810                 :            :                         "Invalid value: '%s' for key '%s'. Accepted: '0' or '1'",
    3811                 :            :                         value, key);
    3812                 :          0 :                 return -EINVAL;
    3813                 :            :         }
    3814                 :            : 
    3815                 :            :         /* Now, assign it to the proper adapter field. */
    3816         [ #  # ]:          0 :         if (strcmp(key, ENA_DEVARG_ENABLE_FRAG_BYPASS) == 0)
    3817                 :          0 :                 adapter->enable_frag_bypass = bool_value;
    3818                 :            : 
    3819                 :            :         return 0;
    3820                 :            : }
    3821                 :            : 
    3822                 :          0 : static int ena_parse_devargs(struct ena_adapter *adapter, struct rte_devargs *devargs)
    3823                 :            : {
    3824                 :            :         static const char * const allowed_args[] = {
    3825                 :            :                 ENA_DEVARG_LLQ_POLICY,
    3826                 :            :                 ENA_DEVARG_MISS_TXC_TO,
    3827                 :            :                 ENA_DEVARG_CONTROL_PATH_POLL_INTERVAL,
    3828                 :            :                 ENA_DEVARG_ENABLE_FRAG_BYPASS,
    3829                 :            :                 NULL,
    3830                 :            :         };
    3831                 :            :         struct rte_kvargs *kvlist;
    3832                 :            :         int rc;
    3833                 :            : 
    3834         [ #  # ]:          0 :         if (devargs == NULL)
    3835                 :            :                 return 0;
    3836                 :            : 
    3837                 :          0 :         kvlist = rte_kvargs_parse(devargs->args, allowed_args);
    3838         [ #  # ]:          0 :         if (kvlist == NULL) {
    3839                 :          0 :                 PMD_INIT_LOG_LINE(ERR, "Invalid device arguments: %s",
    3840                 :            :                         devargs->args);
    3841                 :          0 :                 return -EINVAL;
    3842                 :            :         }
    3843                 :          0 :         rc = rte_kvargs_process(kvlist, ENA_DEVARG_LLQ_POLICY,
    3844                 :            :                         ena_process_llq_policy_devarg, adapter);
    3845         [ #  # ]:          0 :         if (rc != 0)
    3846                 :          0 :                 goto exit;
    3847                 :          0 :         rc = rte_kvargs_process(kvlist, ENA_DEVARG_MISS_TXC_TO,
    3848                 :            :                 ena_process_uint_devarg, adapter);
    3849         [ #  # ]:          0 :         if (rc != 0)
    3850                 :          0 :                 goto exit;
    3851                 :          0 :         rc = rte_kvargs_process(kvlist, ENA_DEVARG_CONTROL_PATH_POLL_INTERVAL,
    3852                 :            :                 ena_process_uint_devarg, adapter);
    3853         [ #  # ]:          0 :         if (rc != 0)
    3854                 :          0 :                 goto exit;
    3855                 :          0 :         rc = rte_kvargs_process(kvlist, ENA_DEVARG_ENABLE_FRAG_BYPASS,
    3856                 :            :                 ena_process_bool_devarg, adapter);
    3857         [ #  # ]:          0 :         if (rc != 0)
    3858                 :          0 :                 goto exit;
    3859                 :            : 
    3860                 :          0 : exit:
    3861                 :          0 :         rte_kvargs_free(kvlist);
    3862                 :            : 
    3863                 :          0 :         return rc;
    3864                 :            : }
    3865                 :            : 
    3866                 :          0 : static int ena_setup_rx_intr(struct rte_eth_dev *dev)
    3867                 :            : {
    3868                 :          0 :         struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
    3869                 :          0 :         struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
    3870                 :            :         int rc;
    3871                 :            :         uint16_t vectors_nb, i;
    3872                 :          0 :         bool rx_intr_requested = dev->data->dev_conf.intr_conf.rxq;
    3873                 :            : 
    3874         [ #  # ]:          0 :         if (!rx_intr_requested)
    3875                 :            :                 return 0;
    3876                 :            : 
    3877         [ #  # ]:          0 :         if (!rte_intr_cap_multiple(intr_handle)) {
    3878                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    3879                 :            :                         "Rx interrupt requested, but it isn't supported by the PCI driver");
    3880                 :          0 :                 return -ENOTSUP;
    3881                 :            :         }
    3882                 :            : 
    3883                 :            :         /* Disable interrupt mapping before the configuration starts. */
    3884                 :          0 :         rte_intr_disable(intr_handle);
    3885                 :            : 
    3886                 :            :         /* Verify if there are enough vectors available. */
    3887                 :          0 :         vectors_nb = dev->data->nb_rx_queues;
    3888         [ #  # ]:          0 :         if (vectors_nb > RTE_MAX_RXTX_INTR_VEC_ID) {
    3889                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    3890                 :            :                         "Too many Rx interrupts requested, maximum number: %d",
    3891                 :            :                         RTE_MAX_RXTX_INTR_VEC_ID);
    3892                 :            :                 rc = -ENOTSUP;
    3893                 :          0 :                 goto enable_intr;
    3894                 :            :         }
    3895                 :            : 
    3896                 :            :         /* Allocate the vector list */
    3897         [ #  # ]:          0 :         if (rte_intr_vec_list_alloc(intr_handle, "intr_vec",
    3898                 :            :                                            dev->data->nb_rx_queues)) {
    3899                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    3900                 :            :                         "Failed to allocate interrupt vector for %d queues",
    3901                 :            :                         dev->data->nb_rx_queues);
    3902                 :            :                 rc = -ENOMEM;
    3903                 :          0 :                 goto enable_intr;
    3904                 :            :         }
    3905                 :            : 
    3906                 :          0 :         rc = rte_intr_efd_enable(intr_handle, vectors_nb);
    3907         [ #  # ]:          0 :         if (rc != 0)
    3908                 :          0 :                 goto free_intr_vec;
    3909                 :            : 
    3910         [ #  # ]:          0 :         if (!rte_intr_allow_others(intr_handle)) {
    3911                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    3912                 :            :                         "Not enough interrupts available to use both ENA Admin and Rx interrupts");
    3913                 :          0 :                 goto disable_intr_efd;
    3914                 :            :         }
    3915                 :            : 
    3916         [ #  # ]:          0 :         for (i = 0; i < vectors_nb; ++i)
    3917         [ #  # ]:          0 :                 if (rte_intr_vec_list_index_set(intr_handle, i,
    3918                 :            :                                            RTE_INTR_VEC_RXTX_OFFSET + i))
    3919                 :          0 :                         goto disable_intr_efd;
    3920                 :            : 
    3921                 :          0 :         rte_intr_enable(intr_handle);
    3922                 :          0 :         return 0;
    3923                 :            : 
    3924                 :          0 : disable_intr_efd:
    3925                 :          0 :         rte_intr_efd_disable(intr_handle);
    3926                 :          0 : free_intr_vec:
    3927                 :          0 :         rte_intr_vec_list_free(intr_handle);
    3928                 :          0 : enable_intr:
    3929                 :          0 :         rte_intr_enable(intr_handle);
    3930                 :          0 :         return rc;
    3931                 :            : }
    3932                 :            : 
    3933                 :            : static void ena_rx_queue_intr_set(struct rte_eth_dev *dev,
    3934                 :            :                                  uint16_t queue_id,
    3935                 :            :                                  bool unmask)
    3936                 :            : {
    3937                 :          0 :         struct ena_adapter *adapter = dev->data->dev_private;
    3938                 :            :         struct ena_ring *rxq = &adapter->rx_ring[queue_id];
    3939                 :            :         struct ena_eth_io_intr_reg intr_reg;
    3940                 :            : 
    3941                 :            :         ena_com_update_intr_reg(&intr_reg, 0, 0, unmask, 1);
    3942                 :          0 :         ena_com_unmask_intr(rxq->ena_com_io_cq, &intr_reg);
    3943                 :            : }
    3944                 :            : 
    3945                 :          0 : static int ena_rx_queue_intr_enable(struct rte_eth_dev *dev,
    3946                 :            :                                     uint16_t queue_id)
    3947                 :            : {
    3948                 :          0 :         ena_rx_queue_intr_set(dev, queue_id, true);
    3949                 :            : 
    3950                 :          0 :         return 0;
    3951                 :            : }
    3952                 :            : 
    3953                 :          0 : static int ena_rx_queue_intr_disable(struct rte_eth_dev *dev,
    3954                 :            :                                      uint16_t queue_id)
    3955                 :            : {
    3956                 :          0 :         ena_rx_queue_intr_set(dev, queue_id, false);
    3957                 :            : 
    3958                 :          0 :         return 0;
    3959                 :            : }
    3960                 :            : 
    3961                 :          0 : static int ena_configure_aenq(struct ena_adapter *adapter)
    3962                 :            : {
    3963                 :          0 :         uint32_t aenq_groups = adapter->all_aenq_groups;
    3964                 :            :         int rc;
    3965                 :            : 
    3966                 :            :         /* All_aenq_groups holds all AENQ functions supported by the device and
    3967                 :            :          * the HW, so at first we need to be sure the LSC request is valid.
    3968                 :            :          */
    3969         [ #  # ]:          0 :         if (adapter->edev_data->dev_conf.intr_conf.lsc != 0) {
    3970         [ #  # ]:          0 :                 if (!(aenq_groups & BIT(ENA_ADMIN_LINK_CHANGE))) {
    3971                 :          0 :                         PMD_DRV_LOG_LINE(ERR,
    3972                 :            :                                 "LSC requested, but it's not supported by the AENQ");
    3973                 :          0 :                         return -EINVAL;
    3974                 :            :                 }
    3975                 :            :         } else {
    3976                 :            :                 /* If LSC wasn't enabled by the app, let's enable all supported
    3977                 :            :                  * AENQ procedures except the LSC.
    3978                 :            :                  */
    3979                 :          0 :                 aenq_groups &= ~BIT(ENA_ADMIN_LINK_CHANGE);
    3980                 :            :         }
    3981                 :            : 
    3982                 :          0 :         rc = ena_com_set_aenq_config(&adapter->ena_dev, aenq_groups);
    3983         [ #  # ]:          0 :         if (rc != 0) {
    3984                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Cannot configure AENQ groups, rc=%d", rc);
    3985                 :          0 :                 return rc;
    3986                 :            :         }
    3987                 :            : 
    3988                 :          0 :         adapter->active_aenq_groups = aenq_groups;
    3989                 :            : 
    3990                 :          0 :         return 0;
    3991                 :            : }
    3992                 :            : 
    3993                 :          0 : int ena_mp_indirect_table_set(struct ena_adapter *adapter)
    3994                 :            : {
    3995   [ #  #  #  #  :          0 :         return ENA_PROXY(adapter, ena_com_indirect_table_set, &adapter->ena_dev);
             #  #  #  # ]
    3996                 :            : }
    3997                 :            : 
    3998                 :          0 : int ena_mp_indirect_table_get(struct ena_adapter *adapter,
    3999                 :            :                               uint32_t *indirect_table)
    4000                 :            : {
    4001   [ #  #  #  #  :          0 :         return ENA_PROXY(adapter, ena_com_indirect_table_get, &adapter->ena_dev,
             #  #  #  # ]
    4002                 :            :                 indirect_table);
    4003                 :            : }
    4004                 :            : 
    4005                 :            : /*********************************************************************
    4006                 :            :  *  ena_plat_dpdk.h functions implementations
    4007                 :            :  *********************************************************************/
    4008                 :            : 
    4009                 :            : const struct rte_memzone *
    4010                 :          0 : ena_mem_alloc_coherent(struct rte_eth_dev_data *data, size_t size,
    4011                 :            :                        int socket_id, unsigned int alignment, void **virt_addr,
    4012                 :            :                        dma_addr_t *phys_addr)
    4013                 :            : {
    4014                 :            :         char z_name[RTE_MEMZONE_NAMESIZE];
    4015                 :          0 :         struct ena_adapter *adapter = data->dev_private;
    4016                 :            :         const struct rte_memzone *memzone;
    4017                 :            :         int rc;
    4018                 :            : 
    4019                 :          0 :         rc = snprintf(z_name, RTE_MEMZONE_NAMESIZE, "ena_p%d_mz%" PRIu64 "",
    4020         [ #  # ]:          0 :                 data->port_id, adapter->memzone_cnt);
    4021         [ #  # ]:          0 :         if (rc >= RTE_MEMZONE_NAMESIZE) {
    4022                 :          0 :                 PMD_DRV_LOG_LINE(ERR,
    4023                 :            :                         "Name for the ena_com memzone is too long. Port: %d, mz_num: %" PRIu64,
    4024                 :            :                         data->port_id, adapter->memzone_cnt);
    4025                 :          0 :                 goto error;
    4026                 :            :         }
    4027                 :          0 :         adapter->memzone_cnt++;
    4028                 :            : 
    4029                 :          0 :         memzone = rte_memzone_reserve_aligned(z_name, size, socket_id,
    4030                 :            :                 RTE_MEMZONE_IOVA_CONTIG, alignment);
    4031         [ #  # ]:          0 :         if (memzone == NULL) {
    4032                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Failed to allocate ena_com memzone: %s",
    4033                 :            :                         z_name);
    4034                 :          0 :                 goto error;
    4035                 :            :         }
    4036                 :            : 
    4037                 :          0 :         memset(memzone->addr, 0, size);
    4038                 :          0 :         *virt_addr = memzone->addr;
    4039                 :          0 :         *phys_addr = memzone->iova;
    4040                 :            : 
    4041                 :          0 :         return memzone;
    4042                 :            : 
    4043                 :          0 : error:
    4044                 :          0 :         *virt_addr = NULL;
    4045                 :          0 :         *phys_addr = 0;
    4046                 :            : 
    4047                 :          0 :         return NULL;
    4048                 :            : }
    4049                 :            : 
    4050                 :            : 
    4051                 :            : /*********************************************************************
    4052                 :            :  *  PMD configuration
    4053                 :            :  *********************************************************************/
    4054                 :          0 : static int eth_ena_pci_probe(struct rte_pci_driver *pci_drv __rte_unused,
    4055                 :            :         struct rte_pci_device *pci_dev)
    4056                 :            : {
    4057                 :          0 :         return rte_eth_dev_pci_generic_probe(pci_dev,
    4058                 :            :                 sizeof(struct ena_adapter), eth_ena_dev_init);
    4059                 :            : }
    4060                 :            : 
    4061                 :          0 : static int eth_ena_pci_remove(struct rte_pci_device *pci_dev)
    4062                 :            : {
    4063                 :          0 :         return rte_eth_dev_pci_generic_remove(pci_dev, eth_ena_dev_uninit);
    4064                 :            : }
    4065                 :            : 
    4066                 :            : static struct rte_pci_driver rte_ena_pmd = {
    4067                 :            :         .id_table = pci_id_ena_map,
    4068                 :            :         .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_INTR_LSC |
    4069                 :            :                      RTE_PCI_DRV_WC_ACTIVATE,
    4070                 :            :         .probe = eth_ena_pci_probe,
    4071                 :            :         .remove = eth_ena_pci_remove,
    4072                 :            : };
    4073                 :            : 
    4074                 :        253 : RTE_PMD_REGISTER_PCI(net_ena, rte_ena_pmd);
    4075                 :            : RTE_PMD_REGISTER_PCI_TABLE(net_ena, pci_id_ena_map);
    4076                 :            : RTE_PMD_REGISTER_KMOD_DEP(net_ena, "* igb_uio | uio_pci_generic | vfio-pci");
    4077                 :            : RTE_PMD_REGISTER_PARAM_STRING(net_ena,
    4078                 :            :         ENA_DEVARG_LLQ_POLICY "=<0|1|2|3> "
    4079                 :            :         ENA_DEVARG_MISS_TXC_TO "=<uint>"
    4080                 :            :         ENA_DEVARG_CONTROL_PATH_POLL_INTERVAL "= 0|<500-1000> "
    4081                 :            :         ENA_DEVARG_ENABLE_FRAG_BYPASS "=<0|1> ");
    4082         [ -  + ]:        253 : RTE_LOG_REGISTER_SUFFIX(ena_logtype_init, init, NOTICE);
    4083         [ -  + ]:        253 : RTE_LOG_REGISTER_SUFFIX(ena_logtype_driver, driver, NOTICE);
    4084                 :            : #ifdef RTE_ETHDEV_DEBUG_RX
    4085                 :            : RTE_LOG_REGISTER_SUFFIX(ena_logtype_rx, rx, DEBUG);
    4086                 :            : #endif
    4087                 :            : #ifdef RTE_ETHDEV_DEBUG_TX
    4088                 :            : RTE_LOG_REGISTER_SUFFIX(ena_logtype_tx, tx, DEBUG);
    4089                 :            : #endif
    4090         [ -  + ]:        253 : RTE_LOG_REGISTER_SUFFIX(ena_logtype_com, com, WARNING);
    4091                 :            : 
    4092                 :            : /******************************************************************************
    4093                 :            :  ******************************** AENQ Handlers *******************************
    4094                 :            :  *****************************************************************************/
    4095                 :          0 : static void ena_update_on_link_change(void *adapter_data,
    4096                 :            :                                       struct ena_admin_aenq_entry *aenq_e)
    4097                 :            : {
    4098                 :            :         struct rte_eth_dev *eth_dev = adapter_data;
    4099                 :          0 :         struct ena_adapter *adapter = eth_dev->data->dev_private;
    4100                 :            :         struct ena_admin_aenq_link_change_desc *aenq_link_desc;
    4101                 :            :         uint32_t status;
    4102                 :            : 
    4103                 :            :         aenq_link_desc = (struct ena_admin_aenq_link_change_desc *)aenq_e;
    4104                 :            : 
    4105                 :            :         status = get_ena_admin_aenq_link_change_desc_link_status(aenq_link_desc);
    4106                 :          0 :         adapter->link_status = status;
    4107                 :            : 
    4108                 :            :         ena_link_update(eth_dev, 0);
    4109                 :          0 :         rte_eth_dev_callback_process(eth_dev, RTE_ETH_EVENT_INTR_LSC, NULL);
    4110                 :          0 : }
    4111                 :            : 
    4112                 :          0 : static void ena_keep_alive(void *adapter_data,
    4113                 :            :                            __rte_unused struct ena_admin_aenq_entry *aenq_e)
    4114                 :            : {
    4115                 :            :         struct rte_eth_dev *eth_dev = adapter_data;
    4116                 :          0 :         struct ena_adapter *adapter = eth_dev->data->dev_private;
    4117                 :            :         struct ena_admin_aenq_keep_alive_desc *desc;
    4118                 :            :         uint64_t rx_drops;
    4119                 :            :         uint64_t tx_drops;
    4120                 :            :         uint64_t rx_overruns;
    4121                 :            : 
    4122                 :          0 :         adapter->timestamp_wd = rte_get_timer_cycles();
    4123                 :            : 
    4124                 :            :         desc = (struct ena_admin_aenq_keep_alive_desc *)aenq_e;
    4125                 :          0 :         rx_drops = ((uint64_t)desc->rx_drops_high << 32) | desc->rx_drops_low;
    4126                 :          0 :         tx_drops = ((uint64_t)desc->tx_drops_high << 32) | desc->tx_drops_low;
    4127                 :          0 :         rx_overruns = ((uint64_t)desc->rx_overruns_high << 32) | desc->rx_overruns_low;
    4128                 :            : 
    4129                 :            :         /*
    4130                 :            :          * Depending on its acceleration support, the device updates a different statistic when
    4131                 :            :          * Rx packet is dropped because there are no available buffers to accommodate it.
    4132                 :            :          */
    4133                 :          0 :         adapter->drv_stats->rx_drops = rx_drops + rx_overruns;
    4134                 :          0 :         adapter->dev_stats.tx_drops = tx_drops;
    4135                 :          0 : }
    4136                 :            : 
    4137                 :          0 : static void ena_suboptimal_configuration(__rte_unused void *adapter_data,
    4138                 :            :                                          struct ena_admin_aenq_entry *aenq_e)
    4139                 :            : {
    4140                 :            :         struct ena_admin_aenq_conf_notifications_desc *desc;
    4141                 :            :         int bit, num_bits;
    4142                 :            : 
    4143                 :            :         desc = (struct ena_admin_aenq_conf_notifications_desc *)aenq_e;
    4144                 :            :         num_bits = BITS_PER_TYPE(desc->notifications_bitmap);
    4145         [ #  # ]:          0 :         for (bit = 0; bit < num_bits; bit++) {
    4146         [ #  # ]:          0 :                 if (desc->notifications_bitmap & RTE_BIT64(bit)) {
    4147                 :          0 :                         PMD_DRV_LOG_LINE(WARNING,
    4148                 :            :                                 "Sub-optimal configuration notification code: %d", bit + 1);
    4149                 :            :                 }
    4150                 :            :         }
    4151                 :          0 : }
    4152                 :            : 
    4153                 :            : /**
    4154                 :            :  * This handler will called for unknown event group or unimplemented handlers
    4155                 :            :  **/
    4156                 :          0 : static void unimplemented_aenq_handler(__rte_unused void *data,
    4157                 :            :                                        __rte_unused struct ena_admin_aenq_entry *aenq_e)
    4158                 :            : {
    4159                 :          0 :         PMD_DRV_LOG_LINE(ERR,
    4160                 :            :                 "Unknown event was received or event with unimplemented handler");
    4161                 :          0 : }
    4162                 :            : 
    4163                 :            : static struct ena_aenq_handlers aenq_handlers = {
    4164                 :            :         .handlers = {
    4165                 :            :                 [ENA_ADMIN_LINK_CHANGE] = ena_update_on_link_change,
    4166                 :            :                 [ENA_ADMIN_KEEP_ALIVE] = ena_keep_alive,
    4167                 :            :                 [ENA_ADMIN_CONF_NOTIFICATIONS] = ena_suboptimal_configuration
    4168                 :            :         },
    4169                 :            :         .unimplemented_handler = unimplemented_aenq_handler
    4170                 :            : };
    4171                 :            : 
    4172                 :            : /*********************************************************************
    4173                 :            :  *  Multi-Process communication request handling (in primary)
    4174                 :            :  *********************************************************************/
    4175                 :            : static int
    4176                 :          0 : ena_mp_primary_handle(const struct rte_mp_msg *mp_msg, const void *peer)
    4177                 :            : {
    4178                 :            :         const struct ena_mp_body *req =
    4179                 :            :                 (const struct ena_mp_body *)mp_msg->param;
    4180                 :            :         struct ena_adapter *adapter;
    4181                 :            :         struct ena_com_dev *ena_dev;
    4182                 :            :         struct ena_mp_body *rsp;
    4183                 :            :         struct rte_mp_msg mp_rsp;
    4184                 :            :         struct rte_eth_dev *dev;
    4185                 :            :         int res = 0;
    4186                 :            : 
    4187                 :            :         rsp = (struct ena_mp_body *)&mp_rsp.param;
    4188                 :          0 :         mp_msg_init(&mp_rsp, req->type, req->port_id);
    4189                 :            : 
    4190         [ #  # ]:          0 :         if (!rte_eth_dev_is_valid_port(req->port_id)) {
    4191                 :          0 :                 rte_errno = ENODEV;
    4192                 :            :                 res = -rte_errno;
    4193                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Unknown port %d in request %d",
    4194                 :            :                             req->port_id, req->type);
    4195                 :          0 :                 goto end;
    4196                 :            :         }
    4197                 :          0 :         dev = &rte_eth_devices[req->port_id];
    4198                 :          0 :         adapter = dev->data->dev_private;
    4199                 :          0 :         ena_dev = &adapter->ena_dev;
    4200                 :            : 
    4201   [ #  #  #  #  :          0 :         switch (req->type) {
             #  #  #  # ]
    4202                 :          0 :         case ENA_MP_DEV_STATS_GET:
    4203                 :          0 :                 res = ena_com_get_dev_basic_stats(ena_dev,
    4204                 :            :                                                   &adapter->basic_stats);
    4205                 :          0 :                 break;
    4206                 :          0 :         case ENA_MP_ENI_STATS_GET:
    4207                 :          0 :                 res = ena_com_get_eni_stats(ena_dev,
    4208                 :          0 :                         (struct ena_admin_eni_stats *)&adapter->metrics_stats);
    4209                 :          0 :                 break;
    4210                 :          0 :         case ENA_MP_MTU_SET:
    4211                 :          0 :                 res = ena_com_set_dev_mtu(ena_dev, req->args.mtu);
    4212                 :          0 :                 break;
    4213                 :          0 :         case ENA_MP_IND_TBL_GET:
    4214                 :          0 :                 res = ena_com_indirect_table_get(ena_dev,
    4215                 :            :                                                  adapter->indirect_table);
    4216                 :          0 :                 break;
    4217                 :          0 :         case ENA_MP_IND_TBL_SET:
    4218                 :          0 :                 res = ena_com_indirect_table_set(ena_dev);
    4219                 :          0 :                 break;
    4220                 :          0 :         case ENA_MP_CUSTOMER_METRICS_GET:
    4221                 :          0 :                 res = ena_com_get_customer_metrics(ena_dev,
    4222                 :          0 :                                 (char *)adapter->metrics_stats,
    4223                 :          0 :                                 adapter->metrics_num * sizeof(uint64_t));
    4224                 :          0 :                 break;
    4225                 :          0 :         case ENA_MP_SRD_STATS_GET:
    4226                 :          0 :                 res = ena_com_get_ena_srd_info(ena_dev,
    4227                 :          0 :                                 (struct ena_admin_ena_srd_info *)&adapter->srd_stats);
    4228                 :          0 :                 break;
    4229                 :          0 :         default:
    4230                 :          0 :                 PMD_DRV_LOG_LINE(ERR, "Unknown request type %d", req->type);
    4231                 :            :                 res = -EINVAL;
    4232                 :          0 :                 break;
    4233                 :            :         }
    4234                 :            : 
    4235                 :          0 : end:
    4236                 :            :         /* Save processing result in the reply */
    4237                 :          0 :         rsp->result = res;
    4238                 :            :         /* Return just IPC processing status */
    4239                 :          0 :         return rte_mp_reply(&mp_rsp, peer);
    4240                 :            : }
    4241                 :            : 
    4242                 :          0 : static bool ena_use_large_llq_hdr(struct ena_adapter *adapter, uint8_t recommended_entry_size)
    4243                 :            : {
    4244         [ #  # ]:          0 :         if (adapter->llq_header_policy == ENA_LLQ_POLICY_LARGE) {
    4245                 :            :                 return true;
    4246         [ #  # ]:          0 :         } else if (adapter->llq_header_policy == ENA_LLQ_POLICY_RECOMMENDED) {
    4247                 :          0 :                 PMD_DRV_LOG_LINE(INFO, "Recommended device entry size policy %u",
    4248                 :            :                         recommended_entry_size);
    4249         [ #  # ]:          0 :                 if (recommended_entry_size == ENA_ADMIN_LIST_ENTRY_SIZE_256B)
    4250                 :          0 :                         return true;
    4251                 :            :         }
    4252                 :            :         return false;
    4253                 :            : }

Generated by: LCOV version 1.14