Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright(c) 2017 Intel Corporation
3 : : */
4 : :
5 : : #include <ctype.h>
6 : : #include <sys/queue.h>
7 : : #include <stdio.h>
8 : : #include <errno.h>
9 : : #include <stdint.h>
10 : : #include <string.h>
11 : : #include <unistd.h>
12 : : #include <stdarg.h>
13 : : #include <inttypes.h>
14 : : #include <rte_byteorder.h>
15 : : #include <rte_common.h>
16 : :
17 : : #include <rte_interrupts.h>
18 : : #include <rte_debug.h>
19 : : #include <rte_pci.h>
20 : : #include <rte_alarm.h>
21 : : #include <rte_atomic.h>
22 : : #include <rte_eal.h>
23 : : #include <rte_ether.h>
24 : : #include <ethdev_driver.h>
25 : : #include <ethdev_pci.h>
26 : : #include <rte_malloc.h>
27 : : #include <rte_memzone.h>
28 : : #include <dev_driver.h>
29 : :
30 : : #include "iavf.h"
31 : : #include "iavf_rxtx.h"
32 : : #include "iavf_generic_flow.h"
33 : : #include "rte_pmd_iavf.h"
34 : : #include "iavf_ipsec_crypto.h"
35 : :
36 : : /* devargs */
37 : : #define IAVF_PROTO_XTR_ARG "proto_xtr"
38 : : #define IAVF_QUANTA_SIZE_ARG "quanta_size"
39 : : #define IAVF_RESET_WATCHDOG_ARG "watchdog_period"
40 : : #define IAVF_ENABLE_AUTO_RESET_ARG "auto_reset"
41 : : #define IAVF_NO_POLL_ON_LINK_DOWN_ARG "no-poll-on-link-down"
42 : : uint64_t iavf_timestamp_dynflag;
43 : : int iavf_timestamp_dynfield_offset = -1;
44 : :
45 : : static const char * const iavf_valid_args[] = {
46 : : IAVF_PROTO_XTR_ARG,
47 : : IAVF_QUANTA_SIZE_ARG,
48 : : IAVF_RESET_WATCHDOG_ARG,
49 : : IAVF_ENABLE_AUTO_RESET_ARG,
50 : : IAVF_NO_POLL_ON_LINK_DOWN_ARG,
51 : : NULL
52 : : };
53 : :
54 : : static const struct rte_mbuf_dynfield iavf_proto_xtr_metadata_param = {
55 : : .name = "intel_pmd_dynfield_proto_xtr_metadata",
56 : : .size = sizeof(uint32_t),
57 : : .align = __alignof__(uint32_t),
58 : : .flags = 0,
59 : : };
60 : :
61 : : struct iavf_proto_xtr_ol {
62 : : const struct rte_mbuf_dynflag param;
63 : : uint64_t *ol_flag;
64 : : bool required;
65 : : };
66 : :
67 : : static struct iavf_proto_xtr_ol iavf_proto_xtr_params[] = {
68 : : [IAVF_PROTO_XTR_VLAN] = {
69 : : .param = { .name = "intel_pmd_dynflag_proto_xtr_vlan" },
70 : : .ol_flag = &rte_pmd_ifd_dynflag_proto_xtr_vlan_mask },
71 : : [IAVF_PROTO_XTR_IPV4] = {
72 : : .param = { .name = "intel_pmd_dynflag_proto_xtr_ipv4" },
73 : : .ol_flag = &rte_pmd_ifd_dynflag_proto_xtr_ipv4_mask },
74 : : [IAVF_PROTO_XTR_IPV6] = {
75 : : .param = { .name = "intel_pmd_dynflag_proto_xtr_ipv6" },
76 : : .ol_flag = &rte_pmd_ifd_dynflag_proto_xtr_ipv6_mask },
77 : : [IAVF_PROTO_XTR_IPV6_FLOW] = {
78 : : .param = { .name = "intel_pmd_dynflag_proto_xtr_ipv6_flow" },
79 : : .ol_flag = &rte_pmd_ifd_dynflag_proto_xtr_ipv6_flow_mask },
80 : : [IAVF_PROTO_XTR_TCP] = {
81 : : .param = { .name = "intel_pmd_dynflag_proto_xtr_tcp" },
82 : : .ol_flag = &rte_pmd_ifd_dynflag_proto_xtr_tcp_mask },
83 : : [IAVF_PROTO_XTR_IP_OFFSET] = {
84 : : .param = { .name = "intel_pmd_dynflag_proto_xtr_ip_offset" },
85 : : .ol_flag = &rte_pmd_ifd_dynflag_proto_xtr_ip_offset_mask },
86 : : [IAVF_PROTO_XTR_IPSEC_CRYPTO_SAID] = {
87 : : .param = {
88 : : .name = "intel_pmd_dynflag_proto_xtr_ipsec_crypto_said" },
89 : : .ol_flag =
90 : : &rte_pmd_ifd_dynflag_proto_xtr_ipsec_crypto_said_mask },
91 : : };
92 : :
93 : : static int iavf_dev_configure(struct rte_eth_dev *dev);
94 : : static int iavf_dev_start(struct rte_eth_dev *dev);
95 : : static int iavf_dev_stop(struct rte_eth_dev *dev);
96 : : static int iavf_dev_close(struct rte_eth_dev *dev);
97 : : static int iavf_dev_reset(struct rte_eth_dev *dev);
98 : : static int iavf_dev_info_get(struct rte_eth_dev *dev,
99 : : struct rte_eth_dev_info *dev_info);
100 : : static const uint32_t *iavf_dev_supported_ptypes_get(struct rte_eth_dev *dev);
101 : : static int iavf_dev_stats_get(struct rte_eth_dev *dev,
102 : : struct rte_eth_stats *stats);
103 : : static int iavf_dev_stats_reset(struct rte_eth_dev *dev);
104 : : static int iavf_dev_xstats_reset(struct rte_eth_dev *dev);
105 : : static int iavf_dev_xstats_get(struct rte_eth_dev *dev,
106 : : struct rte_eth_xstat *xstats, unsigned int n);
107 : : static int iavf_dev_xstats_get_names(struct rte_eth_dev *dev,
108 : : struct rte_eth_xstat_name *xstats_names,
109 : : unsigned int limit);
110 : : static int iavf_dev_promiscuous_enable(struct rte_eth_dev *dev);
111 : : static int iavf_dev_promiscuous_disable(struct rte_eth_dev *dev);
112 : : static int iavf_dev_allmulticast_enable(struct rte_eth_dev *dev);
113 : : static int iavf_dev_allmulticast_disable(struct rte_eth_dev *dev);
114 : : static int iavf_dev_add_mac_addr(struct rte_eth_dev *dev,
115 : : struct rte_ether_addr *addr,
116 : : uint32_t index,
117 : : uint32_t pool);
118 : : static void iavf_dev_del_mac_addr(struct rte_eth_dev *dev, uint32_t index);
119 : : static int iavf_dev_vlan_filter_set(struct rte_eth_dev *dev,
120 : : uint16_t vlan_id, int on);
121 : : static int iavf_dev_vlan_offload_set(struct rte_eth_dev *dev, int mask);
122 : : static int iavf_dev_rss_reta_update(struct rte_eth_dev *dev,
123 : : struct rte_eth_rss_reta_entry64 *reta_conf,
124 : : uint16_t reta_size);
125 : : static int iavf_dev_rss_reta_query(struct rte_eth_dev *dev,
126 : : struct rte_eth_rss_reta_entry64 *reta_conf,
127 : : uint16_t reta_size);
128 : : static int iavf_dev_rss_hash_update(struct rte_eth_dev *dev,
129 : : struct rte_eth_rss_conf *rss_conf);
130 : : static int iavf_dev_rss_hash_conf_get(struct rte_eth_dev *dev,
131 : : struct rte_eth_rss_conf *rss_conf);
132 : : static int iavf_dev_mtu_set(struct rte_eth_dev *dev, uint16_t mtu);
133 : : static int iavf_dev_set_default_mac_addr(struct rte_eth_dev *dev,
134 : : struct rte_ether_addr *mac_addr);
135 : : static int iavf_dev_rx_queue_intr_enable(struct rte_eth_dev *dev,
136 : : uint16_t queue_id);
137 : : static int iavf_dev_rx_queue_intr_disable(struct rte_eth_dev *dev,
138 : : uint16_t queue_id);
139 : : static void iavf_dev_interrupt_handler(void *param);
140 : : static void iavf_disable_irq0(struct iavf_hw *hw);
141 : : static int iavf_dev_flow_ops_get(struct rte_eth_dev *dev,
142 : : const struct rte_flow_ops **ops);
143 : : static int iavf_set_mc_addr_list(struct rte_eth_dev *dev,
144 : : struct rte_ether_addr *mc_addrs,
145 : : uint32_t mc_addrs_num);
146 : : static int iavf_tm_ops_get(struct rte_eth_dev *dev __rte_unused, void *arg);
147 : :
148 : : static const struct rte_pci_id pci_id_iavf_map[] = {
149 : : { RTE_PCI_DEVICE(IAVF_INTEL_VENDOR_ID, IAVF_DEV_ID_ADAPTIVE_VF) },
150 : : { RTE_PCI_DEVICE(IAVF_INTEL_VENDOR_ID, IAVF_DEV_ID_VF) },
151 : : { RTE_PCI_DEVICE(IAVF_INTEL_VENDOR_ID, IAVF_DEV_ID_VF_HV) },
152 : : { RTE_PCI_DEVICE(IAVF_INTEL_VENDOR_ID, IAVF_DEV_ID_X722_VF) },
153 : : { RTE_PCI_DEVICE(IAVF_INTEL_VENDOR_ID, IAVF_DEV_ID_X722_A0_VF) },
154 : : { .vendor_id = 0, /* sentinel */ },
155 : : };
156 : :
157 : : struct rte_iavf_xstats_name_off {
158 : : char name[RTE_ETH_XSTATS_NAME_SIZE];
159 : : unsigned int offset;
160 : : };
161 : :
162 : : #define _OFF_OF(a) offsetof(struct iavf_eth_xstats, a)
163 : : static const struct rte_iavf_xstats_name_off rte_iavf_stats_strings[] = {
164 : : {"rx_bytes", _OFF_OF(eth_stats.rx_bytes)},
165 : : {"rx_unicast_packets", _OFF_OF(eth_stats.rx_unicast)},
166 : : {"rx_multicast_packets", _OFF_OF(eth_stats.rx_multicast)},
167 : : {"rx_broadcast_packets", _OFF_OF(eth_stats.rx_broadcast)},
168 : : {"rx_dropped_packets", _OFF_OF(eth_stats.rx_discards)},
169 : : {"rx_unknown_protocol_packets", offsetof(struct iavf_eth_stats,
170 : : rx_unknown_protocol)},
171 : : {"tx_bytes", _OFF_OF(eth_stats.tx_bytes)},
172 : : {"tx_unicast_packets", _OFF_OF(eth_stats.tx_unicast)},
173 : : {"tx_multicast_packets", _OFF_OF(eth_stats.tx_multicast)},
174 : : {"tx_broadcast_packets", _OFF_OF(eth_stats.tx_broadcast)},
175 : : {"tx_dropped_packets", _OFF_OF(eth_stats.tx_discards)},
176 : : {"tx_error_packets", _OFF_OF(eth_stats.tx_errors)},
177 : :
178 : : {"inline_ipsec_crypto_ipackets", _OFF_OF(ips_stats.icount)},
179 : : {"inline_ipsec_crypto_ibytes", _OFF_OF(ips_stats.ibytes)},
180 : : {"inline_ipsec_crypto_ierrors", _OFF_OF(ips_stats.ierrors.count)},
181 : : {"inline_ipsec_crypto_ierrors_sad_lookup",
182 : : _OFF_OF(ips_stats.ierrors.sad_miss)},
183 : : {"inline_ipsec_crypto_ierrors_not_processed",
184 : : _OFF_OF(ips_stats.ierrors.not_processed)},
185 : : {"inline_ipsec_crypto_ierrors_icv_fail",
186 : : _OFF_OF(ips_stats.ierrors.icv_check)},
187 : : {"inline_ipsec_crypto_ierrors_length",
188 : : _OFF_OF(ips_stats.ierrors.ipsec_length)},
189 : : {"inline_ipsec_crypto_ierrors_misc",
190 : : _OFF_OF(ips_stats.ierrors.misc)},
191 : : };
192 : : #undef _OFF_OF
193 : :
194 : : #define IAVF_NB_XSTATS (sizeof(rte_iavf_stats_strings) / \
195 : : sizeof(rte_iavf_stats_strings[0]))
196 : :
197 : : static const struct eth_dev_ops iavf_eth_dev_ops = {
198 : : .dev_configure = iavf_dev_configure,
199 : : .dev_start = iavf_dev_start,
200 : : .dev_stop = iavf_dev_stop,
201 : : .dev_close = iavf_dev_close,
202 : : .dev_reset = iavf_dev_reset,
203 : : .dev_infos_get = iavf_dev_info_get,
204 : : .dev_supported_ptypes_get = iavf_dev_supported_ptypes_get,
205 : : .link_update = iavf_dev_link_update,
206 : : .stats_get = iavf_dev_stats_get,
207 : : .stats_reset = iavf_dev_stats_reset,
208 : : .xstats_get = iavf_dev_xstats_get,
209 : : .xstats_get_names = iavf_dev_xstats_get_names,
210 : : .xstats_reset = iavf_dev_xstats_reset,
211 : : .promiscuous_enable = iavf_dev_promiscuous_enable,
212 : : .promiscuous_disable = iavf_dev_promiscuous_disable,
213 : : .allmulticast_enable = iavf_dev_allmulticast_enable,
214 : : .allmulticast_disable = iavf_dev_allmulticast_disable,
215 : : .mac_addr_add = iavf_dev_add_mac_addr,
216 : : .mac_addr_remove = iavf_dev_del_mac_addr,
217 : : .set_mc_addr_list = iavf_set_mc_addr_list,
218 : : .vlan_filter_set = iavf_dev_vlan_filter_set,
219 : : .vlan_offload_set = iavf_dev_vlan_offload_set,
220 : : .rx_queue_start = iavf_dev_rx_queue_start,
221 : : .rx_queue_stop = iavf_dev_rx_queue_stop,
222 : : .tx_queue_start = iavf_dev_tx_queue_start,
223 : : .tx_queue_stop = iavf_dev_tx_queue_stop,
224 : : .rx_queue_setup = iavf_dev_rx_queue_setup,
225 : : .rx_queue_release = iavf_dev_rx_queue_release,
226 : : .tx_queue_setup = iavf_dev_tx_queue_setup,
227 : : .tx_queue_release = iavf_dev_tx_queue_release,
228 : : .mac_addr_set = iavf_dev_set_default_mac_addr,
229 : : .reta_update = iavf_dev_rss_reta_update,
230 : : .reta_query = iavf_dev_rss_reta_query,
231 : : .rss_hash_update = iavf_dev_rss_hash_update,
232 : : .rss_hash_conf_get = iavf_dev_rss_hash_conf_get,
233 : : .rxq_info_get = iavf_dev_rxq_info_get,
234 : : .txq_info_get = iavf_dev_txq_info_get,
235 : : .mtu_set = iavf_dev_mtu_set,
236 : : .rx_queue_intr_enable = iavf_dev_rx_queue_intr_enable,
237 : : .rx_queue_intr_disable = iavf_dev_rx_queue_intr_disable,
238 : : .flow_ops_get = iavf_dev_flow_ops_get,
239 : : .tx_done_cleanup = iavf_dev_tx_done_cleanup,
240 : : .get_monitor_addr = iavf_get_monitor_addr,
241 : : .tm_ops_get = iavf_tm_ops_get,
242 : : };
243 : :
244 : : static int
245 : 0 : iavf_tm_ops_get(struct rte_eth_dev *dev,
246 : : void *arg)
247 : : {
248 : 0 : struct iavf_adapter *adapter =
249 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
250 : :
251 [ # # ]: 0 : if (adapter->closed)
252 : : return -EIO;
253 : :
254 [ # # ]: 0 : if (!arg)
255 : : return -EINVAL;
256 : :
257 : 0 : *(const void **)arg = &iavf_tm_ops;
258 : :
259 : 0 : return 0;
260 : : }
261 : :
262 : : __rte_unused
263 : : static int
264 : 0 : iavf_vfr_inprogress(struct iavf_hw *hw)
265 : : {
266 : : int inprogress = 0;
267 : :
268 [ # # ]: 0 : if ((IAVF_READ_REG(hw, IAVF_VFGEN_RSTAT) &
269 : : IAVF_VFGEN_RSTAT_VFR_STATE_MASK) ==
270 : : VIRTCHNL_VFR_INPROGRESS)
271 : : inprogress = 1;
272 : :
273 : : if (inprogress)
274 : 0 : PMD_DRV_LOG(INFO, "Watchdog detected VFR in progress");
275 : :
276 : 0 : return inprogress;
277 : : }
278 : :
279 : : __rte_unused
280 : : static void
281 : 0 : iavf_dev_watchdog(void *cb_arg)
282 : : {
283 : : struct iavf_adapter *adapter = cb_arg;
284 : 0 : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(adapter);
285 : : int vfr_inprogress = 0, rc = 0;
286 : :
287 : : /* check if watchdog has been disabled since last call */
288 [ # # ]: 0 : if (!adapter->vf.watchdog_enabled)
289 : : return;
290 : :
291 : : /* If in reset then poll vfr_inprogress register for completion */
292 [ # # ]: 0 : if (adapter->vf.vf_reset) {
293 : 0 : vfr_inprogress = iavf_vfr_inprogress(hw);
294 : :
295 [ # # ]: 0 : if (!vfr_inprogress) {
296 : 0 : PMD_DRV_LOG(INFO, "VF \"%s\" reset has completed",
297 : : adapter->vf.eth_dev->data->name);
298 : 0 : adapter->vf.vf_reset = false;
299 : : }
300 : : /* If not in reset then poll vfr_inprogress register for VFLR event */
301 : : } else {
302 : 0 : vfr_inprogress = iavf_vfr_inprogress(hw);
303 : :
304 [ # # ]: 0 : if (vfr_inprogress) {
305 : 0 : PMD_DRV_LOG(INFO,
306 : : "VF \"%s\" reset event detected by watchdog",
307 : : adapter->vf.eth_dev->data->name);
308 : :
309 : : /* enter reset state with VFLR event */
310 : 0 : adapter->vf.vf_reset = true;
311 : 0 : adapter->vf.link_up = false;
312 : :
313 : 0 : iavf_dev_event_post(adapter->vf.eth_dev, RTE_ETH_EVENT_INTR_RESET,
314 : : NULL, 0);
315 : : }
316 : : }
317 : :
318 [ # # ]: 0 : if (adapter->devargs.watchdog_period) {
319 : : /* re-alarm watchdog */
320 : 0 : rc = rte_eal_alarm_set(adapter->devargs.watchdog_period,
321 : : &iavf_dev_watchdog, cb_arg);
322 : :
323 [ # # ]: 0 : if (rc)
324 : 0 : PMD_DRV_LOG(ERR, "Failed \"%s\" to reset device watchdog alarm",
325 : : adapter->vf.eth_dev->data->name);
326 : : }
327 : : }
328 : :
329 : : void
330 : 0 : iavf_dev_watchdog_enable(struct iavf_adapter *adapter)
331 : : {
332 [ # # ]: 0 : if (!adapter->devargs.watchdog_period) {
333 : 0 : PMD_DRV_LOG(INFO, "Device watchdog is disabled");
334 : : } else {
335 [ # # ]: 0 : if (!adapter->vf.watchdog_enabled) {
336 : 0 : PMD_DRV_LOG(INFO, "Enabling device watchdog, period is %dμs",
337 : : adapter->devargs.watchdog_period);
338 : 0 : adapter->vf.watchdog_enabled = true;
339 [ # # ]: 0 : if (rte_eal_alarm_set(adapter->devargs.watchdog_period,
340 : : &iavf_dev_watchdog, (void *)adapter))
341 : 0 : PMD_DRV_LOG(ERR, "Failed to enable device watchdog");
342 : : }
343 : : }
344 : 0 : }
345 : :
346 : : void
347 : 0 : iavf_dev_watchdog_disable(struct iavf_adapter *adapter)
348 : : {
349 [ # # ]: 0 : if (!adapter->devargs.watchdog_period) {
350 : 0 : PMD_DRV_LOG(INFO, "Device watchdog is not enabled");
351 : : } else {
352 [ # # ]: 0 : if (adapter->vf.watchdog_enabled) {
353 : 0 : PMD_DRV_LOG(INFO, "Disabling device watchdog");
354 : 0 : adapter->vf.watchdog_enabled = false;
355 : 0 : rte_eal_alarm_cancel(&iavf_dev_watchdog, (void *)adapter);
356 : : }
357 : : }
358 : 0 : }
359 : :
360 : : static int
361 : 0 : iavf_set_mc_addr_list(struct rte_eth_dev *dev,
362 : : struct rte_ether_addr *mc_addrs,
363 : : uint32_t mc_addrs_num)
364 : : {
365 : 0 : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
366 : : struct iavf_adapter *adapter =
367 : : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
368 : : int err, ret;
369 : :
370 [ # # ]: 0 : if (mc_addrs_num > IAVF_NUM_MACADDR_MAX) {
371 : 0 : PMD_DRV_LOG(ERR,
372 : : "can't add more than a limited number (%u) of addresses.",
373 : : (uint32_t)IAVF_NUM_MACADDR_MAX);
374 : 0 : return -EINVAL;
375 : : }
376 : :
377 [ # # ]: 0 : if (adapter->closed)
378 : : return -EIO;
379 : :
380 : : /* flush previous addresses */
381 : 0 : err = iavf_add_del_mc_addr_list(adapter, vf->mc_addrs, vf->mc_addrs_num,
382 : : false);
383 [ # # ]: 0 : if (err)
384 : : return err;
385 : :
386 : : /* add new ones */
387 : 0 : err = iavf_add_del_mc_addr_list(adapter, mc_addrs, mc_addrs_num, true);
388 : :
389 [ # # ]: 0 : if (err) {
390 : : /* if adding mac address list fails, should add the previous
391 : : * addresses back.
392 : : */
393 : 0 : ret = iavf_add_del_mc_addr_list(adapter, vf->mc_addrs,
394 : 0 : vf->mc_addrs_num, true);
395 [ # # ]: 0 : if (ret)
396 : 0 : return ret;
397 : : } else {
398 : 0 : vf->mc_addrs_num = mc_addrs_num;
399 : 0 : memcpy(vf->mc_addrs,
400 : : mc_addrs, mc_addrs_num * sizeof(*mc_addrs));
401 : : }
402 : :
403 : : return err;
404 : : }
405 : :
406 : : static void
407 : 0 : iavf_config_rss_hf(struct iavf_adapter *adapter, uint64_t rss_hf)
408 : : {
409 : : static const uint64_t map_hena_rss[] = {
410 : : /* IPv4 */
411 : : [IAVF_FILTER_PCTYPE_NONF_UNICAST_IPV4_UDP] =
412 : : RTE_ETH_RSS_NONFRAG_IPV4_UDP,
413 : : [IAVF_FILTER_PCTYPE_NONF_MULTICAST_IPV4_UDP] =
414 : : RTE_ETH_RSS_NONFRAG_IPV4_UDP,
415 : : [IAVF_FILTER_PCTYPE_NONF_IPV4_UDP] =
416 : : RTE_ETH_RSS_NONFRAG_IPV4_UDP,
417 : : [IAVF_FILTER_PCTYPE_NONF_IPV4_TCP_SYN_NO_ACK] =
418 : : RTE_ETH_RSS_NONFRAG_IPV4_TCP,
419 : : [IAVF_FILTER_PCTYPE_NONF_IPV4_TCP] =
420 : : RTE_ETH_RSS_NONFRAG_IPV4_TCP,
421 : : [IAVF_FILTER_PCTYPE_NONF_IPV4_SCTP] =
422 : : RTE_ETH_RSS_NONFRAG_IPV4_SCTP,
423 : : [IAVF_FILTER_PCTYPE_NONF_IPV4_OTHER] =
424 : : RTE_ETH_RSS_NONFRAG_IPV4_OTHER,
425 : : [IAVF_FILTER_PCTYPE_FRAG_IPV4] = RTE_ETH_RSS_FRAG_IPV4,
426 : :
427 : : /* IPv6 */
428 : : [IAVF_FILTER_PCTYPE_NONF_UNICAST_IPV6_UDP] =
429 : : RTE_ETH_RSS_NONFRAG_IPV6_UDP,
430 : : [IAVF_FILTER_PCTYPE_NONF_MULTICAST_IPV6_UDP] =
431 : : RTE_ETH_RSS_NONFRAG_IPV6_UDP,
432 : : [IAVF_FILTER_PCTYPE_NONF_IPV6_UDP] =
433 : : RTE_ETH_RSS_NONFRAG_IPV6_UDP,
434 : : [IAVF_FILTER_PCTYPE_NONF_IPV6_TCP_SYN_NO_ACK] =
435 : : RTE_ETH_RSS_NONFRAG_IPV6_TCP,
436 : : [IAVF_FILTER_PCTYPE_NONF_IPV6_TCP] =
437 : : RTE_ETH_RSS_NONFRAG_IPV6_TCP,
438 : : [IAVF_FILTER_PCTYPE_NONF_IPV6_SCTP] =
439 : : RTE_ETH_RSS_NONFRAG_IPV6_SCTP,
440 : : [IAVF_FILTER_PCTYPE_NONF_IPV6_OTHER] =
441 : : RTE_ETH_RSS_NONFRAG_IPV6_OTHER,
442 : : [IAVF_FILTER_PCTYPE_FRAG_IPV6] = RTE_ETH_RSS_FRAG_IPV6,
443 : :
444 : : /* L2 Payload */
445 : : [IAVF_FILTER_PCTYPE_L2_PAYLOAD] = RTE_ETH_RSS_L2_PAYLOAD
446 : : };
447 : :
448 : : const uint64_t ipv4_rss = RTE_ETH_RSS_NONFRAG_IPV4_UDP |
449 : : RTE_ETH_RSS_NONFRAG_IPV4_TCP |
450 : : RTE_ETH_RSS_NONFRAG_IPV4_SCTP |
451 : : RTE_ETH_RSS_NONFRAG_IPV4_OTHER |
452 : : RTE_ETH_RSS_FRAG_IPV4;
453 : :
454 : : const uint64_t ipv6_rss = RTE_ETH_RSS_NONFRAG_IPV6_UDP |
455 : : RTE_ETH_RSS_NONFRAG_IPV6_TCP |
456 : : RTE_ETH_RSS_NONFRAG_IPV6_SCTP |
457 : : RTE_ETH_RSS_NONFRAG_IPV6_OTHER |
458 : : RTE_ETH_RSS_FRAG_IPV6;
459 : :
460 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
461 : 0 : uint64_t caps = 0, hena = 0, valid_rss_hf = 0;
462 : : uint32_t i;
463 : : int ret;
464 : :
465 : 0 : ret = iavf_get_hena_caps(adapter, &caps);
466 [ # # ]: 0 : if (ret) {
467 : : /**
468 : : * RSS offload type configuration is not a necessary feature
469 : : * for VF, so here just print a warning and return.
470 : : */
471 : 0 : PMD_DRV_LOG(WARNING,
472 : : "fail to get RSS offload type caps, ret: %d", ret);
473 : 0 : return;
474 : : }
475 : :
476 : : /**
477 : : * RTE_ETH_RSS_IPV4 and RTE_ETH_RSS_IPV6 can be considered as 2
478 : : * generalizations of all other IPv4 and IPv6 RSS types.
479 : : */
480 [ # # ]: 0 : if (rss_hf & RTE_ETH_RSS_IPV4)
481 : 0 : rss_hf |= ipv4_rss;
482 : :
483 [ # # ]: 0 : if (rss_hf & RTE_ETH_RSS_IPV6)
484 : 0 : rss_hf |= ipv6_rss;
485 : :
486 : : RTE_BUILD_BUG_ON(RTE_DIM(map_hena_rss) > sizeof(uint64_t) * CHAR_BIT);
487 : :
488 [ # # ]: 0 : for (i = 0; i < RTE_DIM(map_hena_rss); i++) {
489 : 0 : uint64_t bit = BIT_ULL(i);
490 : :
491 [ # # # # ]: 0 : if ((caps & bit) && (map_hena_rss[i] & rss_hf)) {
492 : 0 : valid_rss_hf |= map_hena_rss[i];
493 : 0 : hena |= bit;
494 : : }
495 : : }
496 : :
497 : 0 : ret = iavf_set_hena(adapter, hena);
498 [ # # ]: 0 : if (ret) {
499 : : /**
500 : : * RSS offload type configuration is not a necessary feature
501 : : * for VF, so here just print a warning and return.
502 : : */
503 : 0 : PMD_DRV_LOG(WARNING,
504 : : "fail to set RSS offload types, ret: %d", ret);
505 : 0 : return;
506 : : }
507 : :
508 [ # # ]: 0 : if (valid_rss_hf & ipv4_rss)
509 : 0 : valid_rss_hf |= rss_hf & RTE_ETH_RSS_IPV4;
510 : :
511 [ # # ]: 0 : if (valid_rss_hf & ipv6_rss)
512 : 0 : valid_rss_hf |= rss_hf & RTE_ETH_RSS_IPV6;
513 : :
514 [ # # ]: 0 : if (rss_hf & ~valid_rss_hf)
515 : 0 : PMD_DRV_LOG(WARNING, "Unsupported rss_hf 0x%" PRIx64,
516 : : rss_hf & ~valid_rss_hf);
517 : :
518 : 0 : vf->rss_hf = valid_rss_hf;
519 : : }
520 : :
521 : : static int
522 : 0 : iavf_init_rss(struct iavf_adapter *adapter)
523 : : {
524 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
525 : : struct rte_eth_rss_conf *rss_conf;
526 : : uint16_t i, j, nb_q;
527 : : int ret;
528 : :
529 : 0 : rss_conf = &adapter->dev_data->dev_conf.rx_adv_conf.rss_conf;
530 : 0 : nb_q = RTE_MIN(adapter->dev_data->nb_rx_queues,
531 : : vf->max_rss_qregion);
532 : :
533 [ # # ]: 0 : if (!(vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_RSS_PF)) {
534 : 0 : PMD_DRV_LOG(DEBUG, "RSS is not supported");
535 : 0 : return -ENOTSUP;
536 : : }
537 : :
538 : : /* configure RSS key */
539 [ # # ]: 0 : if (!rss_conf->rss_key) {
540 : : /* Calculate the default hash key */
541 [ # # ]: 0 : for (i = 0; i < vf->vf_res->rss_key_size; i++)
542 : 0 : vf->rss_key[i] = (uint8_t)rte_rand();
543 : : } else
544 : 0 : rte_memcpy(vf->rss_key, rss_conf->rss_key,
545 [ # # ]: 0 : RTE_MIN(rss_conf->rss_key_len,
546 : : vf->vf_res->rss_key_size));
547 : :
548 : : /* init RSS LUT table */
549 [ # # ]: 0 : for (i = 0, j = 0; i < vf->vf_res->rss_lut_size; i++, j++) {
550 [ # # ]: 0 : if (j >= nb_q)
551 : : j = 0;
552 : 0 : vf->rss_lut[i] = j;
553 : : }
554 : : /* send virtchnl ops to configure RSS */
555 : 0 : ret = iavf_configure_rss_lut(adapter);
556 [ # # ]: 0 : if (ret)
557 : : return ret;
558 : 0 : ret = iavf_configure_rss_key(adapter);
559 [ # # ]: 0 : if (ret)
560 : : return ret;
561 : :
562 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_ADV_RSS_PF) {
563 : : /* Set RSS hash configuration based on rss_conf->rss_hf. */
564 : 0 : ret = iavf_rss_hash_set(adapter, rss_conf->rss_hf, true);
565 [ # # ]: 0 : if (ret) {
566 : 0 : PMD_DRV_LOG(ERR, "fail to set default RSS");
567 : 0 : return ret;
568 : : }
569 : : } else {
570 : 0 : iavf_config_rss_hf(adapter, rss_conf->rss_hf);
571 : : }
572 : :
573 : : return 0;
574 : : }
575 : :
576 : : static int
577 : 0 : iavf_queues_req_reset(struct rte_eth_dev *dev, uint16_t num)
578 : : {
579 : 0 : struct iavf_adapter *ad =
580 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
581 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(ad);
582 : : int ret;
583 : :
584 : 0 : ret = iavf_request_queues(dev, num);
585 [ # # ]: 0 : if (ret) {
586 : 0 : PMD_DRV_LOG(ERR, "request queues from PF failed");
587 : 0 : return ret;
588 : : }
589 : 0 : PMD_DRV_LOG(INFO, "change queue pairs from %u to %u",
590 : : vf->vsi_res->num_queue_pairs, num);
591 : :
592 : 0 : iavf_dev_watchdog_disable(ad);
593 : 0 : ret = iavf_dev_reset(dev);
594 [ # # ]: 0 : if (ret) {
595 : 0 : PMD_DRV_LOG(ERR, "vf reset failed");
596 : 0 : return ret;
597 : : }
598 : :
599 : : return 0;
600 : : }
601 : :
602 : : static int
603 : 0 : iavf_dev_vlan_insert_set(struct rte_eth_dev *dev)
604 : : {
605 : 0 : struct iavf_adapter *adapter =
606 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
607 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
608 : : bool enable;
609 : :
610 [ # # ]: 0 : if (!(vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_VLAN_V2))
611 : : return 0;
612 : :
613 : 0 : enable = !!(dev->data->dev_conf.txmode.offloads &
614 : : RTE_ETH_TX_OFFLOAD_VLAN_INSERT);
615 : 0 : iavf_config_vlan_insert_v2(adapter, enable);
616 : :
617 : 0 : return 0;
618 : : }
619 : :
620 : : static int
621 : 0 : iavf_dev_init_vlan(struct rte_eth_dev *dev)
622 : : {
623 : : int err;
624 : :
625 : 0 : err = iavf_dev_vlan_offload_set(dev,
626 : : RTE_ETH_VLAN_STRIP_MASK |
627 : : RTE_ETH_QINQ_STRIP_MASK |
628 : : RTE_ETH_VLAN_FILTER_MASK |
629 : : RTE_ETH_VLAN_EXTEND_MASK);
630 [ # # ]: 0 : if (err) {
631 : 0 : PMD_DRV_LOG(ERR, "Failed to update vlan offload");
632 : 0 : return err;
633 : : }
634 : :
635 : 0 : err = iavf_dev_vlan_insert_set(dev);
636 [ # # ]: 0 : if (err)
637 : 0 : PMD_DRV_LOG(ERR, "Failed to update vlan insertion");
638 : :
639 : : return err;
640 : : }
641 : :
642 : : static int
643 : 0 : iavf_dev_configure(struct rte_eth_dev *dev)
644 : : {
645 : 0 : struct iavf_adapter *ad =
646 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
647 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(ad);
648 : 0 : uint16_t num_queue_pairs = RTE_MAX(dev->data->nb_rx_queues,
649 : : dev->data->nb_tx_queues);
650 : : int ret;
651 : :
652 [ # # ]: 0 : if (ad->closed)
653 : : return -EIO;
654 : :
655 : 0 : ad->rx_bulk_alloc_allowed = true;
656 : : /* Initialize to TRUE. If any of Rx queues doesn't meet the
657 : : * vector Rx/Tx preconditions, it will be reset.
658 : : */
659 : 0 : ad->rx_vec_allowed = true;
660 : 0 : ad->tx_vec_allowed = true;
661 : :
662 [ # # ]: 0 : if (dev->data->dev_conf.rxmode.mq_mode & RTE_ETH_MQ_RX_RSS_FLAG)
663 : 0 : dev->data->dev_conf.rxmode.offloads |= RTE_ETH_RX_OFFLOAD_RSS_HASH;
664 : :
665 : : /* Large VF setting */
666 [ # # ]: 0 : if (num_queue_pairs > IAVF_MAX_NUM_QUEUES_DFLT) {
667 [ # # ]: 0 : if (!(vf->vf_res->vf_cap_flags &
668 : : VIRTCHNL_VF_LARGE_NUM_QPAIRS)) {
669 : 0 : PMD_DRV_LOG(ERR, "large VF is not supported");
670 : 0 : return -1;
671 : : }
672 : :
673 [ # # ]: 0 : if (num_queue_pairs > IAVF_MAX_NUM_QUEUES_LV) {
674 : 0 : PMD_DRV_LOG(ERR, "queue pairs number cannot be larger than %u",
675 : : IAVF_MAX_NUM_QUEUES_LV);
676 : 0 : return -1;
677 : : }
678 : :
679 : 0 : ret = iavf_queues_req_reset(dev, num_queue_pairs);
680 [ # # ]: 0 : if (ret)
681 : : return ret;
682 : :
683 : 0 : ret = iavf_get_max_rss_queue_region(ad);
684 [ # # ]: 0 : if (ret) {
685 : 0 : PMD_INIT_LOG(ERR, "get max rss queue region failed");
686 : 0 : return ret;
687 : : }
688 : :
689 : 0 : vf->lv_enabled = true;
690 : : } else {
691 : : /* Check if large VF is already enabled. If so, disable and
692 : : * release redundant queue resource.
693 : : * Or check if enough queue pairs. If not, request them from PF.
694 : : */
695 [ # # ]: 0 : if (vf->lv_enabled ||
696 [ # # ]: 0 : num_queue_pairs > vf->vsi_res->num_queue_pairs) {
697 : 0 : ret = iavf_queues_req_reset(dev, num_queue_pairs);
698 [ # # ]: 0 : if (ret)
699 : : return ret;
700 : :
701 : 0 : vf->lv_enabled = false;
702 : : }
703 : : /* if large VF is not required, use default rss queue region */
704 : 0 : vf->max_rss_qregion = IAVF_MAX_NUM_QUEUES_DFLT;
705 : : }
706 : :
707 : 0 : ret = iavf_dev_init_vlan(dev);
708 [ # # ]: 0 : if (ret)
709 : 0 : PMD_DRV_LOG(ERR, "configure VLAN failed: %d", ret);
710 : :
711 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_RSS_PF) {
712 [ # # ]: 0 : if (iavf_init_rss(ad) != 0) {
713 : 0 : PMD_DRV_LOG(ERR, "configure rss failed");
714 : 0 : return -1;
715 : : }
716 : : }
717 : : return 0;
718 : : }
719 : :
720 : : static int
721 : 0 : iavf_init_rxq(struct rte_eth_dev *dev, struct iavf_rx_queue *rxq)
722 : : {
723 : 0 : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(dev->data->dev_private);
724 : : struct rte_eth_dev_data *dev_data = dev->data;
725 : : uint16_t buf_size, max_pkt_len;
726 : 0 : uint32_t frame_size = dev->data->mtu + IAVF_ETH_OVERHEAD;
727 : : enum iavf_status err;
728 : :
729 [ # # ]: 0 : buf_size = rte_pktmbuf_data_room_size(rxq->mp) - RTE_PKTMBUF_HEADROOM;
730 : :
731 : : /* Calculate the maximum packet length allowed */
732 : 0 : max_pkt_len = RTE_MIN((uint32_t)
733 : : rxq->rx_buf_len * IAVF_MAX_CHAINED_RX_BUFFERS,
734 : : frame_size);
735 : :
736 : : /* Check if maximum packet length is set correctly. */
737 [ # # ]: 0 : if (max_pkt_len <= RTE_ETHER_MIN_LEN ||
738 : : max_pkt_len > IAVF_FRAME_SIZE_MAX) {
739 : 0 : PMD_DRV_LOG(ERR, "maximum packet length must be "
740 : : "larger than %u and smaller than %u",
741 : : (uint32_t)IAVF_ETH_MAX_LEN,
742 : : (uint32_t)IAVF_FRAME_SIZE_MAX);
743 : 0 : return -EINVAL;
744 : : }
745 : :
746 [ # # ]: 0 : if (rxq->offloads & RTE_ETH_RX_OFFLOAD_TIMESTAMP) {
747 : : /* Register mbuf field and flag for Rx timestamp */
748 : 0 : err = rte_mbuf_dyn_rx_timestamp_register(
749 : : &iavf_timestamp_dynfield_offset,
750 : : &iavf_timestamp_dynflag);
751 [ # # ]: 0 : if (err) {
752 : 0 : PMD_DRV_LOG(ERR,
753 : : "Cannot register mbuf field/flag for timestamp");
754 : 0 : return -EINVAL;
755 : : }
756 : : }
757 : :
758 : 0 : rxq->max_pkt_len = max_pkt_len;
759 [ # # # # ]: 0 : if ((dev_data->dev_conf.rxmode.offloads & RTE_ETH_RX_OFFLOAD_SCATTER) ||
760 : : rxq->max_pkt_len > buf_size) {
761 : 0 : dev_data->scattered_rx = 1;
762 : : }
763 : 0 : IAVF_PCI_REG_WRITE(rxq->qrx_tail, rxq->nb_rx_desc - 1);
764 : 0 : IAVF_WRITE_FLUSH(hw);
765 : :
766 : 0 : return 0;
767 : : }
768 : :
769 : : static int
770 : 0 : iavf_init_queues(struct rte_eth_dev *dev)
771 : : {
772 : 0 : struct iavf_rx_queue **rxq =
773 : 0 : (struct iavf_rx_queue **)dev->data->rx_queues;
774 : : int i, ret = IAVF_SUCCESS;
775 : :
776 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
777 [ # # # # ]: 0 : if (!rxq[i] || !rxq[i]->q_set)
778 : 0 : continue;
779 : 0 : ret = iavf_init_rxq(dev, rxq[i]);
780 [ # # ]: 0 : if (ret != IAVF_SUCCESS)
781 : : break;
782 : : }
783 : : /* set rx/tx function to vector/scatter/single-segment
784 : : * according to parameters
785 : : */
786 : 0 : iavf_set_rx_function(dev);
787 : 0 : iavf_set_tx_function(dev);
788 : :
789 : 0 : return ret;
790 : : }
791 : :
792 : 0 : static int iavf_config_rx_queues_irqs(struct rte_eth_dev *dev,
793 : : struct rte_intr_handle *intr_handle)
794 : : {
795 : 0 : struct iavf_adapter *adapter =
796 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
797 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
798 : : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(adapter);
799 : : struct iavf_qv_map *qv_map;
800 : : uint16_t interval, i;
801 : : int vec;
802 : :
803 [ # # ]: 0 : if (rte_intr_cap_multiple(intr_handle) &&
804 [ # # ]: 0 : dev->data->dev_conf.intr_conf.rxq) {
805 [ # # ]: 0 : if (rte_intr_efd_enable(intr_handle, dev->data->nb_rx_queues))
806 : : return -1;
807 : : }
808 : :
809 [ # # ]: 0 : if (rte_intr_dp_is_en(intr_handle)) {
810 [ # # ]: 0 : if (rte_intr_vec_list_alloc(intr_handle, "intr_vec",
811 : 0 : dev->data->nb_rx_queues)) {
812 : 0 : PMD_DRV_LOG(ERR, "Failed to allocate %d rx intr_vec",
813 : : dev->data->nb_rx_queues);
814 : 0 : return -1;
815 : : }
816 : : }
817 : :
818 : :
819 : 0 : qv_map = rte_zmalloc("qv_map",
820 : 0 : dev->data->nb_rx_queues * sizeof(struct iavf_qv_map), 0);
821 [ # # ]: 0 : if (!qv_map) {
822 : 0 : PMD_DRV_LOG(ERR, "Failed to allocate %d queue-vector map",
823 : : dev->data->nb_rx_queues);
824 : 0 : goto qv_map_alloc_err;
825 : : }
826 : :
827 [ # # # # ]: 0 : if (!dev->data->dev_conf.intr_conf.rxq ||
828 : 0 : !rte_intr_dp_is_en(intr_handle)) {
829 : : /* Rx interrupt disabled, Map interrupt only for writeback */
830 : 0 : vf->nb_msix = 1;
831 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags &
832 : : VIRTCHNL_VF_OFFLOAD_WB_ON_ITR) {
833 : : /* If WB_ON_ITR supports, enable it */
834 : 0 : vf->msix_base = IAVF_RX_VEC_START;
835 : : /* Set the ITR for index zero, to 2us to make sure that
836 : : * we leave time for aggregation to occur, but don't
837 : : * increase latency dramatically.
838 : : */
839 : 0 : IAVF_WRITE_REG(hw,
840 : : IAVF_VFINT_DYN_CTLN1(vf->msix_base - 1),
841 : : (0 << IAVF_VFINT_DYN_CTLN1_ITR_INDX_SHIFT) |
842 : : IAVF_VFINT_DYN_CTLN1_WB_ON_ITR_MASK |
843 : : (2UL << IAVF_VFINT_DYN_CTLN1_INTERVAL_SHIFT));
844 : : /* debug - check for success! the return value
845 : : * should be 2, offset is 0x2800
846 : : */
847 : : /* IAVF_READ_REG(hw, IAVF_VFINT_ITRN1(0, 0)); */
848 : : } else {
849 : : /* If no WB_ON_ITR offload flags, need to set
850 : : * interrupt for descriptor write back.
851 : : */
852 : 0 : vf->msix_base = IAVF_MISC_VEC_ID;
853 : :
854 : : /* set ITR to default */
855 : : interval = iavf_calc_itr_interval(
856 : : IAVF_QUEUE_ITR_INTERVAL_DEFAULT);
857 : 0 : IAVF_WRITE_REG(hw, IAVF_VFINT_DYN_CTL01,
858 : : IAVF_VFINT_DYN_CTL01_INTENA_MASK |
859 : : (IAVF_ITR_INDEX_DEFAULT <<
860 : : IAVF_VFINT_DYN_CTL01_ITR_INDX_SHIFT) |
861 : : (interval <<
862 : : IAVF_VFINT_DYN_CTL01_INTERVAL_SHIFT));
863 : : }
864 : 0 : IAVF_WRITE_FLUSH(hw);
865 : : /* map all queues to the same interrupt */
866 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
867 : 0 : qv_map[i].queue_id = i;
868 : 0 : qv_map[i].vector_id = vf->msix_base;
869 : : }
870 : 0 : vf->qv_map = qv_map;
871 : : } else {
872 [ # # ]: 0 : if (!rte_intr_allow_others(intr_handle)) {
873 : 0 : vf->nb_msix = 1;
874 : 0 : vf->msix_base = IAVF_MISC_VEC_ID;
875 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
876 : 0 : qv_map[i].queue_id = i;
877 : 0 : qv_map[i].vector_id = vf->msix_base;
878 : 0 : rte_intr_vec_list_index_set(intr_handle,
879 : : i, IAVF_MISC_VEC_ID);
880 : : }
881 : 0 : vf->qv_map = qv_map;
882 : 0 : PMD_DRV_LOG(DEBUG,
883 : : "vector %u are mapping to all Rx queues",
884 : : vf->msix_base);
885 : : } else {
886 : : /* If Rx interrupt is required, and we can use
887 : : * multi interrupts, then the vec is from 1
888 : : */
889 : 0 : vf->nb_msix =
890 : 0 : RTE_MIN(rte_intr_nb_efd_get(intr_handle),
891 : : (uint16_t)(vf->vf_res->max_vectors - 1));
892 : 0 : vf->msix_base = IAVF_RX_VEC_START;
893 : : vec = IAVF_RX_VEC_START;
894 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
895 : 0 : qv_map[i].queue_id = i;
896 : 0 : qv_map[i].vector_id = vec;
897 : 0 : rte_intr_vec_list_index_set(intr_handle,
898 : : i, vec++);
899 [ # # ]: 0 : if (vec >= vf->nb_msix + IAVF_RX_VEC_START)
900 : : vec = IAVF_RX_VEC_START;
901 : : }
902 : 0 : vf->qv_map = qv_map;
903 : 0 : PMD_DRV_LOG(DEBUG,
904 : : "%u vectors are mapping to %u Rx queues",
905 : : vf->nb_msix, dev->data->nb_rx_queues);
906 : : }
907 : : }
908 : :
909 [ # # ]: 0 : if (!vf->lv_enabled) {
910 [ # # ]: 0 : if (iavf_config_irq_map(adapter)) {
911 : 0 : PMD_DRV_LOG(ERR, "config interrupt mapping failed");
912 : 0 : goto config_irq_map_err;
913 : : }
914 : : } else {
915 : 0 : uint16_t num_qv_maps = dev->data->nb_rx_queues;
916 : : uint16_t index = 0;
917 : :
918 [ # # ]: 0 : while (num_qv_maps > IAVF_IRQ_MAP_NUM_PER_BUF) {
919 [ # # ]: 0 : if (iavf_config_irq_map_lv(adapter,
920 : : IAVF_IRQ_MAP_NUM_PER_BUF, index)) {
921 : 0 : PMD_DRV_LOG(ERR, "config interrupt mapping for large VF failed");
922 : 0 : goto config_irq_map_err;
923 : : }
924 : 0 : num_qv_maps -= IAVF_IRQ_MAP_NUM_PER_BUF;
925 : 0 : index += IAVF_IRQ_MAP_NUM_PER_BUF;
926 : : }
927 : :
928 [ # # ]: 0 : if (iavf_config_irq_map_lv(adapter, num_qv_maps, index)) {
929 : 0 : PMD_DRV_LOG(ERR, "config interrupt mapping for large VF failed");
930 : 0 : goto config_irq_map_err;
931 : : }
932 : : }
933 : : return 0;
934 : :
935 : 0 : config_irq_map_err:
936 : 0 : rte_free(vf->qv_map);
937 : 0 : vf->qv_map = NULL;
938 : :
939 : 0 : qv_map_alloc_err:
940 : 0 : rte_intr_vec_list_free(intr_handle);
941 : :
942 : 0 : return -1;
943 : : }
944 : :
945 : : static int
946 : 0 : iavf_start_queues(struct rte_eth_dev *dev)
947 : : {
948 : : struct iavf_rx_queue *rxq;
949 : : struct iavf_tx_queue *txq;
950 : : int i;
951 : : uint16_t nb_txq, nb_rxq;
952 : :
953 [ # # ]: 0 : for (nb_txq = 0; nb_txq < dev->data->nb_tx_queues; nb_txq++) {
954 : 0 : txq = dev->data->tx_queues[nb_txq];
955 [ # # ]: 0 : if (txq->tx_deferred_start)
956 : 0 : continue;
957 [ # # ]: 0 : if (iavf_dev_tx_queue_start(dev, nb_txq) != 0) {
958 : 0 : PMD_DRV_LOG(ERR, "Fail to start tx queue %u", nb_txq);
959 : 0 : goto tx_err;
960 : : }
961 : : }
962 : :
963 [ # # ]: 0 : for (nb_rxq = 0; nb_rxq < dev->data->nb_rx_queues; nb_rxq++) {
964 : 0 : rxq = dev->data->rx_queues[nb_rxq];
965 [ # # ]: 0 : if (rxq->rx_deferred_start)
966 : 0 : continue;
967 [ # # ]: 0 : if (iavf_dev_rx_queue_start(dev, nb_rxq) != 0) {
968 : 0 : PMD_DRV_LOG(ERR, "Fail to start rx queue %u", nb_rxq);
969 : 0 : goto rx_err;
970 : : }
971 : : }
972 : :
973 : : return 0;
974 : :
975 : : rx_err:
976 [ # # ]: 0 : for (i = 0; i < nb_rxq; i++)
977 : 0 : iavf_dev_rx_queue_stop(dev, i);
978 : 0 : tx_err:
979 [ # # ]: 0 : for (i = 0; i < nb_txq; i++)
980 : 0 : iavf_dev_tx_queue_stop(dev, i);
981 : :
982 : : return -1;
983 : : }
984 : :
985 : : static int
986 : 0 : iavf_dev_start(struct rte_eth_dev *dev)
987 : : {
988 : 0 : struct iavf_adapter *adapter =
989 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
990 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
991 : 0 : struct rte_intr_handle *intr_handle = dev->intr_handle;
992 : : uint16_t num_queue_pairs;
993 : : uint16_t index = 0;
994 : :
995 : 0 : PMD_INIT_FUNC_TRACE();
996 : :
997 [ # # ]: 0 : if (adapter->closed)
998 : : return -1;
999 : :
1000 : 0 : adapter->stopped = 0;
1001 : :
1002 : 0 : vf->max_pkt_len = dev->data->mtu + IAVF_ETH_OVERHEAD;
1003 : 0 : vf->num_queue_pairs = RTE_MAX(dev->data->nb_rx_queues,
1004 : : dev->data->nb_tx_queues);
1005 : : num_queue_pairs = vf->num_queue_pairs;
1006 : :
1007 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_QOS)
1008 [ # # ]: 0 : if (iavf_get_qos_cap(adapter)) {
1009 : 0 : PMD_INIT_LOG(ERR, "Failed to get qos capability");
1010 : 0 : return -1;
1011 : : }
1012 : :
1013 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_CAP_PTP) {
1014 [ # # ]: 0 : if (iavf_get_ptp_cap(adapter)) {
1015 : 0 : PMD_INIT_LOG(ERR, "Failed to get ptp capability");
1016 : 0 : return -1;
1017 : : }
1018 : : }
1019 : :
1020 [ # # ]: 0 : if (iavf_init_queues(dev) != 0) {
1021 : 0 : PMD_DRV_LOG(ERR, "failed to do Queue init");
1022 : 0 : return -1;
1023 : : }
1024 : :
1025 [ # # ]: 0 : if (iavf_set_vf_quanta_size(adapter, index, num_queue_pairs) != 0)
1026 : 0 : PMD_DRV_LOG(WARNING, "configure quanta size failed");
1027 : :
1028 : : /* If needed, send configure queues msg multiple times to make the
1029 : : * adminq buffer length smaller than the 4K limitation.
1030 : : */
1031 [ # # ]: 0 : while (num_queue_pairs > IAVF_CFG_Q_NUM_PER_BUF) {
1032 [ # # ]: 0 : if (iavf_configure_queues(adapter,
1033 : : IAVF_CFG_Q_NUM_PER_BUF, index) != 0) {
1034 : 0 : PMD_DRV_LOG(ERR, "configure queues failed");
1035 : 0 : goto err_queue;
1036 : : }
1037 : 0 : num_queue_pairs -= IAVF_CFG_Q_NUM_PER_BUF;
1038 : 0 : index += IAVF_CFG_Q_NUM_PER_BUF;
1039 : : }
1040 : :
1041 [ # # ]: 0 : if (iavf_configure_queues(adapter, num_queue_pairs, index) != 0) {
1042 : 0 : PMD_DRV_LOG(ERR, "configure queues failed");
1043 : 0 : goto err_queue;
1044 : : }
1045 : :
1046 [ # # ]: 0 : if (iavf_config_rx_queues_irqs(dev, intr_handle) != 0) {
1047 : 0 : PMD_DRV_LOG(ERR, "configure irq failed");
1048 : 0 : goto err_queue;
1049 : : }
1050 : : /* re-enable intr again, because efd assign may change */
1051 [ # # ]: 0 : if (dev->data->dev_conf.intr_conf.rxq != 0) {
1052 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_WB_ON_ITR)
1053 : 0 : rte_intr_disable(intr_handle);
1054 : 0 : rte_intr_enable(intr_handle);
1055 : : }
1056 : :
1057 : : /* Set all mac addrs */
1058 : 0 : iavf_add_del_all_mac_addr(adapter, true);
1059 : :
1060 : : /* Set all multicast addresses */
1061 : 0 : iavf_add_del_mc_addr_list(adapter, vf->mc_addrs, vf->mc_addrs_num,
1062 : : true);
1063 : :
1064 : : rte_spinlock_init(&vf->phc_time_aq_lock);
1065 : :
1066 [ # # ]: 0 : if (iavf_start_queues(dev) != 0) {
1067 : 0 : PMD_DRV_LOG(ERR, "enable queues failed");
1068 : 0 : goto err_mac;
1069 : : }
1070 : :
1071 : : return 0;
1072 : :
1073 : : err_mac:
1074 : 0 : iavf_add_del_all_mac_addr(adapter, false);
1075 : : err_queue:
1076 : : return -1;
1077 : : }
1078 : :
1079 : : static int
1080 : 0 : iavf_dev_stop(struct rte_eth_dev *dev)
1081 : : {
1082 : 0 : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
1083 : : struct iavf_adapter *adapter =
1084 : : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1085 : 0 : struct rte_intr_handle *intr_handle = dev->intr_handle;
1086 : :
1087 : 0 : PMD_INIT_FUNC_TRACE();
1088 : :
1089 [ # # ]: 0 : if (vf->vf_reset)
1090 : : return 0;
1091 : :
1092 [ # # ]: 0 : if (adapter->closed)
1093 : : return -1;
1094 : :
1095 [ # # ]: 0 : if (!(vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_WB_ON_ITR) &&
1096 [ # # ]: 0 : dev->data->dev_conf.intr_conf.rxq != 0)
1097 : 0 : rte_intr_disable(intr_handle);
1098 : :
1099 [ # # ]: 0 : if (adapter->stopped == 1)
1100 : : return 0;
1101 : :
1102 : : /* Disable the interrupt for Rx */
1103 : 0 : rte_intr_efd_disable(intr_handle);
1104 : : /* Rx interrupt vector mapping free */
1105 : 0 : rte_intr_vec_list_free(intr_handle);
1106 : :
1107 : : /* adminq will be disabled when vf is resetting. */
1108 [ # # ]: 0 : if (!vf->in_reset_recovery) {
1109 : : /* remove all mac addrs */
1110 : 0 : iavf_add_del_all_mac_addr(adapter, false);
1111 : :
1112 : : /* remove all multicast addresses */
1113 : 0 : iavf_add_del_mc_addr_list(adapter, vf->mc_addrs, vf->mc_addrs_num,
1114 : : false);
1115 : : }
1116 : :
1117 : 0 : iavf_stop_queues(dev);
1118 : :
1119 : 0 : adapter->stopped = 1;
1120 : 0 : dev->data->dev_started = 0;
1121 : :
1122 : 0 : return 0;
1123 : : }
1124 : :
1125 : : static int
1126 : 0 : iavf_dev_info_get(struct rte_eth_dev *dev, struct rte_eth_dev_info *dev_info)
1127 : : {
1128 : 0 : struct iavf_adapter *adapter =
1129 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1130 : : struct iavf_info *vf = &adapter->vf;
1131 : :
1132 [ # # ]: 0 : if (adapter->closed)
1133 : : return -EIO;
1134 : :
1135 : 0 : dev_info->max_rx_queues = IAVF_MAX_NUM_QUEUES_LV;
1136 : 0 : dev_info->max_tx_queues = IAVF_MAX_NUM_QUEUES_LV;
1137 : 0 : dev_info->min_rx_bufsize = IAVF_BUF_SIZE_MIN;
1138 : 0 : dev_info->max_rx_pktlen = IAVF_FRAME_SIZE_MAX;
1139 : 0 : dev_info->max_mtu = dev_info->max_rx_pktlen - IAVF_ETH_OVERHEAD;
1140 : 0 : dev_info->min_mtu = RTE_ETHER_MIN_MTU;
1141 : 0 : dev_info->hash_key_size = vf->vf_res->rss_key_size;
1142 : 0 : dev_info->reta_size = vf->vf_res->rss_lut_size;
1143 : 0 : dev_info->flow_type_rss_offloads = IAVF_RSS_OFFLOAD_ALL;
1144 : 0 : dev_info->max_mac_addrs = IAVF_NUM_MACADDR_MAX;
1145 : 0 : dev_info->dev_capa =
1146 : : RTE_ETH_DEV_CAPA_RUNTIME_RX_QUEUE_SETUP |
1147 : : RTE_ETH_DEV_CAPA_RUNTIME_TX_QUEUE_SETUP;
1148 : 0 : dev_info->rx_offload_capa =
1149 : : RTE_ETH_RX_OFFLOAD_VLAN_STRIP |
1150 : : RTE_ETH_RX_OFFLOAD_QINQ_STRIP |
1151 : : RTE_ETH_RX_OFFLOAD_IPV4_CKSUM |
1152 : : RTE_ETH_RX_OFFLOAD_UDP_CKSUM |
1153 : : RTE_ETH_RX_OFFLOAD_TCP_CKSUM |
1154 : : RTE_ETH_RX_OFFLOAD_OUTER_IPV4_CKSUM |
1155 : : RTE_ETH_RX_OFFLOAD_SCATTER |
1156 : : RTE_ETH_RX_OFFLOAD_VLAN_FILTER |
1157 : : RTE_ETH_RX_OFFLOAD_VLAN_EXTEND |
1158 : : RTE_ETH_RX_OFFLOAD_RSS_HASH;
1159 : :
1160 : 0 : dev_info->tx_offload_capa =
1161 : : RTE_ETH_TX_OFFLOAD_VLAN_INSERT |
1162 : : RTE_ETH_TX_OFFLOAD_QINQ_INSERT |
1163 : : RTE_ETH_TX_OFFLOAD_IPV4_CKSUM |
1164 : : RTE_ETH_TX_OFFLOAD_UDP_CKSUM |
1165 : : RTE_ETH_TX_OFFLOAD_TCP_CKSUM |
1166 : : RTE_ETH_TX_OFFLOAD_SCTP_CKSUM |
1167 : : RTE_ETH_TX_OFFLOAD_OUTER_IPV4_CKSUM |
1168 : : RTE_ETH_TX_OFFLOAD_OUTER_UDP_CKSUM |
1169 : : RTE_ETH_TX_OFFLOAD_TCP_TSO |
1170 : : RTE_ETH_TX_OFFLOAD_VXLAN_TNL_TSO |
1171 : : RTE_ETH_TX_OFFLOAD_GRE_TNL_TSO |
1172 : : RTE_ETH_TX_OFFLOAD_IPIP_TNL_TSO |
1173 : : RTE_ETH_TX_OFFLOAD_GENEVE_TNL_TSO |
1174 : : RTE_ETH_TX_OFFLOAD_MULTI_SEGS |
1175 : : RTE_ETH_TX_OFFLOAD_MBUF_FAST_FREE;
1176 : :
1177 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_CRC)
1178 : 0 : dev_info->rx_offload_capa |= RTE_ETH_RX_OFFLOAD_KEEP_CRC;
1179 : :
1180 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_CAP_PTP)
1181 : 0 : dev_info->rx_offload_capa |= RTE_ETH_RX_OFFLOAD_TIMESTAMP;
1182 : :
1183 [ # # ]: 0 : if (iavf_ipsec_crypto_supported(adapter)) {
1184 : 0 : dev_info->rx_offload_capa |= RTE_ETH_RX_OFFLOAD_SECURITY;
1185 : 0 : dev_info->tx_offload_capa |= RTE_ETH_TX_OFFLOAD_SECURITY;
1186 : : }
1187 : :
1188 : 0 : dev_info->default_rxconf = (struct rte_eth_rxconf) {
1189 : : .rx_free_thresh = IAVF_DEFAULT_RX_FREE_THRESH,
1190 : : .rx_drop_en = 0,
1191 : : .offloads = 0,
1192 : : };
1193 : :
1194 : 0 : dev_info->default_txconf = (struct rte_eth_txconf) {
1195 : : .tx_free_thresh = IAVF_DEFAULT_TX_FREE_THRESH,
1196 : : .tx_rs_thresh = IAVF_DEFAULT_TX_RS_THRESH,
1197 : : .offloads = 0,
1198 : : };
1199 : :
1200 : 0 : dev_info->rx_desc_lim = (struct rte_eth_desc_lim) {
1201 : : .nb_max = IAVF_MAX_RING_DESC,
1202 : : .nb_min = IAVF_MIN_RING_DESC,
1203 : : .nb_align = IAVF_ALIGN_RING_DESC,
1204 : : };
1205 : :
1206 : 0 : dev_info->tx_desc_lim = (struct rte_eth_desc_lim) {
1207 : : .nb_max = IAVF_MAX_RING_DESC,
1208 : : .nb_min = IAVF_MIN_RING_DESC,
1209 : : .nb_align = IAVF_ALIGN_RING_DESC,
1210 : : .nb_mtu_seg_max = IAVF_TX_MAX_MTU_SEG,
1211 : : .nb_seg_max = IAVF_MAX_RING_DESC,
1212 : : };
1213 : :
1214 : 0 : dev_info->err_handle_mode = RTE_ETH_ERROR_HANDLE_MODE_PASSIVE;
1215 : :
1216 : 0 : return 0;
1217 : : }
1218 : :
1219 : : static const uint32_t *
1220 : 0 : iavf_dev_supported_ptypes_get(struct rte_eth_dev *dev __rte_unused)
1221 : : {
1222 : : static const uint32_t ptypes[] = {
1223 : : RTE_PTYPE_L2_ETHER,
1224 : : RTE_PTYPE_L3_IPV4_EXT_UNKNOWN,
1225 : : RTE_PTYPE_L4_FRAG,
1226 : : RTE_PTYPE_L4_ICMP,
1227 : : RTE_PTYPE_L4_NONFRAG,
1228 : : RTE_PTYPE_L4_SCTP,
1229 : : RTE_PTYPE_L4_TCP,
1230 : : RTE_PTYPE_L4_UDP,
1231 : : RTE_PTYPE_UNKNOWN
1232 : : };
1233 : 0 : return ptypes;
1234 : : }
1235 : :
1236 : : int
1237 : 0 : iavf_dev_link_update(struct rte_eth_dev *dev,
1238 : : __rte_unused int wait_to_complete)
1239 : : {
1240 : : struct rte_eth_link new_link;
1241 [ # # # # : 0 : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
# # # # #
# ]
1242 : :
1243 : : memset(&new_link, 0, sizeof(new_link));
1244 : :
1245 : : /* Only read status info stored in VF, and the info is updated
1246 : : * when receive LINK_CHANGE evnet from PF by Virtchnnl.
1247 : : */
1248 [ # # # # : 0 : switch (vf->link_speed) {
# # # # #
# ]
1249 : 0 : case 10:
1250 : 0 : new_link.link_speed = RTE_ETH_SPEED_NUM_10M;
1251 : 0 : break;
1252 : 0 : case 100:
1253 : 0 : new_link.link_speed = RTE_ETH_SPEED_NUM_100M;
1254 : 0 : break;
1255 : 0 : case 1000:
1256 : 0 : new_link.link_speed = RTE_ETH_SPEED_NUM_1G;
1257 : 0 : break;
1258 : 0 : case 10000:
1259 : 0 : new_link.link_speed = RTE_ETH_SPEED_NUM_10G;
1260 : 0 : break;
1261 : 0 : case 20000:
1262 : 0 : new_link.link_speed = RTE_ETH_SPEED_NUM_20G;
1263 : 0 : break;
1264 : 0 : case 25000:
1265 : 0 : new_link.link_speed = RTE_ETH_SPEED_NUM_25G;
1266 : 0 : break;
1267 : 0 : case 40000:
1268 : 0 : new_link.link_speed = RTE_ETH_SPEED_NUM_40G;
1269 : 0 : break;
1270 : 0 : case 50000:
1271 : 0 : new_link.link_speed = RTE_ETH_SPEED_NUM_50G;
1272 : 0 : break;
1273 : 0 : case 100000:
1274 : 0 : new_link.link_speed = RTE_ETH_SPEED_NUM_100G;
1275 : 0 : break;
1276 : : default:
1277 : : new_link.link_speed = RTE_ETH_SPEED_NUM_NONE;
1278 : : break;
1279 : : }
1280 : :
1281 : 0 : new_link.link_duplex = RTE_ETH_LINK_FULL_DUPLEX;
1282 : 0 : new_link.link_status = vf->link_up ? RTE_ETH_LINK_UP :
1283 : : RTE_ETH_LINK_DOWN;
1284 [ # # ]: 0 : new_link.link_autoneg = !(dev->data->dev_conf.link_speeds &
1285 : : RTE_ETH_LINK_SPEED_FIXED);
1286 : :
1287 : 0 : return rte_eth_linkstatus_set(dev, &new_link);
1288 : : }
1289 : :
1290 : : static int
1291 : 0 : iavf_dev_promiscuous_enable(struct rte_eth_dev *dev)
1292 : : {
1293 : 0 : struct iavf_adapter *adapter =
1294 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1295 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1296 : :
1297 : 0 : return iavf_config_promisc(adapter,
1298 : 0 : true, vf->promisc_multicast_enabled);
1299 : : }
1300 : :
1301 : : static int
1302 : 0 : iavf_dev_promiscuous_disable(struct rte_eth_dev *dev)
1303 : : {
1304 : 0 : struct iavf_adapter *adapter =
1305 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1306 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1307 : :
1308 : 0 : return iavf_config_promisc(adapter,
1309 : 0 : false, vf->promisc_multicast_enabled);
1310 : : }
1311 : :
1312 : : static int
1313 : 0 : iavf_dev_allmulticast_enable(struct rte_eth_dev *dev)
1314 : : {
1315 : 0 : struct iavf_adapter *adapter =
1316 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1317 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1318 : :
1319 : 0 : return iavf_config_promisc(adapter,
1320 : 0 : vf->promisc_unicast_enabled, true);
1321 : : }
1322 : :
1323 : : static int
1324 : 0 : iavf_dev_allmulticast_disable(struct rte_eth_dev *dev)
1325 : : {
1326 : 0 : struct iavf_adapter *adapter =
1327 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1328 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1329 : :
1330 : 0 : return iavf_config_promisc(adapter,
1331 : 0 : vf->promisc_unicast_enabled, false);
1332 : : }
1333 : :
1334 : : static int
1335 : 0 : iavf_dev_add_mac_addr(struct rte_eth_dev *dev, struct rte_ether_addr *addr,
1336 : : __rte_unused uint32_t index,
1337 : : __rte_unused uint32_t pool)
1338 : : {
1339 : 0 : struct iavf_adapter *adapter =
1340 [ # # ]: 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1341 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1342 : : int err;
1343 : :
1344 [ # # ]: 0 : if (rte_is_zero_ether_addr(addr)) {
1345 : 0 : PMD_DRV_LOG(ERR, "Invalid Ethernet Address");
1346 : 0 : return -EINVAL;
1347 : : }
1348 : :
1349 : 0 : err = iavf_add_del_eth_addr(adapter, addr, true, VIRTCHNL_ETHER_ADDR_EXTRA);
1350 [ # # ]: 0 : if (err) {
1351 : 0 : PMD_DRV_LOG(ERR, "fail to add MAC address");
1352 : 0 : return -EIO;
1353 : : }
1354 : :
1355 : 0 : vf->mac_num++;
1356 : :
1357 : 0 : return 0;
1358 : : }
1359 : :
1360 : : static void
1361 : 0 : iavf_dev_del_mac_addr(struct rte_eth_dev *dev, uint32_t index)
1362 : : {
1363 : 0 : struct iavf_adapter *adapter =
1364 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1365 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1366 : : struct rte_ether_addr *addr;
1367 : : int err;
1368 : :
1369 : 0 : addr = &dev->data->mac_addrs[index];
1370 : :
1371 : 0 : err = iavf_add_del_eth_addr(adapter, addr, false, VIRTCHNL_ETHER_ADDR_EXTRA);
1372 [ # # ]: 0 : if (err)
1373 : 0 : PMD_DRV_LOG(ERR, "fail to delete MAC address");
1374 : :
1375 : 0 : vf->mac_num--;
1376 : 0 : }
1377 : :
1378 : : static int
1379 : 0 : iavf_dev_vlan_filter_set(struct rte_eth_dev *dev, uint16_t vlan_id, int on)
1380 : : {
1381 : 0 : struct iavf_adapter *adapter =
1382 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1383 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1384 : : struct rte_eth_conf *dev_conf = &dev->data->dev_conf;
1385 : : int err;
1386 : :
1387 [ # # ]: 0 : if (adapter->closed)
1388 : : return -EIO;
1389 : :
1390 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_VLAN_V2) {
1391 : 0 : err = iavf_add_del_vlan_v2(adapter, vlan_id, on);
1392 [ # # ]: 0 : if (err)
1393 : : return -EIO;
1394 : 0 : return 0;
1395 : : }
1396 : :
1397 [ # # ]: 0 : if (!(vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_VLAN))
1398 : : return -ENOTSUP;
1399 : :
1400 : 0 : err = iavf_add_del_vlan(adapter, vlan_id, on);
1401 [ # # ]: 0 : if (err)
1402 : : return -EIO;
1403 : :
1404 : : /* For i40e kernel driver which only supports vlan(v1) VIRTCHNL OP,
1405 : : * it will set strip on when setting filter on but dpdk side will not
1406 : : * change strip flag. To be consistent with dpdk side, disable strip
1407 : : * again.
1408 : : *
1409 : : * For i40e kernel driver which supports vlan v2, dpdk will invoke vlan v2
1410 : : * related function, so it won't go through here.
1411 : : */
1412 [ # # ]: 0 : if (adapter->hw.mac.type == IAVF_MAC_XL710 ||
1413 : : adapter->hw.mac.type == IAVF_MAC_X722_VF) {
1414 [ # # # # ]: 0 : if (on && !(dev_conf->rxmode.offloads & RTE_ETH_RX_OFFLOAD_VLAN_STRIP)) {
1415 : 0 : err = iavf_disable_vlan_strip(adapter);
1416 [ # # ]: 0 : if (err)
1417 : 0 : return -EIO;
1418 : : }
1419 : : }
1420 : : return 0;
1421 : : }
1422 : :
1423 : : static void
1424 : 0 : iavf_iterate_vlan_filters_v2(struct rte_eth_dev *dev, bool enable)
1425 : : {
1426 : 0 : struct rte_vlan_filter_conf *vfc = &dev->data->vlan_filter_conf;
1427 : 0 : struct iavf_adapter *adapter =
1428 : : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1429 : : uint32_t i, j;
1430 : : uint64_t ids;
1431 : :
1432 [ # # ]: 0 : for (i = 0; i < RTE_DIM(vfc->ids); i++) {
1433 [ # # ]: 0 : if (vfc->ids[i] == 0)
1434 : 0 : continue;
1435 : :
1436 : : ids = vfc->ids[i];
1437 [ # # ]: 0 : for (j = 0; ids != 0 && j < 64; j++, ids >>= 1) {
1438 [ # # ]: 0 : if (ids & 1)
1439 : 0 : iavf_add_del_vlan_v2(adapter,
1440 : 0 : 64 * i + j, enable);
1441 : : }
1442 : : }
1443 : 0 : }
1444 : :
1445 : : static int
1446 : 0 : iavf_dev_vlan_offload_set_v2(struct rte_eth_dev *dev, int mask)
1447 : : {
1448 : 0 : struct rte_eth_rxmode *rxmode = &dev->data->dev_conf.rxmode;
1449 : 0 : struct iavf_adapter *adapter =
1450 : : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1451 : : bool enable;
1452 : : int err;
1453 : :
1454 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_FILTER_MASK) {
1455 : 0 : enable = !!(rxmode->offloads & RTE_ETH_RX_OFFLOAD_VLAN_FILTER);
1456 : :
1457 : 0 : iavf_iterate_vlan_filters_v2(dev, enable);
1458 : : }
1459 : :
1460 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_STRIP_MASK) {
1461 : 0 : enable = !!(rxmode->offloads & RTE_ETH_RX_OFFLOAD_VLAN_STRIP);
1462 : :
1463 : 0 : err = iavf_config_vlan_strip_v2(adapter, enable);
1464 : : /* If not support, the stripping is already disabled by PF */
1465 [ # # ]: 0 : if (err == -ENOTSUP && !enable)
1466 : : err = 0;
1467 [ # # ]: 0 : if (err)
1468 : 0 : return -EIO;
1469 : : }
1470 : :
1471 : : return 0;
1472 : : }
1473 : :
1474 : : static int
1475 : 0 : iavf_dev_vlan_offload_set(struct rte_eth_dev *dev, int mask)
1476 : : {
1477 : 0 : struct iavf_adapter *adapter =
1478 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1479 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1480 : : struct rte_eth_conf *dev_conf = &dev->data->dev_conf;
1481 : : int err;
1482 : :
1483 [ # # ]: 0 : if (adapter->closed)
1484 : : return -EIO;
1485 : :
1486 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_VLAN_V2)
1487 : 0 : return iavf_dev_vlan_offload_set_v2(dev, mask);
1488 : :
1489 [ # # ]: 0 : if (!(vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_VLAN))
1490 : : return -ENOTSUP;
1491 : :
1492 : : /* Vlan stripping setting */
1493 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_STRIP_MASK) {
1494 : : /* Enable or disable VLAN stripping */
1495 [ # # ]: 0 : if (dev_conf->rxmode.offloads & RTE_ETH_RX_OFFLOAD_VLAN_STRIP)
1496 : 0 : err = iavf_enable_vlan_strip(adapter);
1497 : : else
1498 : 0 : err = iavf_disable_vlan_strip(adapter);
1499 : :
1500 [ # # ]: 0 : if (err)
1501 : 0 : return -EIO;
1502 : : }
1503 : : return 0;
1504 : : }
1505 : :
1506 : : static int
1507 : 0 : iavf_dev_rss_reta_update(struct rte_eth_dev *dev,
1508 : : struct rte_eth_rss_reta_entry64 *reta_conf,
1509 : : uint16_t reta_size)
1510 : : {
1511 : 0 : struct iavf_adapter *adapter =
1512 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1513 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1514 : : uint8_t *lut;
1515 : : uint16_t i, idx, shift;
1516 : : int ret;
1517 : :
1518 [ # # ]: 0 : if (adapter->closed)
1519 : : return -EIO;
1520 : :
1521 [ # # ]: 0 : if (!(vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_RSS_PF))
1522 : : return -ENOTSUP;
1523 : :
1524 [ # # ]: 0 : if (reta_size != vf->vf_res->rss_lut_size) {
1525 : 0 : PMD_DRV_LOG(ERR, "The size of hash lookup table configured "
1526 : : "(%d) doesn't match the number of hardware can "
1527 : : "support (%d)", reta_size, vf->vf_res->rss_lut_size);
1528 : 0 : return -EINVAL;
1529 : : }
1530 : :
1531 : 0 : lut = rte_zmalloc("rss_lut", reta_size, 0);
1532 [ # # ]: 0 : if (!lut) {
1533 : 0 : PMD_DRV_LOG(ERR, "No memory can be allocated");
1534 : 0 : return -ENOMEM;
1535 : : }
1536 : : /* store the old lut table temporarily */
1537 [ # # ]: 0 : rte_memcpy(lut, vf->rss_lut, reta_size);
1538 : :
1539 [ # # ]: 0 : for (i = 0; i < reta_size; i++) {
1540 : 0 : idx = i / RTE_ETH_RETA_GROUP_SIZE;
1541 : 0 : shift = i % RTE_ETH_RETA_GROUP_SIZE;
1542 [ # # ]: 0 : if (reta_conf[idx].mask & (1ULL << shift))
1543 : 0 : lut[i] = reta_conf[idx].reta[shift];
1544 : : }
1545 : :
1546 [ # # ]: 0 : rte_memcpy(vf->rss_lut, lut, reta_size);
1547 : : /* send virtchnl ops to configure RSS */
1548 : 0 : ret = iavf_configure_rss_lut(adapter);
1549 [ # # ]: 0 : if (ret) /* revert back */
1550 [ # # ]: 0 : rte_memcpy(vf->rss_lut, lut, reta_size);
1551 : 0 : rte_free(lut);
1552 : :
1553 : 0 : return ret;
1554 : : }
1555 : :
1556 : : static int
1557 : 0 : iavf_dev_rss_reta_query(struct rte_eth_dev *dev,
1558 : : struct rte_eth_rss_reta_entry64 *reta_conf,
1559 : : uint16_t reta_size)
1560 : : {
1561 : 0 : struct iavf_adapter *adapter =
1562 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1563 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1564 : : uint16_t i, idx, shift;
1565 : :
1566 [ # # ]: 0 : if (adapter->closed)
1567 : : return -EIO;
1568 : :
1569 [ # # ]: 0 : if (!(vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_RSS_PF))
1570 : : return -ENOTSUP;
1571 : :
1572 [ # # ]: 0 : if (reta_size != vf->vf_res->rss_lut_size) {
1573 : 0 : PMD_DRV_LOG(ERR, "The size of hash lookup table configured "
1574 : : "(%d) doesn't match the number of hardware can "
1575 : : "support (%d)", reta_size, vf->vf_res->rss_lut_size);
1576 : 0 : return -EINVAL;
1577 : : }
1578 : :
1579 [ # # ]: 0 : for (i = 0; i < reta_size; i++) {
1580 : 0 : idx = i / RTE_ETH_RETA_GROUP_SIZE;
1581 : 0 : shift = i % RTE_ETH_RETA_GROUP_SIZE;
1582 [ # # ]: 0 : if (reta_conf[idx].mask & (1ULL << shift))
1583 : 0 : reta_conf[idx].reta[shift] = vf->rss_lut[i];
1584 : : }
1585 : :
1586 : : return 0;
1587 : : }
1588 : :
1589 : : static int
1590 : 0 : iavf_set_rss_key(struct iavf_adapter *adapter, uint8_t *key, uint8_t key_len)
1591 : : {
1592 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1593 : :
1594 : : /* HENA setting, it is enabled by default, no change */
1595 [ # # ]: 0 : if (!key || key_len == 0) {
1596 : 0 : PMD_DRV_LOG(DEBUG, "No key to be configured");
1597 : 0 : return 0;
1598 [ # # ]: 0 : } else if (key_len != vf->vf_res->rss_key_size) {
1599 : 0 : PMD_DRV_LOG(ERR, "The size of hash key configured "
1600 : : "(%d) doesn't match the size of hardware can "
1601 : : "support (%d)", key_len,
1602 : : vf->vf_res->rss_key_size);
1603 : 0 : return -EINVAL;
1604 : : }
1605 : :
1606 [ # # ]: 0 : rte_memcpy(vf->rss_key, key, key_len);
1607 : :
1608 : 0 : return iavf_configure_rss_key(adapter);
1609 : : }
1610 : :
1611 : : static int
1612 : 0 : iavf_dev_rss_hash_update(struct rte_eth_dev *dev,
1613 : : struct rte_eth_rss_conf *rss_conf)
1614 : : {
1615 : 0 : struct iavf_adapter *adapter =
1616 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1617 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1618 : : int ret;
1619 : :
1620 : 0 : adapter->dev_data->dev_conf.rx_adv_conf.rss_conf = *rss_conf;
1621 : :
1622 [ # # ]: 0 : if (adapter->closed)
1623 : : return -EIO;
1624 : :
1625 [ # # ]: 0 : if (!(vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_RSS_PF))
1626 : : return -ENOTSUP;
1627 : :
1628 : : /* Set hash key. */
1629 : 0 : ret = iavf_set_rss_key(adapter, rss_conf->rss_key,
1630 : 0 : rss_conf->rss_key_len);
1631 [ # # ]: 0 : if (ret)
1632 : : return ret;
1633 : :
1634 [ # # ]: 0 : if (rss_conf->rss_hf == 0) {
1635 : 0 : vf->rss_hf = 0;
1636 : 0 : ret = iavf_set_hena(adapter, 0);
1637 : :
1638 : : /* It is a workaround, temporarily allow error to be returned
1639 : : * due to possible lack of PF handling for hena = 0.
1640 : : */
1641 [ # # ]: 0 : if (ret)
1642 : 0 : PMD_DRV_LOG(WARNING, "fail to clean existing RSS, lack PF support");
1643 : 0 : return 0;
1644 : : }
1645 : :
1646 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_ADV_RSS_PF) {
1647 : : /* Clear existing RSS. */
1648 : 0 : ret = iavf_set_hena(adapter, 0);
1649 : :
1650 : : /* It is a workaround, temporarily allow error to be returned
1651 : : * due to possible lack of PF handling for hena = 0.
1652 : : */
1653 [ # # ]: 0 : if (ret)
1654 : 0 : PMD_DRV_LOG(WARNING, "fail to clean existing RSS,"
1655 : : "lack PF support");
1656 : :
1657 : : /* Set new RSS configuration. */
1658 : 0 : ret = iavf_rss_hash_set(adapter, rss_conf->rss_hf, true);
1659 [ # # ]: 0 : if (ret) {
1660 : 0 : PMD_DRV_LOG(ERR, "fail to set new RSS");
1661 : 0 : return ret;
1662 : : }
1663 : : } else {
1664 : 0 : iavf_config_rss_hf(adapter, rss_conf->rss_hf);
1665 : : }
1666 : :
1667 : : return 0;
1668 : : }
1669 : :
1670 : : static int
1671 : 0 : iavf_dev_rss_hash_conf_get(struct rte_eth_dev *dev,
1672 : : struct rte_eth_rss_conf *rss_conf)
1673 : : {
1674 : 0 : struct iavf_adapter *adapter =
1675 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1676 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1677 : :
1678 [ # # ]: 0 : if (adapter->closed)
1679 : : return -EIO;
1680 : :
1681 [ # # ]: 0 : if (!(vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_RSS_PF))
1682 : : return -ENOTSUP;
1683 : :
1684 : 0 : rss_conf->rss_hf = vf->rss_hf;
1685 : :
1686 [ # # ]: 0 : if (!rss_conf->rss_key)
1687 : : return 0;
1688 : :
1689 : 0 : rss_conf->rss_key_len = vf->vf_res->rss_key_size;
1690 [ # # ]: 0 : rte_memcpy(rss_conf->rss_key, vf->rss_key, rss_conf->rss_key_len);
1691 : :
1692 : : return 0;
1693 : : }
1694 : :
1695 : : static int
1696 : 0 : iavf_dev_mtu_set(struct rte_eth_dev *dev, uint16_t mtu __rte_unused)
1697 : : {
1698 : : /* mtu setting is forbidden if port is start */
1699 [ # # ]: 0 : if (dev->data->dev_started) {
1700 : 0 : PMD_DRV_LOG(ERR, "port must be stopped before configuration");
1701 : 0 : return -EBUSY;
1702 : : }
1703 : :
1704 : : return 0;
1705 : : }
1706 : :
1707 : : static int
1708 : 0 : iavf_dev_set_default_mac_addr(struct rte_eth_dev *dev,
1709 : : struct rte_ether_addr *mac_addr)
1710 : : {
1711 : 0 : struct iavf_adapter *adapter =
1712 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1713 : : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(adapter);
1714 : : struct rte_ether_addr *old_addr;
1715 : : int ret;
1716 : :
1717 [ # # ]: 0 : old_addr = (struct rte_ether_addr *)hw->mac.addr;
1718 : :
1719 [ # # ]: 0 : if (rte_is_same_ether_addr(old_addr, mac_addr))
1720 : : return 0;
1721 : :
1722 : 0 : ret = iavf_add_del_eth_addr(adapter, old_addr, false, VIRTCHNL_ETHER_ADDR_PRIMARY);
1723 [ # # ]: 0 : if (ret)
1724 : 0 : PMD_DRV_LOG(ERR, "Fail to delete old MAC:"
1725 : : RTE_ETHER_ADDR_PRT_FMT,
1726 : : RTE_ETHER_ADDR_BYTES(old_addr));
1727 : :
1728 : 0 : ret = iavf_add_del_eth_addr(adapter, mac_addr, true, VIRTCHNL_ETHER_ADDR_PRIMARY);
1729 [ # # ]: 0 : if (ret)
1730 : 0 : PMD_DRV_LOG(ERR, "Fail to add new MAC:"
1731 : : RTE_ETHER_ADDR_PRT_FMT,
1732 : : RTE_ETHER_ADDR_BYTES(mac_addr));
1733 : :
1734 [ # # ]: 0 : if (ret)
1735 : : return -EIO;
1736 : :
1737 : : rte_ether_addr_copy(mac_addr, (struct rte_ether_addr *)hw->mac.addr);
1738 : 0 : return 0;
1739 : : }
1740 : :
1741 : : static void
1742 : : iavf_stat_update_48(uint64_t *offset, uint64_t *stat)
1743 : : {
1744 [ # # ]: 0 : if (*stat >= *offset)
1745 : 0 : *stat = *stat - *offset;
1746 : : else
1747 : 0 : *stat = (uint64_t)((*stat +
1748 : : ((uint64_t)1 << IAVF_48_BIT_WIDTH)) - *offset);
1749 : :
1750 [ # # # # : 0 : *stat &= IAVF_48_BIT_MASK;
# # # # #
# # # ]
1751 : : }
1752 : :
1753 : : static void
1754 : : iavf_stat_update_32(uint64_t *offset, uint64_t *stat)
1755 : : {
1756 [ # # # # : 0 : if (*stat >= *offset)
# # ]
1757 : 0 : *stat = (uint64_t)(*stat - *offset);
1758 : : else
1759 : 0 : *stat = (uint64_t)((*stat +
1760 : : ((uint64_t)1 << IAVF_32_BIT_WIDTH)) - *offset);
1761 : : }
1762 : :
1763 : : static void
1764 [ # # ]: 0 : iavf_update_stats(struct iavf_vsi *vsi, struct virtchnl_eth_stats *nes)
1765 : : {
1766 : : struct virtchnl_eth_stats *oes = &vsi->eth_stats_offset.eth_stats;
1767 : :
1768 : : iavf_stat_update_48(&oes->rx_bytes, &nes->rx_bytes);
1769 : : iavf_stat_update_48(&oes->rx_unicast, &nes->rx_unicast);
1770 : : iavf_stat_update_48(&oes->rx_multicast, &nes->rx_multicast);
1771 : : iavf_stat_update_48(&oes->rx_broadcast, &nes->rx_broadcast);
1772 : : iavf_stat_update_32(&oes->rx_discards, &nes->rx_discards);
1773 : : iavf_stat_update_48(&oes->tx_bytes, &nes->tx_bytes);
1774 : : iavf_stat_update_48(&oes->tx_unicast, &nes->tx_unicast);
1775 : : iavf_stat_update_48(&oes->tx_multicast, &nes->tx_multicast);
1776 : : iavf_stat_update_48(&oes->tx_broadcast, &nes->tx_broadcast);
1777 : : iavf_stat_update_32(&oes->tx_errors, &nes->tx_errors);
1778 : : iavf_stat_update_32(&oes->tx_discards, &nes->tx_discards);
1779 : 0 : }
1780 : :
1781 : : static int
1782 : 0 : iavf_dev_stats_get(struct rte_eth_dev *dev, struct rte_eth_stats *stats)
1783 : : {
1784 : 0 : struct iavf_adapter *adapter =
1785 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1786 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
1787 : 0 : struct iavf_vsi *vsi = &vf->vsi;
1788 : 0 : struct virtchnl_eth_stats *pstats = NULL;
1789 : : int ret;
1790 : :
1791 : 0 : ret = iavf_query_stats(adapter, &pstats);
1792 [ # # ]: 0 : if (ret == 0) {
1793 [ # # ]: 0 : uint8_t crc_stats_len = (dev->data->dev_conf.rxmode.offloads &
1794 : : RTE_ETH_RX_OFFLOAD_KEEP_CRC) ? 0 :
1795 : : RTE_ETHER_CRC_LEN;
1796 : 0 : iavf_update_stats(vsi, pstats);
1797 : 0 : stats->ipackets = pstats->rx_unicast + pstats->rx_multicast +
1798 : 0 : pstats->rx_broadcast - pstats->rx_discards;
1799 : 0 : stats->opackets = pstats->tx_broadcast + pstats->tx_multicast +
1800 : 0 : pstats->tx_unicast;
1801 : 0 : stats->imissed = pstats->rx_discards;
1802 : 0 : stats->oerrors = pstats->tx_errors + pstats->tx_discards;
1803 : 0 : stats->ibytes = pstats->rx_bytes;
1804 : 0 : stats->ibytes -= stats->ipackets * crc_stats_len;
1805 : 0 : stats->obytes = pstats->tx_bytes;
1806 : : } else {
1807 : 0 : PMD_DRV_LOG(ERR, "Get statistics failed");
1808 : : }
1809 : 0 : return ret;
1810 : : }
1811 : :
1812 : : static int
1813 : 0 : iavf_dev_stats_reset(struct rte_eth_dev *dev)
1814 : : {
1815 : : int ret;
1816 : 0 : struct iavf_adapter *adapter =
1817 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1818 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
1819 : : struct iavf_vsi *vsi = &vf->vsi;
1820 : 0 : struct virtchnl_eth_stats *pstats = NULL;
1821 : :
1822 : : /* read stat values to clear hardware registers */
1823 : 0 : ret = iavf_query_stats(adapter, &pstats);
1824 [ # # ]: 0 : if (ret != 0)
1825 : : return ret;
1826 : :
1827 : : /* set stats offset base on current values */
1828 : 0 : vsi->eth_stats_offset.eth_stats = *pstats;
1829 : :
1830 : 0 : return 0;
1831 : : }
1832 : :
1833 : : static int
1834 : 0 : iavf_dev_xstats_reset(struct rte_eth_dev *dev)
1835 : : {
1836 : 0 : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
1837 : 0 : iavf_dev_stats_reset(dev);
1838 : 0 : memset(&vf->vsi.eth_stats_offset.ips_stats, 0,
1839 : : sizeof(struct iavf_ipsec_crypto_stats));
1840 : 0 : return 0;
1841 : : }
1842 : :
1843 : 0 : static int iavf_dev_xstats_get_names(__rte_unused struct rte_eth_dev *dev,
1844 : : struct rte_eth_xstat_name *xstats_names,
1845 : : __rte_unused unsigned int limit)
1846 : : {
1847 : : unsigned int i;
1848 : :
1849 [ # # ]: 0 : if (xstats_names != NULL)
1850 [ # # ]: 0 : for (i = 0; i < IAVF_NB_XSTATS; i++) {
1851 : 0 : snprintf(xstats_names[i].name,
1852 : : sizeof(xstats_names[i].name),
1853 : 0 : "%s", rte_iavf_stats_strings[i].name);
1854 : : }
1855 : 0 : return IAVF_NB_XSTATS;
1856 : : }
1857 : :
1858 : : static void
1859 : 0 : iavf_dev_update_ipsec_xstats(struct rte_eth_dev *ethdev,
1860 : : struct iavf_ipsec_crypto_stats *ips)
1861 : : {
1862 : : uint16_t idx;
1863 [ # # ]: 0 : for (idx = 0; idx < ethdev->data->nb_rx_queues; idx++) {
1864 : : struct iavf_rx_queue *rxq;
1865 : : struct iavf_ipsec_crypto_stats *stats;
1866 : 0 : rxq = (struct iavf_rx_queue *)ethdev->data->rx_queues[idx];
1867 : : stats = &rxq->stats.ipsec_crypto;
1868 : 0 : ips->icount += stats->icount;
1869 : 0 : ips->ibytes += stats->ibytes;
1870 : 0 : ips->ierrors.count += stats->ierrors.count;
1871 : 0 : ips->ierrors.sad_miss += stats->ierrors.sad_miss;
1872 : 0 : ips->ierrors.not_processed += stats->ierrors.not_processed;
1873 : 0 : ips->ierrors.icv_check += stats->ierrors.icv_check;
1874 : 0 : ips->ierrors.ipsec_length += stats->ierrors.ipsec_length;
1875 : 0 : ips->ierrors.misc += stats->ierrors.misc;
1876 : : }
1877 : 0 : }
1878 : :
1879 : 0 : static int iavf_dev_xstats_get(struct rte_eth_dev *dev,
1880 : : struct rte_eth_xstat *xstats, unsigned int n)
1881 : : {
1882 : : int ret;
1883 : : unsigned int i;
1884 : 0 : struct iavf_adapter *adapter =
1885 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1886 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
1887 : 0 : struct iavf_vsi *vsi = &vf->vsi;
1888 : 0 : struct virtchnl_eth_stats *pstats = NULL;
1889 : 0 : struct iavf_eth_xstats iavf_xtats = {{0}};
1890 : :
1891 [ # # ]: 0 : if (n < IAVF_NB_XSTATS)
1892 : : return IAVF_NB_XSTATS;
1893 : :
1894 : 0 : ret = iavf_query_stats(adapter, &pstats);
1895 [ # # ]: 0 : if (ret != 0)
1896 : : return 0;
1897 : :
1898 [ # # ]: 0 : if (!xstats)
1899 : : return 0;
1900 : :
1901 : 0 : iavf_update_stats(vsi, pstats);
1902 : 0 : iavf_xtats.eth_stats = *pstats;
1903 : :
1904 [ # # ]: 0 : if (iavf_ipsec_crypto_supported(adapter))
1905 : 0 : iavf_dev_update_ipsec_xstats(dev, &iavf_xtats.ips_stats);
1906 : :
1907 : : /* loop over xstats array and values from pstats */
1908 [ # # ]: 0 : for (i = 0; i < IAVF_NB_XSTATS; i++) {
1909 : 0 : xstats[i].id = i;
1910 : 0 : xstats[i].value = *(uint64_t *)(((char *)&iavf_xtats) +
1911 : 0 : rte_iavf_stats_strings[i].offset);
1912 : : }
1913 : :
1914 : : return IAVF_NB_XSTATS;
1915 : : }
1916 : :
1917 : :
1918 : : static int
1919 : 0 : iavf_dev_rx_queue_intr_enable(struct rte_eth_dev *dev, uint16_t queue_id)
1920 : : {
1921 : 0 : struct iavf_adapter *adapter =
1922 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
1923 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
1924 : : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(adapter);
1925 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
1926 : : uint16_t msix_intr;
1927 : :
1928 [ # # ]: 0 : if (adapter->closed)
1929 : : return -EIO;
1930 : :
1931 : 0 : msix_intr = rte_intr_vec_list_index_get(pci_dev->intr_handle,
1932 : : queue_id);
1933 [ # # ]: 0 : if (msix_intr == IAVF_MISC_VEC_ID) {
1934 : 0 : PMD_DRV_LOG(INFO, "MISC is also enabled for control");
1935 : 0 : IAVF_WRITE_REG(hw, IAVF_VFINT_DYN_CTL01,
1936 : : IAVF_VFINT_DYN_CTL01_INTENA_MASK |
1937 : : IAVF_VFINT_DYN_CTL01_CLEARPBA_MASK |
1938 : : IAVF_VFINT_DYN_CTL01_ITR_INDX_MASK);
1939 : : } else {
1940 : 0 : IAVF_WRITE_REG(hw,
1941 : : IAVF_VFINT_DYN_CTLN1
1942 : : (msix_intr - IAVF_RX_VEC_START),
1943 : : IAVF_VFINT_DYN_CTLN1_INTENA_MASK |
1944 : : IAVF_VFINT_DYN_CTL01_CLEARPBA_MASK |
1945 : : IAVF_VFINT_DYN_CTLN1_ITR_INDX_MASK);
1946 : : }
1947 : :
1948 : 0 : IAVF_WRITE_FLUSH(hw);
1949 : :
1950 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_WB_ON_ITR)
1951 : 0 : rte_intr_ack(pci_dev->intr_handle);
1952 : :
1953 : : return 0;
1954 : : }
1955 : :
1956 : : static int
1957 : 0 : iavf_dev_rx_queue_intr_disable(struct rte_eth_dev *dev, uint16_t queue_id)
1958 : : {
1959 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
1960 : 0 : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(dev->data->dev_private);
1961 : : uint16_t msix_intr;
1962 : :
1963 : 0 : msix_intr = rte_intr_vec_list_index_get(pci_dev->intr_handle,
1964 : : queue_id);
1965 [ # # ]: 0 : if (msix_intr == IAVF_MISC_VEC_ID) {
1966 : 0 : PMD_DRV_LOG(ERR, "MISC is used for control, cannot disable it");
1967 : 0 : return -EIO;
1968 : : }
1969 : :
1970 : 0 : IAVF_WRITE_REG(hw,
1971 : : IAVF_VFINT_DYN_CTLN1(msix_intr - IAVF_RX_VEC_START),
1972 : : IAVF_VFINT_DYN_CTLN1_WB_ON_ITR_MASK);
1973 : :
1974 : 0 : IAVF_WRITE_FLUSH(hw);
1975 : 0 : return 0;
1976 : : }
1977 : :
1978 : : static int
1979 : : iavf_check_vf_reset_done(struct iavf_hw *hw)
1980 : : {
1981 : : int i, reset;
1982 : :
1983 [ # # # # ]: 0 : for (i = 0; i < IAVF_RESET_WAIT_CNT; i++) {
1984 : 0 : reset = IAVF_READ_REG(hw, IAVF_VFGEN_RSTAT) &
1985 : : IAVF_VFGEN_RSTAT_VFR_STATE_MASK;
1986 : : reset = reset >> IAVF_VFGEN_RSTAT_VFR_STATE_SHIFT;
1987 [ # # # # ]: 0 : if (reset == VIRTCHNL_VFR_VFACTIVE ||
1988 : : reset == VIRTCHNL_VFR_COMPLETED)
1989 : : break;
1990 : : rte_delay_ms(20);
1991 : : }
1992 : :
1993 [ # # # # ]: 0 : if (i >= IAVF_RESET_WAIT_CNT)
1994 : : return -1;
1995 : :
1996 : : return 0;
1997 : : }
1998 : :
1999 : : static int
2000 : 0 : iavf_lookup_proto_xtr_type(const char *flex_name)
2001 : : {
2002 : : static struct {
2003 : : const char *name;
2004 : : enum iavf_proto_xtr_type type;
2005 : : } xtr_type_map[] = {
2006 : : { "vlan", IAVF_PROTO_XTR_VLAN },
2007 : : { "ipv4", IAVF_PROTO_XTR_IPV4 },
2008 : : { "ipv6", IAVF_PROTO_XTR_IPV6 },
2009 : : { "ipv6_flow", IAVF_PROTO_XTR_IPV6_FLOW },
2010 : : { "tcp", IAVF_PROTO_XTR_TCP },
2011 : : { "ip_offset", IAVF_PROTO_XTR_IP_OFFSET },
2012 : : { "ipsec_crypto_said", IAVF_PROTO_XTR_IPSEC_CRYPTO_SAID },
2013 : : };
2014 : : uint32_t i;
2015 : :
2016 [ # # ]: 0 : for (i = 0; i < RTE_DIM(xtr_type_map); i++) {
2017 [ # # ]: 0 : if (strcmp(flex_name, xtr_type_map[i].name) == 0)
2018 : 0 : return xtr_type_map[i].type;
2019 : : }
2020 : :
2021 : 0 : PMD_DRV_LOG(ERR, "wrong proto_xtr type, it should be: "
2022 : : "vlan|ipv4|ipv6|ipv6_flow|tcp|ip_offset|ipsec_crypto_said");
2023 : :
2024 : 0 : return -1;
2025 : : }
2026 : :
2027 : : /**
2028 : : * Parse elem, the elem could be single number/range or '(' ')' group
2029 : : * 1) A single number elem, it's just a simple digit. e.g. 9
2030 : : * 2) A single range elem, two digits with a '-' between. e.g. 2-6
2031 : : * 3) A group elem, combines multiple 1) or 2) with '( )'. e.g (0,2-4,6)
2032 : : * Within group elem, '-' used for a range separator;
2033 : : * ',' used for a single number.
2034 : : */
2035 : : static int
2036 : 0 : iavf_parse_queue_set(const char *input, int xtr_type,
2037 : : struct iavf_devargs *devargs)
2038 : : {
2039 : : const char *str = input;
2040 : 0 : char *end = NULL;
2041 : : uint32_t min, max;
2042 : : uint32_t idx;
2043 : :
2044 [ # # ]: 0 : while (isblank(*str))
2045 : 0 : str++;
2046 : :
2047 [ # # # # ]: 0 : if (!isdigit(*str) && *str != '(')
2048 : : return -1;
2049 : :
2050 : : /* process single number or single range of number */
2051 [ # # ]: 0 : if (*str != '(') {
2052 : 0 : errno = 0;
2053 : 0 : idx = strtoul(str, &end, 10);
2054 [ # # # # : 0 : if (errno || !end || idx >= IAVF_MAX_QUEUE_NUM)
# # ]
2055 : : return -1;
2056 : :
2057 [ # # ]: 0 : while (isblank(*end))
2058 : 0 : end++;
2059 : :
2060 : : min = idx;
2061 : : max = idx;
2062 : :
2063 : : /* process single <number>-<number> */
2064 [ # # ]: 0 : if (*end == '-') {
2065 : 0 : end++;
2066 [ # # ]: 0 : while (isblank(*end))
2067 : 0 : end++;
2068 [ # # ]: 0 : if (!isdigit(*end))
2069 : : return -1;
2070 : :
2071 : 0 : errno = 0;
2072 : 0 : idx = strtoul(end, &end, 10);
2073 [ # # # # : 0 : if (errno || !end || idx >= IAVF_MAX_QUEUE_NUM)
# # ]
2074 : : return -1;
2075 : :
2076 : : max = idx;
2077 [ # # ]: 0 : while (isblank(*end))
2078 : 0 : end++;
2079 : : }
2080 : :
2081 [ # # ]: 0 : if (*end != ':')
2082 : : return -1;
2083 : :
2084 : 0 : for (idx = RTE_MIN(min, max);
2085 [ # # ]: 0 : idx <= RTE_MAX(min, max); idx++)
2086 : 0 : devargs->proto_xtr[idx] = xtr_type;
2087 : :
2088 : : return 0;
2089 : : }
2090 : :
2091 : : /* process set within bracket */
2092 : 0 : str++;
2093 [ # # ]: 0 : while (isblank(*str))
2094 : 0 : str++;
2095 [ # # ]: 0 : if (*str == '\0')
2096 : : return -1;
2097 : :
2098 : : min = IAVF_MAX_QUEUE_NUM;
2099 : : do {
2100 : : /* go ahead to the first digit */
2101 [ # # ]: 0 : while (isblank(*str))
2102 : 0 : str++;
2103 [ # # ]: 0 : if (!isdigit(*str))
2104 : : return -1;
2105 : :
2106 : : /* get the digit value */
2107 : 0 : errno = 0;
2108 : 0 : idx = strtoul(str, &end, 10);
2109 [ # # # # : 0 : if (errno || !end || idx >= IAVF_MAX_QUEUE_NUM)
# # ]
2110 : : return -1;
2111 : :
2112 : : /* go ahead to separator '-',',' and ')' */
2113 [ # # ]: 0 : while (isblank(*end))
2114 : 0 : end++;
2115 [ # # ]: 0 : if (*end == '-') {
2116 [ # # ]: 0 : if (min == IAVF_MAX_QUEUE_NUM)
2117 : : min = idx;
2118 : : else /* avoid continuous '-' */
2119 : : return -1;
2120 [ # # ]: 0 : } else if (*end == ',' || *end == ')') {
2121 : : max = idx;
2122 [ # # ]: 0 : if (min == IAVF_MAX_QUEUE_NUM)
2123 : : min = idx;
2124 : :
2125 : 0 : for (idx = RTE_MIN(min, max);
2126 [ # # ]: 0 : idx <= RTE_MAX(min, max); idx++)
2127 : 0 : devargs->proto_xtr[idx] = xtr_type;
2128 : :
2129 : : min = IAVF_MAX_QUEUE_NUM;
2130 : : } else {
2131 : : return -1;
2132 : : }
2133 : :
2134 : 0 : str = end + 1;
2135 [ # # ]: 0 : } while (*end != ')' && *end != '\0');
2136 : :
2137 : : return 0;
2138 : : }
2139 : :
2140 : : static int
2141 : 0 : iavf_parse_queue_proto_xtr(const char *queues, struct iavf_devargs *devargs)
2142 : : {
2143 : : const char *queue_start;
2144 : : uint32_t idx;
2145 : : int xtr_type;
2146 : : char flex_name[32];
2147 : :
2148 [ # # ]: 0 : while (isblank(*queues))
2149 : 0 : queues++;
2150 : :
2151 [ # # ]: 0 : if (*queues != '[') {
2152 : 0 : xtr_type = iavf_lookup_proto_xtr_type(queues);
2153 [ # # ]: 0 : if (xtr_type < 0)
2154 : : return -1;
2155 : :
2156 : 0 : devargs->proto_xtr_dflt = xtr_type;
2157 : :
2158 : 0 : return 0;
2159 : : }
2160 : :
2161 : 0 : queues++;
2162 : : do {
2163 [ # # ]: 0 : while (isblank(*queues))
2164 : 0 : queues++;
2165 [ # # ]: 0 : if (*queues == '\0')
2166 : : return -1;
2167 : :
2168 : : queue_start = queues;
2169 : :
2170 : : /* go across a complete bracket */
2171 [ # # ]: 0 : if (*queue_start == '(') {
2172 : 0 : queues += strcspn(queues, ")");
2173 [ # # ]: 0 : if (*queues != ')')
2174 : : return -1;
2175 : : }
2176 : :
2177 : : /* scan the separator ':' */
2178 : 0 : queues += strcspn(queues, ":");
2179 [ # # ]: 0 : if (*queues++ != ':')
2180 : : return -1;
2181 [ # # ]: 0 : while (isblank(*queues))
2182 : 0 : queues++;
2183 : :
2184 : 0 : for (idx = 0; ; idx++) {
2185 [ # # # # ]: 0 : if (isblank(queues[idx]) ||
2186 [ # # ]: 0 : queues[idx] == ',' ||
2187 [ # # ]: 0 : queues[idx] == ']' ||
2188 : : queues[idx] == '\0')
2189 : : break;
2190 : :
2191 [ # # ]: 0 : if (idx > sizeof(flex_name) - 2)
2192 : : return -1;
2193 : :
2194 : 0 : flex_name[idx] = queues[idx];
2195 : : }
2196 : 0 : flex_name[idx] = '\0';
2197 : 0 : xtr_type = iavf_lookup_proto_xtr_type(flex_name);
2198 [ # # ]: 0 : if (xtr_type < 0)
2199 : : return -1;
2200 : :
2201 : : queues += idx;
2202 : :
2203 [ # # # # : 0 : while (isblank(*queues) || *queues == ',' || *queues == ']')
# # ]
2204 : 0 : queues++;
2205 : :
2206 [ # # ]: 0 : if (iavf_parse_queue_set(queue_start, xtr_type, devargs) < 0)
2207 : : return -1;
2208 [ # # ]: 0 : } while (*queues != '\0');
2209 : :
2210 : : return 0;
2211 : : }
2212 : :
2213 : : static int
2214 : 0 : iavf_handle_proto_xtr_arg(__rte_unused const char *key, const char *value,
2215 : : void *extra_args)
2216 : : {
2217 : : struct iavf_devargs *devargs = extra_args;
2218 : :
2219 [ # # ]: 0 : if (!value || !extra_args)
2220 : : return -EINVAL;
2221 : :
2222 [ # # ]: 0 : if (iavf_parse_queue_proto_xtr(value, devargs) < 0) {
2223 : 0 : PMD_DRV_LOG(ERR, "the proto_xtr's parameter is wrong : '%s'",
2224 : : value);
2225 : 0 : return -1;
2226 : : }
2227 : :
2228 : : return 0;
2229 : : }
2230 : :
2231 : : static int
2232 : 0 : parse_u16(__rte_unused const char *key, const char *value, void *args)
2233 : : {
2234 : : u16 *num = (u16 *)args;
2235 : : u16 tmp;
2236 : :
2237 : 0 : errno = 0;
2238 : 0 : tmp = strtoull(value, NULL, 10);
2239 [ # # # # ]: 0 : if (errno || !tmp) {
2240 : 0 : PMD_DRV_LOG(WARNING, "%s: \"%s\" is not a valid u16",
2241 : : key, value);
2242 : 0 : return -1;
2243 : : }
2244 : :
2245 : 0 : *num = tmp;
2246 : :
2247 : 0 : return 0;
2248 : : }
2249 : :
2250 : : static int
2251 : 0 : parse_bool(const char *key, const char *value, void *args)
2252 : : {
2253 : : int *i = (int *)args;
2254 : : char *end;
2255 : : int num;
2256 : :
2257 : 0 : num = strtoul(value, &end, 10);
2258 : :
2259 [ # # ]: 0 : if (num != 0 && num != 1) {
2260 : 0 : PMD_DRV_LOG(WARNING, "invalid value:\"%s\" for key:\"%s\", "
2261 : : "value must be 0 or 1",
2262 : : value, key);
2263 : 0 : return -1;
2264 : : }
2265 : :
2266 : 0 : *i = num;
2267 : 0 : return 0;
2268 : : }
2269 : :
2270 : : static int
2271 : 0 : iavf_parse_watchdog_period(__rte_unused const char *key, const char *value, void *args)
2272 : : {
2273 : : int *num = (int *)args;
2274 : : int tmp;
2275 : :
2276 : 0 : errno = 0;
2277 : : tmp = atoi(value);
2278 [ # # ]: 0 : if (tmp < 0) {
2279 : 0 : PMD_DRV_LOG(WARNING, "%s: \"%s\" is not greater than or equal to zero",
2280 : : key, value);
2281 : 0 : return -1;
2282 : : }
2283 : :
2284 : 0 : *num = tmp;
2285 : :
2286 : 0 : return 0;
2287 : : }
2288 : :
2289 : 0 : static int iavf_parse_devargs(struct rte_eth_dev *dev)
2290 : : {
2291 : 0 : struct iavf_adapter *ad =
2292 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
2293 : 0 : struct rte_devargs *devargs = dev->device->devargs;
2294 : : struct rte_kvargs *kvlist;
2295 : : int ret;
2296 : 0 : int watchdog_period = -1;
2297 : :
2298 [ # # ]: 0 : if (!devargs)
2299 : : return 0;
2300 : :
2301 : 0 : kvlist = rte_kvargs_parse(devargs->args, iavf_valid_args);
2302 [ # # ]: 0 : if (!kvlist) {
2303 : 0 : PMD_INIT_LOG(ERR, "invalid kvargs key\n");
2304 : 0 : return -EINVAL;
2305 : : }
2306 : :
2307 : 0 : ad->devargs.proto_xtr_dflt = IAVF_PROTO_XTR_NONE;
2308 : 0 : memset(ad->devargs.proto_xtr, IAVF_PROTO_XTR_NONE,
2309 : : sizeof(ad->devargs.proto_xtr));
2310 : :
2311 : 0 : ret = rte_kvargs_process(kvlist, IAVF_PROTO_XTR_ARG,
2312 : 0 : &iavf_handle_proto_xtr_arg, &ad->devargs);
2313 [ # # ]: 0 : if (ret)
2314 : 0 : goto bail;
2315 : :
2316 : 0 : ret = rte_kvargs_process(kvlist, IAVF_QUANTA_SIZE_ARG,
2317 : 0 : &parse_u16, &ad->devargs.quanta_size);
2318 [ # # ]: 0 : if (ret)
2319 : 0 : goto bail;
2320 : :
2321 : 0 : ret = rte_kvargs_process(kvlist, IAVF_RESET_WATCHDOG_ARG,
2322 : : &iavf_parse_watchdog_period, &watchdog_period);
2323 [ # # ]: 0 : if (ret)
2324 : 0 : goto bail;
2325 [ # # ]: 0 : if (watchdog_period == -1)
2326 : 0 : ad->devargs.watchdog_period = IAVF_DEV_WATCHDOG_PERIOD;
2327 : : else
2328 : 0 : ad->devargs.watchdog_period = watchdog_period;
2329 : :
2330 : 0 : ret = rte_kvargs_process(kvlist, IAVF_NO_POLL_ON_LINK_DOWN_ARG,
2331 : 0 : &parse_bool, &ad->devargs.no_poll_on_link_down);
2332 [ # # ]: 0 : if (ret)
2333 : 0 : goto bail;
2334 : :
2335 [ # # ]: 0 : if (ad->devargs.quanta_size != 0 &&
2336 [ # # # # ]: 0 : (ad->devargs.quanta_size < 256 || ad->devargs.quanta_size > 4096 ||
2337 : : ad->devargs.quanta_size & 0x40)) {
2338 : 0 : PMD_INIT_LOG(ERR, "invalid quanta size\n");
2339 : : ret = -EINVAL;
2340 : 0 : goto bail;
2341 : : }
2342 : :
2343 : 0 : ret = rte_kvargs_process(kvlist, IAVF_ENABLE_AUTO_RESET_ARG,
2344 : 0 : &parse_bool, &ad->devargs.auto_reset);
2345 [ # # ]: 0 : if (ret)
2346 : 0 : goto bail;
2347 : :
2348 [ # # ]: 0 : if (ad->devargs.auto_reset != 0)
2349 : 0 : ad->devargs.no_poll_on_link_down = 1;
2350 : :
2351 : 0 : bail:
2352 : 0 : rte_kvargs_free(kvlist);
2353 : 0 : return ret;
2354 : : }
2355 : :
2356 : : static void
2357 : 0 : iavf_init_proto_xtr(struct rte_eth_dev *dev)
2358 : : {
2359 : 0 : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
2360 : : struct iavf_adapter *ad =
2361 : : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
2362 : : const struct iavf_proto_xtr_ol *xtr_ol;
2363 : : bool proto_xtr_enable = false;
2364 : : int offset;
2365 : : uint16_t i;
2366 : :
2367 : 0 : vf->proto_xtr = rte_zmalloc("vf proto xtr",
2368 : 0 : vf->vsi_res->num_queue_pairs, 0);
2369 [ # # ]: 0 : if (unlikely(!(vf->proto_xtr))) {
2370 : 0 : PMD_DRV_LOG(ERR, "no memory for setting up proto_xtr's table");
2371 : 0 : return;
2372 : : }
2373 : :
2374 [ # # ]: 0 : for (i = 0; i < vf->vsi_res->num_queue_pairs; i++) {
2375 [ # # ]: 0 : vf->proto_xtr[i] = ad->devargs.proto_xtr[i] !=
2376 : : IAVF_PROTO_XTR_NONE ?
2377 : : ad->devargs.proto_xtr[i] :
2378 : : ad->devargs.proto_xtr_dflt;
2379 : :
2380 [ # # ]: 0 : if (vf->proto_xtr[i] != IAVF_PROTO_XTR_NONE) {
2381 : : uint8_t type = vf->proto_xtr[i];
2382 : :
2383 : 0 : iavf_proto_xtr_params[type].required = true;
2384 : : proto_xtr_enable = true;
2385 : : }
2386 : : }
2387 : :
2388 [ # # ]: 0 : if (likely(!proto_xtr_enable))
2389 : : return;
2390 : :
2391 : 0 : offset = rte_mbuf_dynfield_register(&iavf_proto_xtr_metadata_param);
2392 [ # # ]: 0 : if (unlikely(offset == -1)) {
2393 : 0 : PMD_DRV_LOG(ERR,
2394 : : "failed to extract protocol metadata, error %d",
2395 : : -rte_errno);
2396 : 0 : return;
2397 : : }
2398 : :
2399 : 0 : PMD_DRV_LOG(DEBUG,
2400 : : "proto_xtr metadata offset in mbuf is : %d",
2401 : : offset);
2402 : 0 : rte_pmd_ifd_dynfield_proto_xtr_metadata_offs = offset;
2403 : :
2404 [ # # ]: 0 : for (i = 0; i < RTE_DIM(iavf_proto_xtr_params); i++) {
2405 : 0 : xtr_ol = &iavf_proto_xtr_params[i];
2406 : :
2407 : 0 : uint8_t rxdid = iavf_proto_xtr_type_to_rxdid((uint8_t)i);
2408 : :
2409 [ # # ]: 0 : if (!xtr_ol->required)
2410 : 0 : continue;
2411 : :
2412 [ # # ]: 0 : if (!(vf->supported_rxdid & BIT(rxdid))) {
2413 : 0 : PMD_DRV_LOG(ERR,
2414 : : "rxdid[%u] is not supported in hardware",
2415 : : rxdid);
2416 : 0 : rte_pmd_ifd_dynfield_proto_xtr_metadata_offs = -1;
2417 : 0 : break;
2418 : : }
2419 : :
2420 : 0 : offset = rte_mbuf_dynflag_register(&xtr_ol->param);
2421 [ # # ]: 0 : if (unlikely(offset == -1)) {
2422 : 0 : PMD_DRV_LOG(ERR,
2423 : : "failed to register proto_xtr offload '%s', error %d",
2424 : : xtr_ol->param.name, -rte_errno);
2425 : :
2426 : 0 : rte_pmd_ifd_dynfield_proto_xtr_metadata_offs = -1;
2427 : 0 : break;
2428 : : }
2429 : :
2430 : 0 : PMD_DRV_LOG(DEBUG,
2431 : : "proto_xtr offload '%s' offset in mbuf is : %d",
2432 : : xtr_ol->param.name, offset);
2433 : 0 : *xtr_ol->ol_flag = 1ULL << offset;
2434 : : }
2435 : : }
2436 : :
2437 : : static int
2438 : 0 : iavf_init_vf(struct rte_eth_dev *dev)
2439 : : {
2440 : : int err, bufsz;
2441 : 0 : struct iavf_adapter *adapter =
2442 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
2443 : 0 : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(dev->data->dev_private);
2444 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
2445 : :
2446 : 0 : vf->eth_dev = dev;
2447 : :
2448 : 0 : err = iavf_parse_devargs(dev);
2449 [ # # ]: 0 : if (err) {
2450 : 0 : PMD_INIT_LOG(ERR, "Failed to parse devargs");
2451 : 0 : goto err;
2452 : : }
2453 : :
2454 : 0 : err = iavf_set_mac_type(hw);
2455 [ # # ]: 0 : if (err) {
2456 : 0 : PMD_INIT_LOG(ERR, "set_mac_type failed: %d", err);
2457 : 0 : goto err;
2458 : : }
2459 : :
2460 : : err = iavf_check_vf_reset_done(hw);
2461 : : if (err) {
2462 : 0 : PMD_INIT_LOG(ERR, "VF is still resetting");
2463 : 0 : goto err;
2464 : : }
2465 : :
2466 : : iavf_init_adminq_parameter(hw);
2467 : 0 : err = iavf_init_adminq(hw);
2468 [ # # ]: 0 : if (err) {
2469 : 0 : PMD_INIT_LOG(ERR, "init_adminq failed: %d", err);
2470 : 0 : goto err;
2471 : : }
2472 : :
2473 : 0 : vf->aq_resp = rte_zmalloc("vf_aq_resp", IAVF_AQ_BUF_SZ, 0);
2474 [ # # ]: 0 : if (!vf->aq_resp) {
2475 : 0 : PMD_INIT_LOG(ERR, "unable to allocate vf_aq_resp memory");
2476 : 0 : goto err_aq;
2477 : : }
2478 [ # # ]: 0 : if (iavf_check_api_version(adapter) != 0) {
2479 : 0 : PMD_INIT_LOG(ERR, "check_api version failed");
2480 : 0 : goto err_api;
2481 : : }
2482 : :
2483 : : bufsz = sizeof(struct virtchnl_vf_resource) +
2484 : : (IAVF_MAX_VF_VSI * sizeof(struct virtchnl_vsi_resource));
2485 : 0 : vf->vf_res = rte_zmalloc("vf_res", bufsz, 0);
2486 [ # # ]: 0 : if (!vf->vf_res) {
2487 : 0 : PMD_INIT_LOG(ERR, "unable to allocate vf_res memory");
2488 : 0 : goto err_api;
2489 : : }
2490 : :
2491 [ # # ]: 0 : if (iavf_get_vf_resource(adapter) != 0) {
2492 : 0 : PMD_INIT_LOG(ERR, "iavf_get_vf_config failed");
2493 : 0 : goto err_alloc;
2494 : : }
2495 : : /* Allocate memort for RSS info */
2496 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_RSS_PF) {
2497 : 0 : vf->rss_key = rte_zmalloc("rss_key",
2498 : 0 : vf->vf_res->rss_key_size, 0);
2499 [ # # ]: 0 : if (!vf->rss_key) {
2500 : 0 : PMD_INIT_LOG(ERR, "unable to allocate rss_key memory");
2501 : 0 : goto err_rss;
2502 : : }
2503 : 0 : vf->rss_lut = rte_zmalloc("rss_lut",
2504 : 0 : vf->vf_res->rss_lut_size, 0);
2505 [ # # ]: 0 : if (!vf->rss_lut) {
2506 : 0 : PMD_INIT_LOG(ERR, "unable to allocate rss_lut memory");
2507 : 0 : goto err_rss;
2508 : : }
2509 : : }
2510 : :
2511 [ # # ]: 0 : if (vf->vsi_res->num_queue_pairs > IAVF_MAX_NUM_QUEUES_DFLT)
2512 : 0 : vf->lv_enabled = true;
2513 : :
2514 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_RX_FLEX_DESC) {
2515 [ # # ]: 0 : if (iavf_get_supported_rxdid(adapter) != 0) {
2516 : 0 : PMD_INIT_LOG(ERR, "failed to do get supported rxdid");
2517 : 0 : goto err_rss;
2518 : : }
2519 : : }
2520 : :
2521 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_VLAN_V2) {
2522 [ # # ]: 0 : if (iavf_get_vlan_offload_caps_v2(adapter) != 0) {
2523 : 0 : PMD_INIT_LOG(ERR, "failed to do get VLAN offload v2 capabilities");
2524 : 0 : goto err_rss;
2525 : : }
2526 : : }
2527 : :
2528 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_QOS) {
2529 : : bufsz = sizeof(struct virtchnl_qos_cap_list) +
2530 : : IAVF_MAX_TRAFFIC_CLASS *
2531 : : sizeof(struct virtchnl_qos_cap_elem);
2532 : 0 : vf->qos_cap = rte_zmalloc("qos_cap", bufsz, 0);
2533 [ # # ]: 0 : if (!vf->qos_cap) {
2534 : 0 : PMD_INIT_LOG(ERR, "unable to allocate qos_cap memory");
2535 : 0 : goto err_rss;
2536 : : }
2537 : 0 : iavf_tm_conf_init(dev);
2538 : : }
2539 : :
2540 : 0 : iavf_init_proto_xtr(dev);
2541 : :
2542 : 0 : return 0;
2543 : 0 : err_rss:
2544 : 0 : rte_free(vf->rss_key);
2545 : 0 : rte_free(vf->rss_lut);
2546 : 0 : err_alloc:
2547 : 0 : rte_free(vf->qos_cap);
2548 : 0 : rte_free(vf->vf_res);
2549 : 0 : vf->vsi_res = NULL;
2550 : 0 : err_api:
2551 : 0 : rte_free(vf->aq_resp);
2552 : 0 : err_aq:
2553 : 0 : iavf_shutdown_adminq(hw);
2554 : : err:
2555 : : return -1;
2556 : : }
2557 : :
2558 : : static void
2559 : 0 : iavf_uninit_vf(struct rte_eth_dev *dev)
2560 : : {
2561 : 0 : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(dev->data->dev_private);
2562 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
2563 : :
2564 : 0 : iavf_shutdown_adminq(hw);
2565 : :
2566 : 0 : rte_free(vf->vf_res);
2567 : 0 : vf->vsi_res = NULL;
2568 : 0 : vf->vf_res = NULL;
2569 : :
2570 : 0 : rte_free(vf->aq_resp);
2571 : 0 : vf->aq_resp = NULL;
2572 : :
2573 : 0 : rte_free(vf->qos_cap);
2574 : 0 : vf->qos_cap = NULL;
2575 : :
2576 : 0 : rte_free(vf->rss_lut);
2577 : 0 : vf->rss_lut = NULL;
2578 : 0 : rte_free(vf->rss_key);
2579 : 0 : vf->rss_key = NULL;
2580 : 0 : }
2581 : :
2582 : : /* Enable default admin queue interrupt setting */
2583 : : static inline void
2584 : : iavf_enable_irq0(struct iavf_hw *hw)
2585 : : {
2586 : : /* Enable admin queue interrupt trigger */
2587 : 0 : IAVF_WRITE_REG(hw, IAVF_VFINT_ICR0_ENA1,
2588 : : IAVF_VFINT_ICR0_ENA1_ADMINQ_MASK);
2589 : :
2590 : 0 : IAVF_WRITE_REG(hw, IAVF_VFINT_DYN_CTL01,
2591 : : IAVF_VFINT_DYN_CTL01_INTENA_MASK |
2592 : : IAVF_VFINT_DYN_CTL01_CLEARPBA_MASK |
2593 : : IAVF_VFINT_DYN_CTL01_ITR_INDX_MASK);
2594 : :
2595 : 0 : IAVF_WRITE_FLUSH(hw);
2596 : : }
2597 : :
2598 : : static inline void
2599 : : iavf_disable_irq0(struct iavf_hw *hw)
2600 : : {
2601 : : /* Disable all interrupt types */
2602 : 0 : IAVF_WRITE_REG(hw, IAVF_VFINT_ICR0_ENA1, 0);
2603 : 0 : IAVF_WRITE_REG(hw, IAVF_VFINT_DYN_CTL01,
2604 : : IAVF_VFINT_DYN_CTL01_ITR_INDX_MASK);
2605 : 0 : IAVF_WRITE_FLUSH(hw);
2606 : : }
2607 : :
2608 : : static void
2609 : 0 : iavf_dev_interrupt_handler(void *param)
2610 : : {
2611 : : struct rte_eth_dev *dev = (struct rte_eth_dev *)param;
2612 : 0 : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(dev->data->dev_private);
2613 : :
2614 : : iavf_disable_irq0(hw);
2615 : :
2616 : 0 : iavf_handle_virtchnl_msg(dev);
2617 : :
2618 : : iavf_enable_irq0(hw);
2619 : 0 : }
2620 : :
2621 : : void
2622 : 0 : iavf_dev_alarm_handler(void *param)
2623 : : {
2624 : : struct rte_eth_dev *dev = (struct rte_eth_dev *)param;
2625 : 0 : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(dev->data->dev_private);
2626 : : uint32_t icr0;
2627 : :
2628 : : iavf_disable_irq0(hw);
2629 : :
2630 : : /* read out interrupt causes */
2631 : 0 : icr0 = IAVF_READ_REG(hw, IAVF_VFINT_ICR01);
2632 : :
2633 [ # # ]: 0 : if (icr0 & IAVF_VFINT_ICR01_ADMINQ_MASK) {
2634 : 0 : PMD_DRV_LOG(DEBUG, "ICR01_ADMINQ is reported");
2635 : 0 : iavf_handle_virtchnl_msg(dev);
2636 : : }
2637 : :
2638 : : iavf_enable_irq0(hw);
2639 : :
2640 : 0 : rte_eal_alarm_set(IAVF_ALARM_INTERVAL,
2641 : : iavf_dev_alarm_handler, dev);
2642 : 0 : }
2643 : :
2644 : : static int
2645 : 0 : iavf_dev_flow_ops_get(struct rte_eth_dev *dev,
2646 : : const struct rte_flow_ops **ops)
2647 : : {
2648 : 0 : struct iavf_adapter *adapter =
2649 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
2650 : :
2651 [ # # ]: 0 : if (adapter->closed)
2652 : : return -EIO;
2653 : :
2654 : 0 : *ops = &iavf_flow_ops;
2655 : 0 : return 0;
2656 : : }
2657 : :
2658 : : static void
2659 : 0 : iavf_default_rss_disable(struct iavf_adapter *adapter)
2660 : : {
2661 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
2662 : : int ret = 0;
2663 : :
2664 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_RSS_PF) {
2665 : : /* Set hena = 0 to ask PF to cleanup all existing RSS. */
2666 : 0 : ret = iavf_set_hena(adapter, 0);
2667 [ # # ]: 0 : if (ret)
2668 : : /* It is a workaround, temporarily allow error to be
2669 : : * returned due to possible lack of PF handling for
2670 : : * hena = 0.
2671 : : */
2672 : 0 : PMD_INIT_LOG(WARNING, "fail to disable default RSS,"
2673 : : "lack PF support");
2674 : : }
2675 : 0 : }
2676 : :
2677 : : static int
2678 : 0 : iavf_dev_init(struct rte_eth_dev *eth_dev)
2679 : : {
2680 : 0 : struct iavf_adapter *adapter =
2681 : 0 : IAVF_DEV_PRIVATE_TO_ADAPTER(eth_dev->data->dev_private);
2682 : : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(adapter);
2683 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(adapter);
2684 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(eth_dev);
2685 : : int ret = 0;
2686 : :
2687 : 0 : PMD_INIT_FUNC_TRACE();
2688 : :
2689 : : /* assign ops func pointer */
2690 : 0 : eth_dev->dev_ops = &iavf_eth_dev_ops;
2691 : 0 : eth_dev->rx_queue_count = iavf_dev_rxq_count;
2692 : 0 : eth_dev->rx_descriptor_status = iavf_dev_rx_desc_status;
2693 : 0 : eth_dev->tx_descriptor_status = iavf_dev_tx_desc_status;
2694 : 0 : eth_dev->rx_pkt_burst = &iavf_recv_pkts;
2695 : 0 : eth_dev->tx_pkt_burst = &iavf_xmit_pkts;
2696 : 0 : eth_dev->tx_pkt_prepare = &iavf_prep_pkts;
2697 : :
2698 : : /* For secondary processes, we don't initialise any further as primary
2699 : : * has already done this work. Only check if we need a different RX
2700 : : * and TX function.
2701 : : */
2702 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY) {
2703 : 0 : iavf_set_rx_function(eth_dev);
2704 : 0 : iavf_set_tx_function(eth_dev);
2705 : 0 : return 0;
2706 : : }
2707 : 0 : rte_eth_copy_pci_info(eth_dev, pci_dev);
2708 : :
2709 : 0 : hw->vendor_id = pci_dev->id.vendor_id;
2710 : 0 : hw->device_id = pci_dev->id.device_id;
2711 : 0 : hw->subsystem_vendor_id = pci_dev->id.subsystem_vendor_id;
2712 : 0 : hw->subsystem_device_id = pci_dev->id.subsystem_device_id;
2713 : 0 : hw->bus.bus_id = pci_dev->addr.bus;
2714 : 0 : hw->bus.device = pci_dev->addr.devid;
2715 : 0 : hw->bus.func = pci_dev->addr.function;
2716 : 0 : hw->hw_addr = (void *)pci_dev->mem_resource[0].addr;
2717 : 0 : hw->back = IAVF_DEV_PRIVATE_TO_ADAPTER(eth_dev->data->dev_private);
2718 : 0 : adapter->dev_data = eth_dev->data;
2719 : 0 : adapter->stopped = 1;
2720 : :
2721 [ # # ]: 0 : if (iavf_dev_event_handler_init())
2722 : 0 : goto init_vf_err;
2723 : :
2724 [ # # ]: 0 : if (iavf_init_vf(eth_dev) != 0) {
2725 : 0 : PMD_INIT_LOG(ERR, "Init vf failed");
2726 : 0 : return -1;
2727 : : }
2728 : :
2729 : : /* set default ptype table */
2730 : 0 : iavf_set_default_ptype_table(eth_dev);
2731 : :
2732 : : /* copy mac addr */
2733 : 0 : eth_dev->data->mac_addrs = rte_zmalloc(
2734 : : "iavf_mac", RTE_ETHER_ADDR_LEN * IAVF_NUM_MACADDR_MAX, 0);
2735 [ # # ]: 0 : if (!eth_dev->data->mac_addrs) {
2736 : 0 : PMD_INIT_LOG(ERR, "Failed to allocate %d bytes needed to"
2737 : : " store MAC addresses",
2738 : : RTE_ETHER_ADDR_LEN * IAVF_NUM_MACADDR_MAX);
2739 : : ret = -ENOMEM;
2740 : 0 : goto init_vf_err;
2741 : : }
2742 : : /* If the MAC address is not configured by host,
2743 : : * generate a random one.
2744 : : */
2745 : : if (!rte_is_valid_assigned_ether_addr(
2746 : : (struct rte_ether_addr *)hw->mac.addr))
2747 : 0 : rte_eth_random_addr(hw->mac.addr);
2748 : 0 : rte_ether_addr_copy((struct rte_ether_addr *)hw->mac.addr,
2749 [ # # ]: 0 : ð_dev->data->mac_addrs[0]);
2750 : :
2751 : :
2752 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_WB_ON_ITR) {
2753 : : /* register callback func to eal lib */
2754 : 0 : rte_intr_callback_register(pci_dev->intr_handle,
2755 : : iavf_dev_interrupt_handler,
2756 : : (void *)eth_dev);
2757 : :
2758 : : /* enable uio intr after callback register */
2759 : 0 : rte_intr_enable(pci_dev->intr_handle);
2760 : : } else {
2761 : 0 : rte_eal_alarm_set(IAVF_ALARM_INTERVAL,
2762 : : iavf_dev_alarm_handler, eth_dev);
2763 : : }
2764 : :
2765 : : /* configure and enable device interrupt */
2766 : : iavf_enable_irq0(hw);
2767 : :
2768 : 0 : ret = iavf_flow_init(adapter);
2769 [ # # ]: 0 : if (ret) {
2770 : 0 : PMD_INIT_LOG(ERR, "Failed to initialize flow");
2771 : 0 : goto flow_init_err;
2772 : : }
2773 : :
2774 : : /** Check if the IPsec Crypto offload is supported and create
2775 : : * security_ctx if it is.
2776 : : */
2777 [ # # ]: 0 : if (iavf_ipsec_crypto_supported(adapter)) {
2778 : : /* Initialize security_ctx only for primary process*/
2779 : 0 : ret = iavf_security_ctx_create(adapter);
2780 [ # # ]: 0 : if (ret) {
2781 : 0 : PMD_INIT_LOG(ERR, "failed to create ipsec crypto security instance");
2782 : 0 : goto flow_init_err;
2783 : : }
2784 : :
2785 : 0 : ret = iavf_security_init(adapter);
2786 [ # # ]: 0 : if (ret) {
2787 : 0 : PMD_INIT_LOG(ERR, "failed to initialized ipsec crypto resources");
2788 : 0 : goto security_init_err;
2789 : : }
2790 : : }
2791 : :
2792 : 0 : iavf_default_rss_disable(adapter);
2793 : :
2794 : 0 : iavf_dev_stats_reset(eth_dev);
2795 : :
2796 : : /* Start device watchdog */
2797 : 0 : iavf_dev_watchdog_enable(adapter);
2798 : 0 : adapter->closed = false;
2799 : :
2800 : 0 : return 0;
2801 : :
2802 : : security_init_err:
2803 : 0 : iavf_security_ctx_destroy(adapter);
2804 : :
2805 : 0 : flow_init_err:
2806 : : iavf_disable_irq0(hw);
2807 : :
2808 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_WB_ON_ITR) {
2809 : : /* disable uio intr before callback unregiser */
2810 : 0 : rte_intr_disable(pci_dev->intr_handle);
2811 : :
2812 : : /* unregister callback func from eal lib */
2813 : 0 : rte_intr_callback_unregister(pci_dev->intr_handle,
2814 : : iavf_dev_interrupt_handler, eth_dev);
2815 : : } else {
2816 : 0 : rte_eal_alarm_cancel(iavf_dev_alarm_handler, eth_dev);
2817 : : }
2818 : :
2819 : 0 : rte_free(eth_dev->data->mac_addrs);
2820 : 0 : eth_dev->data->mac_addrs = NULL;
2821 : :
2822 : 0 : init_vf_err:
2823 : 0 : iavf_uninit_vf(eth_dev);
2824 : :
2825 : 0 : return ret;
2826 : : }
2827 : :
2828 : : static int
2829 : 0 : iavf_dev_close(struct rte_eth_dev *dev)
2830 : : {
2831 : 0 : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(dev->data->dev_private);
2832 : 0 : struct rte_pci_device *pci_dev = RTE_ETH_DEV_TO_PCI(dev);
2833 : 0 : struct rte_intr_handle *intr_handle = pci_dev->intr_handle;
2834 : : struct iavf_adapter *adapter =
2835 : : IAVF_DEV_PRIVATE_TO_ADAPTER(dev->data->dev_private);
2836 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
2837 : : int ret;
2838 : :
2839 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY)
2840 : : return 0;
2841 : :
2842 [ # # ]: 0 : if (adapter->closed) {
2843 : : ret = 0;
2844 : 0 : goto out;
2845 : : }
2846 : :
2847 : 0 : ret = iavf_dev_stop(dev);
2848 : :
2849 : : /*
2850 : : * Release redundant queue resource when close the dev
2851 : : * so that other vfs can re-use the queues.
2852 : : */
2853 [ # # ]: 0 : if (vf->lv_enabled) {
2854 : 0 : ret = iavf_request_queues(dev, IAVF_MAX_NUM_QUEUES_DFLT);
2855 [ # # ]: 0 : if (ret)
2856 : 0 : PMD_DRV_LOG(ERR, "Reset the num of queues failed");
2857 : :
2858 : 0 : vf->max_rss_qregion = IAVF_MAX_NUM_QUEUES_DFLT;
2859 : : }
2860 : :
2861 : 0 : adapter->closed = true;
2862 : :
2863 : : /* free iAVF security device context all related resources */
2864 : 0 : iavf_security_ctx_destroy(adapter);
2865 : :
2866 : 0 : iavf_flow_flush(dev, NULL);
2867 : 0 : iavf_flow_uninit(adapter);
2868 : :
2869 : : /*
2870 : : * disable promiscuous mode before reset vf
2871 : : * it is a workaround solution when work with kernel driver
2872 : : * and it is not the normal way
2873 : : */
2874 [ # # ]: 0 : if (vf->promisc_unicast_enabled || vf->promisc_multicast_enabled)
2875 : 0 : iavf_config_promisc(adapter, false, false);
2876 : :
2877 : 0 : iavf_shutdown_adminq(hw);
2878 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_WB_ON_ITR) {
2879 : : /* disable uio intr before callback unregister */
2880 : 0 : rte_intr_disable(intr_handle);
2881 : :
2882 : : /* unregister callback func from eal lib */
2883 : 0 : rte_intr_callback_unregister(intr_handle,
2884 : : iavf_dev_interrupt_handler, dev);
2885 : : } else {
2886 : 0 : rte_eal_alarm_cancel(iavf_dev_alarm_handler, dev);
2887 : : }
2888 : : iavf_disable_irq0(hw);
2889 : :
2890 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_QOS)
2891 : 0 : iavf_tm_conf_uninit(dev);
2892 : :
2893 [ # # ]: 0 : if (vf->vf_res->vf_cap_flags & VIRTCHNL_VF_OFFLOAD_RSS_PF) {
2894 [ # # ]: 0 : if (vf->rss_lut) {
2895 : 0 : rte_free(vf->rss_lut);
2896 : 0 : vf->rss_lut = NULL;
2897 : : }
2898 [ # # ]: 0 : if (vf->rss_key) {
2899 : 0 : rte_free(vf->rss_key);
2900 : 0 : vf->rss_key = NULL;
2901 : : }
2902 : : }
2903 : :
2904 : 0 : rte_free(vf->vf_res);
2905 : 0 : vf->vsi_res = NULL;
2906 : 0 : vf->vf_res = NULL;
2907 : :
2908 : 0 : rte_free(vf->aq_resp);
2909 : 0 : vf->aq_resp = NULL;
2910 : :
2911 : : /*
2912 : : * If the VF is reset via VFLR, the device will be knocked out of bus
2913 : : * master mode, and the driver will fail to recover from the reset. Fix
2914 : : * this by enabling bus mastering after every reset. In a non-VFLR case,
2915 : : * the bus master bit will not be disabled, and this call will have no
2916 : : * effect.
2917 : : */
2918 : 0 : out:
2919 [ # # # # ]: 0 : if (vf->vf_reset && !rte_pci_set_bus_master(pci_dev, true))
2920 : 0 : vf->vf_reset = false;
2921 : :
2922 : : /* disable watchdog */
2923 : 0 : iavf_dev_watchdog_disable(adapter);
2924 : :
2925 : 0 : return ret;
2926 : : }
2927 : :
2928 : : static int
2929 : 0 : iavf_dev_uninit(struct rte_eth_dev *dev)
2930 : : {
2931 : 0 : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
2932 : :
2933 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY)
2934 : : return -EPERM;
2935 : :
2936 : 0 : iavf_dev_close(dev);
2937 : :
2938 [ # # ]: 0 : if (!vf->in_reset_recovery)
2939 : 0 : iavf_dev_event_handler_fini();
2940 : :
2941 : : return 0;
2942 : : }
2943 : :
2944 : : /*
2945 : : * Reset VF device only to re-initialize resources in PMD layer
2946 : : */
2947 : : static int
2948 : 0 : iavf_dev_reset(struct rte_eth_dev *dev)
2949 : : {
2950 : : int ret;
2951 : 0 : struct iavf_hw *hw = IAVF_DEV_PRIVATE_TO_HW(dev->data->dev_private);
2952 : : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
2953 : :
2954 : : /*
2955 : : * Check whether the VF reset has been done and inform application,
2956 : : * to avoid calling the virtual channel command, which may cause
2957 : : * the device to be abnormal.
2958 : : */
2959 : : ret = iavf_check_vf_reset_done(hw);
2960 : : if (ret) {
2961 : 0 : PMD_DRV_LOG(ERR, "Wait too long for reset done!\n");
2962 : 0 : return ret;
2963 : : }
2964 : 0 : vf->vf_reset = false;
2965 : :
2966 : 0 : PMD_DRV_LOG(DEBUG, "Start dev_reset ...\n");
2967 : 0 : ret = iavf_dev_uninit(dev);
2968 [ # # ]: 0 : if (ret)
2969 : : return ret;
2970 : :
2971 : 0 : return iavf_dev_init(dev);
2972 : : }
2973 : :
2974 : : /*
2975 : : * Handle hardware reset
2976 : : */
2977 : : int
2978 : 0 : iavf_handle_hw_reset(struct rte_eth_dev *dev)
2979 : : {
2980 : 0 : struct iavf_info *vf = IAVF_DEV_PRIVATE_TO_VF(dev->data->dev_private);
2981 : : int ret;
2982 : :
2983 : 0 : vf->in_reset_recovery = true;
2984 : :
2985 : 0 : ret = iavf_dev_reset(dev);
2986 [ # # ]: 0 : if (ret)
2987 : 0 : goto error;
2988 : :
2989 : : /* VF states restore */
2990 : 0 : ret = iavf_dev_configure(dev);
2991 [ # # ]: 0 : if (ret)
2992 : 0 : goto error;
2993 : :
2994 : 0 : iavf_dev_xstats_reset(dev);
2995 : :
2996 : : /* start the device */
2997 : 0 : ret = iavf_dev_start(dev);
2998 [ # # ]: 0 : if (ret)
2999 : 0 : goto error;
3000 : 0 : dev->data->dev_started = 1;
3001 : :
3002 : 0 : vf->in_reset_recovery = false;
3003 : 0 : return 0;
3004 : :
3005 : 0 : error:
3006 : 0 : PMD_DRV_LOG(DEBUG, "RESET recover with error code=%d\n", ret);
3007 : 0 : vf->in_reset_recovery = false;
3008 : 0 : return ret;
3009 : : }
3010 : :
3011 : : static int
3012 : 0 : iavf_dcf_cap_check_handler(__rte_unused const char *key,
3013 : : const char *value, __rte_unused void *opaque)
3014 : : {
3015 [ # # ]: 0 : if (strcmp(value, "dcf"))
3016 : 0 : return -1;
3017 : :
3018 : : return 0;
3019 : : }
3020 : :
3021 : : static int
3022 : 0 : iavf_dcf_cap_selected(struct rte_devargs *devargs)
3023 : : {
3024 : : struct rte_kvargs *kvlist;
3025 : : const char *key = "cap";
3026 : : int ret = 0;
3027 : :
3028 [ # # ]: 0 : if (devargs == NULL)
3029 : : return 0;
3030 : :
3031 : 0 : kvlist = rte_kvargs_parse(devargs->args, NULL);
3032 [ # # ]: 0 : if (kvlist == NULL)
3033 : : return 0;
3034 : :
3035 [ # # ]: 0 : if (!rte_kvargs_count(kvlist, key))
3036 : 0 : goto exit;
3037 : :
3038 : : /* dcf capability selected when there's a key-value pair: cap=dcf */
3039 [ # # ]: 0 : if (rte_kvargs_process(kvlist, key,
3040 : : iavf_dcf_cap_check_handler, NULL) < 0)
3041 : 0 : goto exit;
3042 : :
3043 : : ret = 1;
3044 : :
3045 : 0 : exit:
3046 : 0 : rte_kvargs_free(kvlist);
3047 : 0 : return ret;
3048 : : }
3049 : :
3050 : 0 : static int eth_iavf_pci_probe(struct rte_pci_driver *pci_drv __rte_unused,
3051 : : struct rte_pci_device *pci_dev)
3052 : : {
3053 [ # # ]: 0 : if (iavf_dcf_cap_selected(pci_dev->device.devargs))
3054 : : return 1;
3055 : :
3056 : 0 : return rte_eth_dev_pci_generic_probe(pci_dev,
3057 : : sizeof(struct iavf_adapter), iavf_dev_init);
3058 : : }
3059 : :
3060 : 0 : static int eth_iavf_pci_remove(struct rte_pci_device *pci_dev)
3061 : : {
3062 : 0 : return rte_eth_dev_pci_generic_remove(pci_dev, iavf_dev_uninit);
3063 : : }
3064 : :
3065 : : /* Adaptive virtual function driver struct */
3066 : : static struct rte_pci_driver rte_iavf_pmd = {
3067 : : .id_table = pci_id_iavf_map,
3068 : : .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_INTR_LSC,
3069 : : .probe = eth_iavf_pci_probe,
3070 : : .remove = eth_iavf_pci_remove,
3071 : : };
3072 : :
3073 : 235 : RTE_PMD_REGISTER_PCI(net_iavf, rte_iavf_pmd);
3074 : : RTE_PMD_REGISTER_PCI_TABLE(net_iavf, pci_id_iavf_map);
3075 : : RTE_PMD_REGISTER_KMOD_DEP(net_iavf, "* igb_uio | vfio-pci");
3076 : : RTE_PMD_REGISTER_PARAM_STRING(net_iavf, "cap=dcf");
3077 [ - + ]: 235 : RTE_LOG_REGISTER_SUFFIX(iavf_logtype_init, init, NOTICE);
3078 [ - + ]: 235 : RTE_LOG_REGISTER_SUFFIX(iavf_logtype_driver, driver, NOTICE);
3079 : : #ifdef RTE_ETHDEV_DEBUG_RX
3080 : : RTE_LOG_REGISTER_SUFFIX(iavf_logtype_rx, rx, DEBUG);
3081 : : #endif
3082 : : #ifdef RTE_ETHDEV_DEBUG_TX
3083 : : RTE_LOG_REGISTER_SUFFIX(iavf_logtype_tx, tx, DEBUG);
3084 : : #endif
|