Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright(c) 2010-2016 Intel Corporation
3 : : */
4 : :
5 : : #include <stdint.h>
6 : : #include <string.h>
7 : : #include <stdio.h>
8 : : #include <stdlib.h>
9 : : #include <errno.h>
10 : : #include <unistd.h>
11 : :
12 : : #include <ethdev_driver.h>
13 : : #include <rte_memcpy.h>
14 : : #include <rte_string_fns.h>
15 : : #include <rte_memzone.h>
16 : : #include <rte_malloc.h>
17 : : #include <rte_branch_prediction.h>
18 : : #include <rte_ether.h>
19 : : #include <rte_ip.h>
20 : : #include <rte_arp.h>
21 : : #include <rte_common.h>
22 : : #include <rte_errno.h>
23 : : #include <rte_cpuflags.h>
24 : : #include <rte_vect.h>
25 : : #include <rte_memory.h>
26 : : #include <rte_eal_paging.h>
27 : : #include <rte_eal.h>
28 : : #include <dev_driver.h>
29 : : #include <rte_cycles.h>
30 : : #include <rte_kvargs.h>
31 : :
32 : : #include "virtio_ethdev.h"
33 : : #include "virtio.h"
34 : : #include "virtio_logs.h"
35 : : #include "virtqueue.h"
36 : : #include "virtio_cvq.h"
37 : : #include "virtio_rxtx.h"
38 : : #include "virtio_rxtx_simple.h"
39 : : #include "virtio_user/virtio_user_dev.h"
40 : :
41 : : static int virtio_dev_configure(struct rte_eth_dev *dev);
42 : : static int virtio_dev_start(struct rte_eth_dev *dev);
43 : : static int virtio_dev_promiscuous_enable(struct rte_eth_dev *dev);
44 : : static int virtio_dev_promiscuous_disable(struct rte_eth_dev *dev);
45 : : static int virtio_dev_allmulticast_enable(struct rte_eth_dev *dev);
46 : : static int virtio_dev_allmulticast_disable(struct rte_eth_dev *dev);
47 : : static uint32_t virtio_dev_speed_capa_get(uint32_t speed);
48 : : static int virtio_dev_devargs_parse(struct rte_devargs *devargs,
49 : : uint32_t *speed,
50 : : int *vectorized);
51 : : static int virtio_dev_info_get(struct rte_eth_dev *dev,
52 : : struct rte_eth_dev_info *dev_info);
53 : : static int virtio_dev_link_update(struct rte_eth_dev *dev,
54 : : int wait_to_complete);
55 : : static int virtio_dev_vlan_offload_set(struct rte_eth_dev *dev, int mask);
56 : : static int virtio_dev_rss_hash_update(struct rte_eth_dev *dev,
57 : : struct rte_eth_rss_conf *rss_conf);
58 : : static int virtio_dev_rss_hash_conf_get(struct rte_eth_dev *dev,
59 : : struct rte_eth_rss_conf *rss_conf);
60 : : static int virtio_dev_rss_reta_update(struct rte_eth_dev *dev,
61 : : struct rte_eth_rss_reta_entry64 *reta_conf,
62 : : uint16_t reta_size);
63 : : static int virtio_dev_rss_reta_query(struct rte_eth_dev *dev,
64 : : struct rte_eth_rss_reta_entry64 *reta_conf,
65 : : uint16_t reta_size);
66 : :
67 : : static void virtio_set_hwaddr(struct virtio_hw *hw);
68 : : static void virtio_get_hwaddr(struct virtio_hw *hw);
69 : :
70 : : static int virtio_dev_stats_get(struct rte_eth_dev *dev,
71 : : struct rte_eth_stats *stats);
72 : : static int virtio_dev_xstats_get(struct rte_eth_dev *dev,
73 : : struct rte_eth_xstat *xstats, unsigned n);
74 : : static int virtio_dev_xstats_get_names(struct rte_eth_dev *dev,
75 : : struct rte_eth_xstat_name *xstats_names,
76 : : unsigned limit);
77 : : static int virtio_dev_stats_reset(struct rte_eth_dev *dev);
78 : : static void virtio_dev_free_mbufs(struct rte_eth_dev *dev);
79 : : static int virtio_vlan_filter_set(struct rte_eth_dev *dev,
80 : : uint16_t vlan_id, int on);
81 : : static int virtio_mac_addr_add(struct rte_eth_dev *dev,
82 : : struct rte_ether_addr *mac_addr,
83 : : uint32_t index, uint32_t vmdq);
84 : : static void virtio_mac_addr_remove(struct rte_eth_dev *dev, uint32_t index);
85 : : static int virtio_mac_addr_set(struct rte_eth_dev *dev,
86 : : struct rte_ether_addr *mac_addr);
87 : :
88 : : static int virtio_intr_disable(struct rte_eth_dev *dev);
89 : : static int virtio_get_monitor_addr(void *rx_queue,
90 : : struct rte_power_monitor_cond *pmc);
91 : :
92 : : static int virtio_dev_queue_stats_mapping_set(
93 : : struct rte_eth_dev *eth_dev,
94 : : uint16_t queue_id,
95 : : uint8_t stat_idx,
96 : : uint8_t is_rx);
97 : :
98 : : static void virtio_notify_peers(struct rte_eth_dev *dev);
99 : : static void virtio_ack_link_announce(struct rte_eth_dev *dev);
100 : :
101 : : struct rte_virtio_xstats_name_off {
102 : : char name[RTE_ETH_XSTATS_NAME_SIZE];
103 : : unsigned offset;
104 : : };
105 : :
106 : : /* [rt]x_qX_ is prepended to the name string here */
107 : : static const struct rte_virtio_xstats_name_off rte_virtio_rxq_stat_strings[] = {
108 : : {"good_packets", offsetof(struct virtnet_rx, stats.packets)},
109 : : {"good_bytes", offsetof(struct virtnet_rx, stats.bytes)},
110 : : {"errors", offsetof(struct virtnet_rx, stats.errors)},
111 : : {"multicast_packets", offsetof(struct virtnet_rx, stats.multicast)},
112 : : {"broadcast_packets", offsetof(struct virtnet_rx, stats.broadcast)},
113 : : {"undersize_packets", offsetof(struct virtnet_rx, stats.size_bins[0])},
114 : : {"size_64_packets", offsetof(struct virtnet_rx, stats.size_bins[1])},
115 : : {"size_65_127_packets", offsetof(struct virtnet_rx, stats.size_bins[2])},
116 : : {"size_128_255_packets", offsetof(struct virtnet_rx, stats.size_bins[3])},
117 : : {"size_256_511_packets", offsetof(struct virtnet_rx, stats.size_bins[4])},
118 : : {"size_512_1023_packets", offsetof(struct virtnet_rx, stats.size_bins[5])},
119 : : {"size_1024_1518_packets", offsetof(struct virtnet_rx, stats.size_bins[6])},
120 : : {"size_1519_max_packets", offsetof(struct virtnet_rx, stats.size_bins[7])},
121 : : };
122 : :
123 : : /* [rt]x_qX_ is prepended to the name string here */
124 : : static const struct rte_virtio_xstats_name_off rte_virtio_txq_stat_strings[] = {
125 : : {"good_packets", offsetof(struct virtnet_tx, stats.packets)},
126 : : {"good_bytes", offsetof(struct virtnet_tx, stats.bytes)},
127 : : {"multicast_packets", offsetof(struct virtnet_tx, stats.multicast)},
128 : : {"broadcast_packets", offsetof(struct virtnet_tx, stats.broadcast)},
129 : : {"undersize_packets", offsetof(struct virtnet_tx, stats.size_bins[0])},
130 : : {"size_64_packets", offsetof(struct virtnet_tx, stats.size_bins[1])},
131 : : {"size_65_127_packets", offsetof(struct virtnet_tx, stats.size_bins[2])},
132 : : {"size_128_255_packets", offsetof(struct virtnet_tx, stats.size_bins[3])},
133 : : {"size_256_511_packets", offsetof(struct virtnet_tx, stats.size_bins[4])},
134 : : {"size_512_1023_packets", offsetof(struct virtnet_tx, stats.size_bins[5])},
135 : : {"size_1024_1518_packets", offsetof(struct virtnet_tx, stats.size_bins[6])},
136 : : {"size_1519_max_packets", offsetof(struct virtnet_tx, stats.size_bins[7])},
137 : : };
138 : :
139 : : #define VIRTIO_NB_RXQ_XSTATS (sizeof(rte_virtio_rxq_stat_strings) / \
140 : : sizeof(rte_virtio_rxq_stat_strings[0]))
141 : : #define VIRTIO_NB_TXQ_XSTATS (sizeof(rte_virtio_txq_stat_strings) / \
142 : : sizeof(rte_virtio_txq_stat_strings[0]))
143 : :
144 : : struct virtio_hw_internal virtio_hw_internal[RTE_MAX_ETHPORTS];
145 : :
146 : : static int
147 : 0 : virtio_set_multiple_queues_rss(struct rte_eth_dev *dev, uint16_t nb_queues)
148 : : {
149 : 0 : struct virtio_hw *hw = dev->data->dev_private;
150 : : struct virtio_pmd_ctrl ctrl;
151 : : struct virtio_net_ctrl_rss rss;
152 : : int dlen, ret;
153 : :
154 : 0 : rss.hash_types = hw->rss_hash_types & VIRTIO_NET_HASH_TYPE_MASK;
155 : : RTE_BUILD_BUG_ON(!RTE_IS_POWER_OF_2(VIRTIO_NET_RSS_RETA_SIZE));
156 : 0 : rss.indirection_table_mask = VIRTIO_NET_RSS_RETA_SIZE - 1;
157 : 0 : rss.unclassified_queue = 0;
158 : 0 : memcpy(rss.indirection_table, hw->rss_reta, VIRTIO_NET_RSS_RETA_SIZE * sizeof(uint16_t));
159 : 0 : rss.max_tx_vq = nb_queues;
160 : 0 : rss.hash_key_length = VIRTIO_NET_RSS_KEY_SIZE;
161 : 0 : memcpy(rss.hash_key_data, hw->rss_key, VIRTIO_NET_RSS_KEY_SIZE);
162 : :
163 : 0 : ctrl.hdr.class = VIRTIO_NET_CTRL_MQ;
164 : 0 : ctrl.hdr.cmd = VIRTIO_NET_CTRL_MQ_RSS_CONFIG;
165 : : memcpy(ctrl.data, &rss, sizeof(rss));
166 : :
167 : 0 : dlen = sizeof(rss);
168 : :
169 : 0 : ret = virtio_send_command(hw->cvq, &ctrl, &dlen, 1);
170 [ # # ]: 0 : if (ret) {
171 : 0 : PMD_INIT_LOG(ERR, "RSS multiqueue configured but send command failed");
172 : 0 : return -EINVAL;
173 : : }
174 : :
175 : : return 0;
176 : : }
177 : :
178 : : static int
179 : 0 : virtio_set_multiple_queues_auto(struct rte_eth_dev *dev, uint16_t nb_queues)
180 : : {
181 : 0 : struct virtio_hw *hw = dev->data->dev_private;
182 : : struct virtio_pmd_ctrl ctrl;
183 : : int dlen;
184 : : int ret;
185 : :
186 : 0 : ctrl.hdr.class = VIRTIO_NET_CTRL_MQ;
187 : 0 : ctrl.hdr.cmd = VIRTIO_NET_CTRL_MQ_VQ_PAIRS_SET;
188 : : memcpy(ctrl.data, &nb_queues, sizeof(uint16_t));
189 : :
190 : 0 : dlen = sizeof(uint16_t);
191 : :
192 : 0 : ret = virtio_send_command(hw->cvq, &ctrl, &dlen, 1);
193 [ # # ]: 0 : if (ret) {
194 : 0 : PMD_INIT_LOG(ERR, "Multiqueue configured but send command "
195 : : "failed, this is too late now...");
196 : 0 : return -EINVAL;
197 : : }
198 : :
199 : : return 0;
200 : : }
201 : :
202 : : static int
203 : 0 : virtio_set_multiple_queues(struct rte_eth_dev *dev, uint16_t nb_queues)
204 : : {
205 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
206 : :
207 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_RSS))
208 : 0 : return virtio_set_multiple_queues_rss(dev, nb_queues);
209 : : else
210 : 0 : return virtio_set_multiple_queues_auto(dev, nb_queues);
211 : : }
212 : :
213 : : static uint16_t
214 : : virtio_get_nr_vq(struct virtio_hw *hw)
215 : : {
216 : 0 : uint16_t nr_vq = hw->max_queue_pairs * 2;
217 : :
218 [ # # # # : 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_CTRL_VQ))
# # ]
219 : 0 : nr_vq += 1;
220 : :
221 : : return nr_vq;
222 : : }
223 : :
224 : : static void
225 : 0 : virtio_control_queue_notify(struct virtqueue *vq, __rte_unused void *cookie)
226 : : {
227 : : virtqueue_notify(vq);
228 : 0 : }
229 : :
230 : : static int
231 : 0 : virtio_init_queue(struct rte_eth_dev *dev, uint16_t queue_idx)
232 : : {
233 : : char vq_name[VIRTQUEUE_MAX_NAME_SZ];
234 : : unsigned int vq_size;
235 : 0 : struct virtio_hw *hw = dev->data->dev_private;
236 : : struct virtqueue *vq;
237 [ # # ]: 0 : int queue_type = virtio_get_queue_type(hw, queue_idx);
238 : : int ret;
239 : 0 : int numa_node = dev->device->numa_node;
240 : :
241 : 0 : PMD_INIT_LOG(INFO, "setting up queue: %u on NUMA node %d",
242 : : queue_idx, numa_node);
243 : :
244 : : /*
245 : : * Read the virtqueue size from the Queue Size field
246 : : * Always power of 2 and if 0 virtqueue does not exist
247 : : */
248 : 0 : vq_size = VIRTIO_OPS(hw)->get_queue_num(hw, queue_idx);
249 : 0 : PMD_INIT_LOG(DEBUG, "vq_size: %u", vq_size);
250 [ # # ]: 0 : if (vq_size == 0) {
251 : 0 : PMD_INIT_LOG(ERR, "virtqueue does not exist");
252 : 0 : return -EINVAL;
253 : : }
254 : :
255 [ # # ]: 0 : if (!virtio_with_packed_queue(hw) && !rte_is_power_of_2(vq_size)) {
256 : 0 : PMD_INIT_LOG(ERR, "split virtqueue size is not power of 2");
257 : 0 : return -EINVAL;
258 : : }
259 : :
260 : 0 : snprintf(vq_name, sizeof(vq_name), "port%d_vq%d", dev->data->port_id, queue_idx);
261 : :
262 : 0 : vq = virtqueue_alloc(hw, queue_idx, vq_size, queue_type, numa_node, vq_name);
263 [ # # ]: 0 : if (!vq) {
264 : 0 : PMD_INIT_LOG(ERR, "virtqueue init failed");
265 : 0 : return -ENOMEM;
266 : : }
267 : :
268 : 0 : hw->vqs[queue_idx] = vq;
269 : :
270 [ # # ]: 0 : if (queue_type == VTNET_CQ) {
271 : 0 : hw->cvq = &vq->cq;
272 : 0 : vq->cq.notify_queue = &virtio_control_queue_notify;
273 : : }
274 : :
275 [ # # ]: 0 : if (VIRTIO_OPS(hw)->setup_queue(hw, vq) < 0) {
276 : 0 : PMD_INIT_LOG(ERR, "setup_queue failed");
277 : : ret = -EINVAL;
278 : 0 : goto clean_vq;
279 : : }
280 : :
281 : : return 0;
282 : :
283 : : clean_vq:
284 [ # # ]: 0 : if (queue_type == VTNET_CQ)
285 : 0 : hw->cvq = NULL;
286 : 0 : virtqueue_free(vq);
287 : 0 : hw->vqs[queue_idx] = NULL;
288 : :
289 : 0 : return ret;
290 : : }
291 : :
292 : : static void
293 [ # # ]: 0 : virtio_free_queues(struct virtio_hw *hw)
294 : : {
295 : : uint16_t nr_vq = virtio_get_nr_vq(hw);
296 : : struct virtqueue *vq;
297 : : uint16_t i;
298 : :
299 [ # # ]: 0 : if (hw->vqs == NULL)
300 : : return;
301 : :
302 [ # # ]: 0 : for (i = 0; i < nr_vq; i++) {
303 : 0 : vq = hw->vqs[i];
304 [ # # ]: 0 : if (!vq)
305 : 0 : continue;
306 : 0 : virtqueue_free(vq);
307 : 0 : hw->vqs[i] = NULL;
308 : : }
309 : :
310 : 0 : rte_free(hw->vqs);
311 : 0 : hw->vqs = NULL;
312 : : }
313 : :
314 : : static int
315 : 0 : virtio_alloc_queues(struct rte_eth_dev *dev)
316 : : {
317 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
318 : : uint16_t nr_vq = virtio_get_nr_vq(hw);
319 : : uint16_t i;
320 : : int ret;
321 : :
322 : 0 : hw->vqs = rte_zmalloc(NULL, sizeof(struct virtqueue *) * nr_vq, 0);
323 [ # # ]: 0 : if (!hw->vqs) {
324 : 0 : PMD_INIT_LOG(ERR, "failed to allocate vqs");
325 : 0 : return -ENOMEM;
326 : : }
327 : :
328 [ # # ]: 0 : for (i = 0; i < nr_vq; i++) {
329 : 0 : ret = virtio_init_queue(dev, i);
330 [ # # ]: 0 : if (ret < 0) {
331 : 0 : virtio_free_queues(hw);
332 : 0 : return ret;
333 : : }
334 : : }
335 : :
336 : : return 0;
337 : : }
338 : :
339 : : static void virtio_queues_unbind_intr(struct rte_eth_dev *dev);
340 : :
341 : : static void
342 : : virtio_free_rss(struct virtio_hw *hw)
343 : : {
344 : 0 : rte_free(hw->rss_key);
345 : 0 : hw->rss_key = NULL;
346 : :
347 : 0 : rte_free(hw->rss_reta);
348 : 0 : hw->rss_reta = NULL;
349 : : }
350 : :
351 : : int
352 : 0 : virtio_dev_close(struct rte_eth_dev *dev)
353 : : {
354 : 0 : struct virtio_hw *hw = dev->data->dev_private;
355 : : struct rte_eth_intr_conf *intr_conf = &dev->data->dev_conf.intr_conf;
356 : :
357 : 0 : PMD_INIT_LOG(DEBUG, "virtio_dev_close");
358 [ # # ]: 0 : if (rte_eal_process_type() != RTE_PROC_PRIMARY)
359 : : return 0;
360 : :
361 [ # # ]: 0 : if (!hw->opened)
362 : : return 0;
363 : 0 : hw->opened = 0;
364 : :
365 : : /* reset the NIC */
366 [ # # ]: 0 : if (dev->data->dev_flags & RTE_ETH_DEV_INTR_LSC)
367 : 0 : VIRTIO_OPS(hw)->set_config_irq(hw, VIRTIO_MSI_NO_VECTOR);
368 [ # # ]: 0 : if (intr_conf->rxq)
369 : 0 : virtio_queues_unbind_intr(dev);
370 : :
371 [ # # ]: 0 : if (intr_conf->lsc || intr_conf->rxq) {
372 : 0 : virtio_intr_disable(dev);
373 : 0 : rte_intr_efd_disable(dev->intr_handle);
374 : 0 : rte_intr_vec_list_free(dev->intr_handle);
375 : : }
376 : :
377 : 0 : virtio_reset(hw);
378 : 0 : virtio_dev_free_mbufs(dev);
379 : 0 : virtio_free_queues(hw);
380 : : virtio_free_rss(hw);
381 : :
382 : 0 : return VIRTIO_OPS(hw)->dev_close(hw);
383 : : }
384 : :
385 : : static int
386 : 0 : virtio_dev_promiscuous_enable(struct rte_eth_dev *dev)
387 : : {
388 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
389 : : struct virtio_pmd_ctrl ctrl;
390 : : int dlen[1];
391 : : int ret;
392 : :
393 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_CTRL_RX)) {
394 : 0 : PMD_INIT_LOG(INFO, "host does not support rx control");
395 : 0 : return -ENOTSUP;
396 : : }
397 : :
398 : 0 : ctrl.hdr.class = VIRTIO_NET_CTRL_RX;
399 : 0 : ctrl.hdr.cmd = VIRTIO_NET_CTRL_RX_PROMISC;
400 : 0 : ctrl.data[0] = 1;
401 : 0 : dlen[0] = 1;
402 : :
403 : 0 : ret = virtio_send_command(hw->cvq, &ctrl, dlen, 1);
404 [ # # ]: 0 : if (ret) {
405 : 0 : PMD_INIT_LOG(ERR, "Failed to enable promisc");
406 : 0 : return -EAGAIN;
407 : : }
408 : :
409 : : return 0;
410 : : }
411 : :
412 : : static int
413 : 0 : virtio_dev_promiscuous_disable(struct rte_eth_dev *dev)
414 : : {
415 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
416 : : struct virtio_pmd_ctrl ctrl;
417 : : int dlen[1];
418 : : int ret;
419 : :
420 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_CTRL_RX)) {
421 : 0 : PMD_INIT_LOG(INFO, "host does not support rx control");
422 : 0 : return -ENOTSUP;
423 : : }
424 : :
425 : 0 : ctrl.hdr.class = VIRTIO_NET_CTRL_RX;
426 : 0 : ctrl.hdr.cmd = VIRTIO_NET_CTRL_RX_PROMISC;
427 : 0 : ctrl.data[0] = 0;
428 : 0 : dlen[0] = 1;
429 : :
430 : 0 : ret = virtio_send_command(hw->cvq, &ctrl, dlen, 1);
431 [ # # ]: 0 : if (ret) {
432 : 0 : PMD_INIT_LOG(ERR, "Failed to disable promisc");
433 : 0 : return -EAGAIN;
434 : : }
435 : :
436 : : return 0;
437 : : }
438 : :
439 : : static int
440 : 0 : virtio_dev_allmulticast_enable(struct rte_eth_dev *dev)
441 : : {
442 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
443 : : struct virtio_pmd_ctrl ctrl;
444 : : int dlen[1];
445 : : int ret;
446 : :
447 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_CTRL_RX)) {
448 : 0 : PMD_INIT_LOG(INFO, "host does not support rx control");
449 : 0 : return -ENOTSUP;
450 : : }
451 : :
452 : 0 : ctrl.hdr.class = VIRTIO_NET_CTRL_RX;
453 : 0 : ctrl.hdr.cmd = VIRTIO_NET_CTRL_RX_ALLMULTI;
454 : 0 : ctrl.data[0] = 1;
455 : 0 : dlen[0] = 1;
456 : :
457 : 0 : ret = virtio_send_command(hw->cvq, &ctrl, dlen, 1);
458 [ # # ]: 0 : if (ret) {
459 : 0 : PMD_INIT_LOG(ERR, "Failed to enable allmulticast");
460 : 0 : return -EAGAIN;
461 : : }
462 : :
463 : : return 0;
464 : : }
465 : :
466 : : static int
467 : 0 : virtio_dev_allmulticast_disable(struct rte_eth_dev *dev)
468 : : {
469 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
470 : : struct virtio_pmd_ctrl ctrl;
471 : : int dlen[1];
472 : : int ret;
473 : :
474 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_CTRL_RX)) {
475 : 0 : PMD_INIT_LOG(INFO, "host does not support rx control");
476 : 0 : return -ENOTSUP;
477 : : }
478 : :
479 : 0 : ctrl.hdr.class = VIRTIO_NET_CTRL_RX;
480 : 0 : ctrl.hdr.cmd = VIRTIO_NET_CTRL_RX_ALLMULTI;
481 : 0 : ctrl.data[0] = 0;
482 : 0 : dlen[0] = 1;
483 : :
484 : 0 : ret = virtio_send_command(hw->cvq, &ctrl, dlen, 1);
485 [ # # ]: 0 : if (ret) {
486 : 0 : PMD_INIT_LOG(ERR, "Failed to disable allmulticast");
487 : 0 : return -EAGAIN;
488 : : }
489 : :
490 : : return 0;
491 : : }
492 : :
493 : : uint16_t
494 [ # # ]: 0 : virtio_rx_mem_pool_buf_size(struct rte_mempool *mp)
495 : : {
496 : 0 : return rte_pktmbuf_data_room_size(mp) - RTE_PKTMBUF_HEADROOM;
497 : : }
498 : :
499 : : bool
500 : 0 : virtio_rx_check_scatter(uint16_t max_rx_pkt_len, uint16_t rx_buf_size,
501 : : bool rx_scatter_enabled, const char **error)
502 : : {
503 [ # # ]: 0 : if (!rx_scatter_enabled && max_rx_pkt_len > rx_buf_size) {
504 : 0 : *error = "Rx scatter is disabled and RxQ mbuf pool object size is too small";
505 : 0 : return false;
506 : : }
507 : :
508 : : return true;
509 : : }
510 : :
511 : : static bool
512 : 0 : virtio_check_scatter_on_all_rx_queues(struct rte_eth_dev *dev,
513 : : uint16_t frame_size)
514 : : {
515 : 0 : struct virtio_hw *hw = dev->data->dev_private;
516 : : struct virtnet_rx *rxvq;
517 : : struct virtqueue *vq;
518 : : unsigned int qidx;
519 : : uint16_t buf_size;
520 : : const char *error;
521 : :
522 [ # # ]: 0 : if (hw->vqs == NULL)
523 : : return true;
524 : :
525 [ # # ]: 0 : for (qidx = 0; qidx < hw->max_queue_pairs; qidx++) {
526 : 0 : vq = hw->vqs[2 * qidx + VTNET_SQ_RQ_QUEUE_IDX];
527 [ # # ]: 0 : if (vq == NULL)
528 : 0 : continue;
529 : :
530 : : rxvq = &vq->rxq;
531 [ # # ]: 0 : if (rxvq->mpool == NULL)
532 : 0 : continue;
533 : 0 : buf_size = virtio_rx_mem_pool_buf_size(rxvq->mpool);
534 : :
535 [ # # ]: 0 : if (!virtio_rx_check_scatter(frame_size, buf_size,
536 : 0 : hw->rx_ol_scatter, &error)) {
537 : 0 : PMD_INIT_LOG(ERR, "MTU check for RxQ %u failed: %s",
538 : : qidx, error);
539 : 0 : return false;
540 : : }
541 : : }
542 : :
543 : : return true;
544 : : }
545 : :
546 : : #define VLAN_TAG_LEN 4 /* 802.3ac tag (not DMA'd) */
547 : : static int
548 : 0 : virtio_mtu_set(struct rte_eth_dev *dev, uint16_t mtu)
549 : : {
550 : 0 : struct virtio_hw *hw = dev->data->dev_private;
551 : 0 : uint32_t ether_hdr_len = RTE_ETHER_HDR_LEN + VLAN_TAG_LEN +
552 : 0 : hw->vtnet_hdr_size;
553 : 0 : uint32_t frame_size = mtu + ether_hdr_len;
554 : 0 : uint32_t max_frame_size = hw->max_mtu + ether_hdr_len;
555 : :
556 : 0 : max_frame_size = RTE_MIN(max_frame_size, VIRTIO_MAX_RX_PKTLEN);
557 : :
558 [ # # ]: 0 : if (mtu < RTE_ETHER_MIN_MTU || frame_size > max_frame_size) {
559 : 0 : PMD_INIT_LOG(ERR, "MTU should be between %d and %d",
560 : : RTE_ETHER_MIN_MTU, max_frame_size - ether_hdr_len);
561 : 0 : return -EINVAL;
562 : : }
563 : :
564 [ # # ]: 0 : if (!virtio_check_scatter_on_all_rx_queues(dev, frame_size)) {
565 : 0 : PMD_INIT_LOG(ERR, "MTU vs Rx scatter and Rx buffers check failed");
566 : 0 : return -EINVAL;
567 : : }
568 : :
569 : 0 : hw->max_rx_pkt_len = frame_size;
570 : :
571 : 0 : return 0;
572 : : }
573 : :
574 : : static int
575 : 0 : virtio_dev_rx_queue_intr_enable(struct rte_eth_dev *dev, uint16_t queue_id)
576 : : {
577 : 0 : struct virtio_hw *hw = dev->data->dev_private;
578 : 0 : struct virtnet_rx *rxvq = dev->data->rx_queues[queue_id];
579 [ # # ]: 0 : struct virtqueue *vq = virtnet_rxq_to_vq(rxvq);
580 : :
581 : : virtqueue_enable_intr(vq);
582 [ # # ]: 0 : virtio_mb(hw->weak_barriers);
583 : 0 : return 0;
584 : : }
585 : :
586 : : static int
587 : 0 : virtio_dev_rx_queue_intr_disable(struct rte_eth_dev *dev, uint16_t queue_id)
588 : : {
589 : 0 : struct virtnet_rx *rxvq = dev->data->rx_queues[queue_id];
590 [ # # ]: 0 : struct virtqueue *vq = virtnet_rxq_to_vq(rxvq);
591 : :
592 : : virtqueue_disable_intr(vq);
593 : 0 : return 0;
594 : : }
595 : :
596 : : static int
597 : 0 : virtio_dev_priv_dump(struct rte_eth_dev *dev, FILE *f)
598 : : {
599 : 0 : struct virtio_hw *hw = dev->data->dev_private;
600 : :
601 : 0 : fprintf(f, "guest_features: 0x%" PRIx64 "\n", hw->guest_features);
602 : 0 : fprintf(f, "vtnet_hdr_size: %u\n", hw->vtnet_hdr_size);
603 : 0 : fprintf(f, "use_vec: rx-%u tx-%u\n", hw->use_vec_rx, hw->use_vec_tx);
604 : 0 : fprintf(f, "use_inorder: rx-%u tx-%u\n", hw->use_inorder_rx, hw->use_inorder_tx);
605 : 0 : fprintf(f, "intr_lsc: %u\n", hw->intr_lsc);
606 : 0 : fprintf(f, "max_mtu: %u\n", hw->max_mtu);
607 : 0 : fprintf(f, "max_rx_pkt_len: %zu\n", hw->max_rx_pkt_len);
608 : 0 : fprintf(f, "max_queue_pairs: %u\n", hw->max_queue_pairs);
609 : 0 : fprintf(f, "req_guest_features: 0x%" PRIx64 "\n", hw->req_guest_features);
610 : :
611 : 0 : return 0;
612 : : }
613 : :
614 : : /*
615 : : * dev_ops for virtio, bare necessities for basic operation
616 : : */
617 : : static const struct eth_dev_ops virtio_eth_dev_ops = {
618 : : .dev_configure = virtio_dev_configure,
619 : : .dev_start = virtio_dev_start,
620 : : .dev_stop = virtio_dev_stop,
621 : : .dev_close = virtio_dev_close,
622 : : .promiscuous_enable = virtio_dev_promiscuous_enable,
623 : : .promiscuous_disable = virtio_dev_promiscuous_disable,
624 : : .allmulticast_enable = virtio_dev_allmulticast_enable,
625 : : .allmulticast_disable = virtio_dev_allmulticast_disable,
626 : : .mtu_set = virtio_mtu_set,
627 : : .dev_infos_get = virtio_dev_info_get,
628 : : .stats_get = virtio_dev_stats_get,
629 : : .xstats_get = virtio_dev_xstats_get,
630 : : .xstats_get_names = virtio_dev_xstats_get_names,
631 : : .stats_reset = virtio_dev_stats_reset,
632 : : .xstats_reset = virtio_dev_stats_reset,
633 : : .link_update = virtio_dev_link_update,
634 : : .vlan_offload_set = virtio_dev_vlan_offload_set,
635 : : .rx_queue_setup = virtio_dev_rx_queue_setup,
636 : : .rx_queue_intr_enable = virtio_dev_rx_queue_intr_enable,
637 : : .rx_queue_intr_disable = virtio_dev_rx_queue_intr_disable,
638 : : .tx_queue_setup = virtio_dev_tx_queue_setup,
639 : : .rss_hash_update = virtio_dev_rss_hash_update,
640 : : .rss_hash_conf_get = virtio_dev_rss_hash_conf_get,
641 : : .reta_update = virtio_dev_rss_reta_update,
642 : : .reta_query = virtio_dev_rss_reta_query,
643 : : /* collect stats per queue */
644 : : .queue_stats_mapping_set = virtio_dev_queue_stats_mapping_set,
645 : : .vlan_filter_set = virtio_vlan_filter_set,
646 : : .mac_addr_add = virtio_mac_addr_add,
647 : : .mac_addr_remove = virtio_mac_addr_remove,
648 : : .mac_addr_set = virtio_mac_addr_set,
649 : : .get_monitor_addr = virtio_get_monitor_addr,
650 : : .eth_dev_priv_dump = virtio_dev_priv_dump,
651 : : };
652 : :
653 : : /*
654 : : * dev_ops for virtio-user in secondary processes, as we just have
655 : : * some limited supports currently.
656 : : */
657 : : const struct eth_dev_ops virtio_user_secondary_eth_dev_ops = {
658 : : .dev_infos_get = virtio_dev_info_get,
659 : : .stats_get = virtio_dev_stats_get,
660 : : .xstats_get = virtio_dev_xstats_get,
661 : : .xstats_get_names = virtio_dev_xstats_get_names,
662 : : .stats_reset = virtio_dev_stats_reset,
663 : : .xstats_reset = virtio_dev_stats_reset,
664 : : /* collect stats per queue */
665 : : .queue_stats_mapping_set = virtio_dev_queue_stats_mapping_set,
666 : : };
667 : :
668 : : static void
669 : 0 : virtio_update_stats(struct rte_eth_dev *dev, struct rte_eth_stats *stats)
670 : : {
671 : : unsigned i;
672 : :
673 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
674 : 0 : const struct virtnet_tx *txvq = dev->data->tx_queues[i];
675 [ # # ]: 0 : if (txvq == NULL)
676 : 0 : continue;
677 : :
678 : 0 : stats->opackets += txvq->stats.packets;
679 : 0 : stats->obytes += txvq->stats.bytes;
680 : :
681 [ # # ]: 0 : if (i < RTE_ETHDEV_QUEUE_STAT_CNTRS) {
682 : 0 : stats->q_opackets[i] = txvq->stats.packets;
683 : 0 : stats->q_obytes[i] = txvq->stats.bytes;
684 : : }
685 : : }
686 : :
687 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
688 : 0 : const struct virtnet_rx *rxvq = dev->data->rx_queues[i];
689 [ # # ]: 0 : if (rxvq == NULL)
690 : 0 : continue;
691 : :
692 : 0 : stats->ipackets += rxvq->stats.packets;
693 : 0 : stats->ibytes += rxvq->stats.bytes;
694 : 0 : stats->ierrors += rxvq->stats.errors;
695 : :
696 [ # # ]: 0 : if (i < RTE_ETHDEV_QUEUE_STAT_CNTRS) {
697 : 0 : stats->q_ipackets[i] = rxvq->stats.packets;
698 : 0 : stats->q_ibytes[i] = rxvq->stats.bytes;
699 : : }
700 : : }
701 : :
702 : 0 : stats->rx_nombuf = dev->data->rx_mbuf_alloc_failed;
703 : 0 : }
704 : :
705 : 0 : static int virtio_dev_xstats_get_names(struct rte_eth_dev *dev,
706 : : struct rte_eth_xstat_name *xstats_names,
707 : : __rte_unused unsigned limit)
708 : : {
709 : : unsigned i;
710 : : unsigned count = 0;
711 : : unsigned t;
712 : :
713 : 0 : unsigned nstats = dev->data->nb_tx_queues * VIRTIO_NB_TXQ_XSTATS +
714 : 0 : dev->data->nb_rx_queues * VIRTIO_NB_RXQ_XSTATS;
715 : :
716 [ # # ]: 0 : if (xstats_names != NULL) {
717 : : /* Note: limit checked in rte_eth_xstats_names() */
718 : :
719 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
720 : 0 : struct virtnet_rx *rxvq = dev->data->rx_queues[i];
721 [ # # ]: 0 : if (rxvq == NULL)
722 : 0 : continue;
723 [ # # ]: 0 : for (t = 0; t < VIRTIO_NB_RXQ_XSTATS; t++) {
724 : 0 : snprintf(xstats_names[count].name,
725 : : sizeof(xstats_names[count].name),
726 : : "rx_q%u_%s", i,
727 : 0 : rte_virtio_rxq_stat_strings[t].name);
728 : 0 : count++;
729 : : }
730 : : }
731 : :
732 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
733 : 0 : struct virtnet_tx *txvq = dev->data->tx_queues[i];
734 [ # # ]: 0 : if (txvq == NULL)
735 : 0 : continue;
736 [ # # ]: 0 : for (t = 0; t < VIRTIO_NB_TXQ_XSTATS; t++) {
737 : 0 : snprintf(xstats_names[count].name,
738 : : sizeof(xstats_names[count].name),
739 : : "tx_q%u_%s", i,
740 : 0 : rte_virtio_txq_stat_strings[t].name);
741 : 0 : count++;
742 : : }
743 : : }
744 : 0 : return count;
745 : : }
746 : 0 : return nstats;
747 : : }
748 : :
749 : : static int
750 : 0 : virtio_dev_xstats_get(struct rte_eth_dev *dev, struct rte_eth_xstat *xstats,
751 : : unsigned n)
752 : : {
753 : : unsigned i;
754 : : unsigned count = 0;
755 : :
756 : 0 : unsigned nstats = dev->data->nb_tx_queues * VIRTIO_NB_TXQ_XSTATS +
757 : 0 : dev->data->nb_rx_queues * VIRTIO_NB_RXQ_XSTATS;
758 : :
759 [ # # ]: 0 : if (n < nstats)
760 : 0 : return nstats;
761 : :
762 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
763 : 0 : struct virtnet_rx *rxvq = dev->data->rx_queues[i];
764 : :
765 [ # # ]: 0 : if (rxvq == NULL)
766 : 0 : continue;
767 : :
768 : : unsigned t;
769 : :
770 [ # # ]: 0 : for (t = 0; t < VIRTIO_NB_RXQ_XSTATS; t++) {
771 : 0 : xstats[count].value = *(uint64_t *)(((char *)rxvq) +
772 : 0 : rte_virtio_rxq_stat_strings[t].offset);
773 : 0 : xstats[count].id = count;
774 : 0 : count++;
775 : : }
776 : : }
777 : :
778 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
779 : 0 : struct virtnet_tx *txvq = dev->data->tx_queues[i];
780 : :
781 [ # # ]: 0 : if (txvq == NULL)
782 : 0 : continue;
783 : :
784 : : unsigned t;
785 : :
786 [ # # ]: 0 : for (t = 0; t < VIRTIO_NB_TXQ_XSTATS; t++) {
787 : 0 : xstats[count].value = *(uint64_t *)(((char *)txvq) +
788 : 0 : rte_virtio_txq_stat_strings[t].offset);
789 : 0 : xstats[count].id = count;
790 : 0 : count++;
791 : : }
792 : : }
793 : :
794 : 0 : return count;
795 : : }
796 : :
797 : : static int
798 : 0 : virtio_dev_stats_get(struct rte_eth_dev *dev, struct rte_eth_stats *stats)
799 : : {
800 : 0 : virtio_update_stats(dev, stats);
801 : :
802 : 0 : return 0;
803 : : }
804 : :
805 : : static int
806 : 0 : virtio_dev_stats_reset(struct rte_eth_dev *dev)
807 : : {
808 : : unsigned int i;
809 : :
810 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
811 : 0 : struct virtnet_tx *txvq = dev->data->tx_queues[i];
812 [ # # ]: 0 : if (txvq == NULL)
813 : 0 : continue;
814 : :
815 : 0 : txvq->stats.packets = 0;
816 : 0 : txvq->stats.bytes = 0;
817 : 0 : txvq->stats.multicast = 0;
818 : 0 : txvq->stats.broadcast = 0;
819 : 0 : memset(txvq->stats.size_bins, 0,
820 : : sizeof(txvq->stats.size_bins[0]) * 8);
821 : : }
822 : :
823 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
824 : 0 : struct virtnet_rx *rxvq = dev->data->rx_queues[i];
825 [ # # ]: 0 : if (rxvq == NULL)
826 : 0 : continue;
827 : :
828 : 0 : rxvq->stats.packets = 0;
829 : 0 : rxvq->stats.bytes = 0;
830 : 0 : rxvq->stats.errors = 0;
831 : 0 : rxvq->stats.multicast = 0;
832 : 0 : rxvq->stats.broadcast = 0;
833 : 0 : memset(rxvq->stats.size_bins, 0,
834 : : sizeof(rxvq->stats.size_bins[0]) * 8);
835 : : }
836 : :
837 : 0 : return 0;
838 : : }
839 : :
840 : : static void
841 : : virtio_set_hwaddr(struct virtio_hw *hw)
842 : : {
843 : 0 : virtio_write_dev_config(hw,
844 : : offsetof(struct virtio_net_config, mac),
845 : : &hw->mac_addr, RTE_ETHER_ADDR_LEN);
846 : 0 : }
847 : :
848 : : static void
849 [ # # ]: 0 : virtio_get_hwaddr(struct virtio_hw *hw)
850 : : {
851 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_MAC)) {
852 : 0 : virtio_read_dev_config(hw,
853 : : offsetof(struct virtio_net_config, mac),
854 : 0 : &hw->mac_addr, RTE_ETHER_ADDR_LEN);
855 : : } else {
856 : 0 : rte_eth_random_addr(&hw->mac_addr[0]);
857 : : virtio_set_hwaddr(hw);
858 : : }
859 : 0 : }
860 : :
861 : : static int
862 [ # # ]: 0 : virtio_mac_table_set(struct virtio_hw *hw,
863 : : const struct virtio_net_ctrl_mac *uc,
864 : : const struct virtio_net_ctrl_mac *mc)
865 : : {
866 : : struct virtio_pmd_ctrl ctrl;
867 : : int err, len[2];
868 : :
869 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_CTRL_MAC_ADDR)) {
870 : 0 : PMD_DRV_LOG(INFO, "host does not support mac table");
871 : 0 : return -1;
872 : : }
873 : :
874 : 0 : ctrl.hdr.class = VIRTIO_NET_CTRL_MAC;
875 : 0 : ctrl.hdr.cmd = VIRTIO_NET_CTRL_MAC_TABLE_SET;
876 : :
877 : 0 : len[0] = uc->entries * RTE_ETHER_ADDR_LEN + sizeof(uc->entries);
878 : 0 : memcpy(ctrl.data, uc, len[0]);
879 : :
880 : 0 : len[1] = mc->entries * RTE_ETHER_ADDR_LEN + sizeof(mc->entries);
881 : 0 : memcpy(ctrl.data + len[0], mc, len[1]);
882 : :
883 : 0 : err = virtio_send_command(hw->cvq, &ctrl, len, 2);
884 [ # # ]: 0 : if (err != 0)
885 : 0 : PMD_DRV_LOG(NOTICE, "mac table set failed: %d", err);
886 : : return err;
887 : : }
888 : :
889 : : static int
890 : 0 : virtio_mac_addr_add(struct rte_eth_dev *dev, struct rte_ether_addr *mac_addr,
891 : : uint32_t index, uint32_t vmdq __rte_unused)
892 : : {
893 : 0 : struct virtio_hw *hw = dev->data->dev_private;
894 : 0 : const struct rte_ether_addr *addrs = dev->data->mac_addrs;
895 : : unsigned int i;
896 : : struct virtio_net_ctrl_mac *uc, *mc;
897 : :
898 [ # # ]: 0 : if (index >= VIRTIO_MAX_MAC_ADDRS) {
899 : 0 : PMD_DRV_LOG(ERR, "mac address index %u out of range", index);
900 : 0 : return -EINVAL;
901 : : }
902 : :
903 : 0 : uc = alloca(VIRTIO_MAX_MAC_ADDRS * RTE_ETHER_ADDR_LEN +
904 : : sizeof(uc->entries));
905 : 0 : uc->entries = 0;
906 : 0 : mc = alloca(VIRTIO_MAX_MAC_ADDRS * RTE_ETHER_ADDR_LEN +
907 : : sizeof(mc->entries));
908 : 0 : mc->entries = 0;
909 : :
910 [ # # ]: 0 : for (i = 0; i < VIRTIO_MAX_MAC_ADDRS; i++) {
911 : : const struct rte_ether_addr *addr
912 [ # # ]: 0 : = (i == index) ? mac_addr : addrs + i;
913 : : struct virtio_net_ctrl_mac *tbl
914 [ # # ]: 0 : = rte_is_multicast_ether_addr(addr) ? mc : uc;
915 : :
916 : 0 : memcpy(&tbl->macs[tbl->entries++], addr, RTE_ETHER_ADDR_LEN);
917 : : }
918 : :
919 : 0 : return virtio_mac_table_set(hw, uc, mc);
920 : : }
921 : :
922 : : static void
923 : 0 : virtio_mac_addr_remove(struct rte_eth_dev *dev, uint32_t index)
924 : : {
925 : 0 : struct virtio_hw *hw = dev->data->dev_private;
926 : 0 : struct rte_ether_addr *addrs = dev->data->mac_addrs;
927 : : struct virtio_net_ctrl_mac *uc, *mc;
928 : : unsigned int i;
929 : :
930 [ # # ]: 0 : if (index >= VIRTIO_MAX_MAC_ADDRS) {
931 : 0 : PMD_DRV_LOG(ERR, "mac address index %u out of range", index);
932 : 0 : return;
933 : : }
934 : :
935 : 0 : uc = alloca(VIRTIO_MAX_MAC_ADDRS * RTE_ETHER_ADDR_LEN +
936 : : sizeof(uc->entries));
937 : 0 : uc->entries = 0;
938 : 0 : mc = alloca(VIRTIO_MAX_MAC_ADDRS * RTE_ETHER_ADDR_LEN +
939 : : sizeof(mc->entries));
940 : 0 : mc->entries = 0;
941 : :
942 [ # # ]: 0 : for (i = 0; i < VIRTIO_MAX_MAC_ADDRS; i++) {
943 : : struct virtio_net_ctrl_mac *tbl;
944 : :
945 [ # # # # ]: 0 : if (i == index || rte_is_zero_ether_addr(addrs + i))
946 : 0 : continue;
947 : :
948 [ # # ]: 0 : tbl = rte_is_multicast_ether_addr(addrs + i) ? mc : uc;
949 : 0 : memcpy(&tbl->macs[tbl->entries++], addrs + i,
950 : : RTE_ETHER_ADDR_LEN);
951 : : }
952 : :
953 : 0 : virtio_mac_table_set(hw, uc, mc);
954 : : }
955 : :
956 : : static int
957 : 0 : virtio_mac_addr_set(struct rte_eth_dev *dev, struct rte_ether_addr *mac_addr)
958 : : {
959 : 0 : struct virtio_hw *hw = dev->data->dev_private;
960 : :
961 [ # # ]: 0 : memcpy(hw->mac_addr, mac_addr, RTE_ETHER_ADDR_LEN);
962 : :
963 : : /* Use atomic update if available */
964 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_CTRL_MAC_ADDR)) {
965 : : struct virtio_pmd_ctrl ctrl;
966 : 0 : int len = RTE_ETHER_ADDR_LEN;
967 : :
968 : 0 : ctrl.hdr.class = VIRTIO_NET_CTRL_MAC;
969 : 0 : ctrl.hdr.cmd = VIRTIO_NET_CTRL_MAC_ADDR_SET;
970 : :
971 : : memcpy(ctrl.data, mac_addr, RTE_ETHER_ADDR_LEN);
972 : 0 : return virtio_send_command(hw->cvq, &ctrl, &len, 1);
973 : : }
974 : :
975 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_MAC))
976 : : return -ENOTSUP;
977 : :
978 : : virtio_set_hwaddr(hw);
979 : 0 : return 0;
980 : : }
981 : :
982 : : #define CLB_VAL_IDX 0
983 : : #define CLB_MSK_IDX 1
984 : : #define CLB_MATCH_IDX 2
985 : : static int
986 : 0 : virtio_monitor_callback(const uint64_t value,
987 : : const uint64_t opaque[RTE_POWER_MONITOR_OPAQUE_SZ])
988 : : {
989 : 0 : const uint64_t m = opaque[CLB_MSK_IDX];
990 : 0 : const uint64_t v = opaque[CLB_VAL_IDX];
991 : 0 : const uint64_t c = opaque[CLB_MATCH_IDX];
992 : :
993 [ # # ]: 0 : if (c)
994 [ # # ]: 0 : return (value & m) == v ? -1 : 0;
995 : : else
996 [ # # ]: 0 : return (value & m) == v ? 0 : -1;
997 : : }
998 : :
999 : : static int
1000 : 0 : virtio_get_monitor_addr(void *rx_queue, struct rte_power_monitor_cond *pmc)
1001 : : {
1002 : : struct virtnet_rx *rxvq = rx_queue;
1003 : 0 : struct virtqueue *vq = virtnet_rxq_to_vq(rxvq);
1004 : : struct virtio_hw *hw;
1005 : :
1006 [ # # ]: 0 : if (vq == NULL)
1007 : : return -EINVAL;
1008 : :
1009 [ # # ]: 0 : hw = vq->hw;
1010 [ # # ]: 0 : if (virtio_with_packed_queue(hw)) {
1011 : : struct vring_packed_desc *desc;
1012 : 0 : desc = vq->vq_packed.ring.desc;
1013 : 0 : pmc->addr = &desc[vq->vq_used_cons_idx].flags;
1014 [ # # ]: 0 : if (vq->vq_packed.used_wrap_counter)
1015 : 0 : pmc->opaque[CLB_VAL_IDX] =
1016 : : VRING_PACKED_DESC_F_AVAIL_USED;
1017 : : else
1018 : 0 : pmc->opaque[CLB_VAL_IDX] = 0;
1019 : 0 : pmc->opaque[CLB_MSK_IDX] = VRING_PACKED_DESC_F_AVAIL_USED;
1020 : 0 : pmc->opaque[CLB_MATCH_IDX] = 1;
1021 : 0 : pmc->size = sizeof(desc[vq->vq_used_cons_idx].flags);
1022 : : } else {
1023 : 0 : pmc->addr = &vq->vq_split.ring.used->idx;
1024 : 0 : pmc->opaque[CLB_VAL_IDX] = vq->vq_used_cons_idx
1025 : 0 : & (vq->vq_nentries - 1);
1026 : 0 : pmc->opaque[CLB_MSK_IDX] = vq->vq_nentries - 1;
1027 : 0 : pmc->opaque[CLB_MATCH_IDX] = 0;
1028 : 0 : pmc->size = sizeof(vq->vq_split.ring.used->idx);
1029 : : }
1030 : 0 : pmc->fn = virtio_monitor_callback;
1031 : :
1032 : 0 : return 0;
1033 : : }
1034 : :
1035 : : static int
1036 : 0 : virtio_vlan_filter_set(struct rte_eth_dev *dev, uint16_t vlan_id, int on)
1037 : : {
1038 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
1039 : : struct virtio_pmd_ctrl ctrl;
1040 : : int len;
1041 : :
1042 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_CTRL_VLAN))
1043 : : return -ENOTSUP;
1044 : :
1045 : 0 : ctrl.hdr.class = VIRTIO_NET_CTRL_VLAN;
1046 : 0 : ctrl.hdr.cmd = on ? VIRTIO_NET_CTRL_VLAN_ADD : VIRTIO_NET_CTRL_VLAN_DEL;
1047 : : memcpy(ctrl.data, &vlan_id, sizeof(vlan_id));
1048 : 0 : len = sizeof(vlan_id);
1049 : :
1050 : 0 : return virtio_send_command(hw->cvq, &ctrl, &len, 1);
1051 : : }
1052 : :
1053 : : static int
1054 : 0 : virtio_intr_unmask(struct rte_eth_dev *dev)
1055 : : {
1056 : 0 : struct virtio_hw *hw = dev->data->dev_private;
1057 : :
1058 [ # # ]: 0 : if (rte_intr_ack(dev->intr_handle) < 0)
1059 : : return -1;
1060 : :
1061 [ # # ]: 0 : if (VIRTIO_OPS(hw)->intr_detect)
1062 : 0 : VIRTIO_OPS(hw)->intr_detect(hw);
1063 : :
1064 : : return 0;
1065 : : }
1066 : :
1067 : : static int
1068 : 0 : virtio_intr_enable(struct rte_eth_dev *dev)
1069 : : {
1070 : 0 : struct virtio_hw *hw = dev->data->dev_private;
1071 : :
1072 [ # # ]: 0 : if (rte_intr_enable(dev->intr_handle) < 0)
1073 : : return -1;
1074 : :
1075 [ # # ]: 0 : if (VIRTIO_OPS(hw)->intr_detect)
1076 : 0 : VIRTIO_OPS(hw)->intr_detect(hw);
1077 : :
1078 : : return 0;
1079 : : }
1080 : :
1081 : : static int
1082 : 0 : virtio_intr_disable(struct rte_eth_dev *dev)
1083 : : {
1084 : 0 : struct virtio_hw *hw = dev->data->dev_private;
1085 : :
1086 [ # # ]: 0 : if (rte_intr_disable(dev->intr_handle) < 0)
1087 : : return -1;
1088 : :
1089 [ # # ]: 0 : if (VIRTIO_OPS(hw)->intr_detect)
1090 : 0 : VIRTIO_OPS(hw)->intr_detect(hw);
1091 : :
1092 : : return 0;
1093 : : }
1094 : :
1095 : : static int
1096 : 0 : virtio_ethdev_negotiate_features(struct virtio_hw *hw, uint64_t req_features)
1097 : : {
1098 : : uint64_t host_features;
1099 : :
1100 : : /* Prepare guest_features: feature that driver wants to support */
1101 : 0 : PMD_INIT_LOG(DEBUG, "guest_features before negotiate = %" PRIx64,
1102 : : req_features);
1103 : :
1104 : : /* Read device(host) feature bits */
1105 : 0 : host_features = VIRTIO_OPS(hw)->get_features(hw);
1106 : 0 : PMD_INIT_LOG(DEBUG, "host_features before negotiate = %" PRIx64,
1107 : : host_features);
1108 : :
1109 : : /* If supported, ensure MTU value is valid before acknowledging it. */
1110 [ # # ]: 0 : if (host_features & req_features & (1ULL << VIRTIO_NET_F_MTU)) {
1111 : : struct virtio_net_config config;
1112 : :
1113 : 0 : virtio_read_dev_config(hw,
1114 : : offsetof(struct virtio_net_config, mtu),
1115 : : &config.mtu, sizeof(config.mtu));
1116 : :
1117 [ # # ]: 0 : if (config.mtu < RTE_ETHER_MIN_MTU)
1118 : 0 : req_features &= ~(1ULL << VIRTIO_NET_F_MTU);
1119 : : }
1120 : :
1121 : : /*
1122 : : * Negotiate features: Subset of device feature bits are written back
1123 : : * guest feature bits.
1124 : : */
1125 : 0 : hw->guest_features = req_features;
1126 : 0 : hw->guest_features = virtio_negotiate_features(hw, host_features);
1127 : 0 : PMD_INIT_LOG(DEBUG, "features after negotiate = %" PRIx64,
1128 : : hw->guest_features);
1129 : :
1130 [ # # ]: 0 : if (VIRTIO_OPS(hw)->features_ok(hw) < 0)
1131 : : return -1;
1132 : :
1133 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_F_VERSION_1)) {
1134 : 0 : virtio_set_status(hw, VIRTIO_CONFIG_STATUS_FEATURES_OK);
1135 : :
1136 [ # # ]: 0 : if (!(virtio_get_status(hw) & VIRTIO_CONFIG_STATUS_FEATURES_OK)) {
1137 : 0 : PMD_INIT_LOG(ERR, "Failed to set FEATURES_OK status!");
1138 : 0 : return -1;
1139 : : }
1140 : : }
1141 : :
1142 : 0 : hw->req_guest_features = req_features;
1143 : :
1144 : 0 : return 0;
1145 : : }
1146 : :
1147 : : static void
1148 : 0 : virtio_notify_peers(struct rte_eth_dev *dev)
1149 : : {
1150 : 0 : struct virtio_hw *hw = dev->data->dev_private;
1151 : : struct virtnet_rx *rxvq;
1152 : : struct rte_mbuf *rarp_mbuf;
1153 : :
1154 [ # # ]: 0 : if (!dev->data->rx_queues)
1155 : 0 : return;
1156 : :
1157 : 0 : rxvq = dev->data->rx_queues[0];
1158 [ # # ]: 0 : if (!rxvq)
1159 : : return;
1160 : :
1161 : 0 : rarp_mbuf = rte_net_make_rarp_packet(rxvq->mpool,
1162 : 0 : (struct rte_ether_addr *)hw->mac_addr);
1163 [ # # ]: 0 : if (rarp_mbuf == NULL) {
1164 : 0 : PMD_DRV_LOG(ERR, "failed to make RARP packet.");
1165 : 0 : return;
1166 : : }
1167 : :
1168 : 0 : rte_spinlock_lock(&hw->state_lock);
1169 [ # # ]: 0 : if (hw->started == 0) {
1170 : : /* If virtio port just stopped, no need to send RARP */
1171 : 0 : rte_pktmbuf_free(rarp_mbuf);
1172 : 0 : goto out;
1173 : : }
1174 : 0 : hw->started = 0;
1175 : :
1176 : : /*
1177 : : * Prevent the worker threads from touching queues to avoid contention,
1178 : : * 1 ms should be enough for the ongoing Tx function to finish.
1179 : : */
1180 : : rte_delay_ms(1);
1181 : :
1182 : 0 : hw->inject_pkts = &rarp_mbuf;
1183 : 0 : dev->tx_pkt_burst(dev->data->tx_queues[0], &rarp_mbuf, 1);
1184 : 0 : hw->inject_pkts = NULL;
1185 : :
1186 : 0 : hw->started = 1;
1187 : :
1188 : 0 : out:
1189 : : rte_spinlock_unlock(&hw->state_lock);
1190 : : }
1191 : :
1192 : : static void
1193 : 0 : virtio_ack_link_announce(struct rte_eth_dev *dev)
1194 : : {
1195 : 0 : struct virtio_hw *hw = dev->data->dev_private;
1196 : : struct virtio_pmd_ctrl ctrl;
1197 : :
1198 : 0 : ctrl.hdr.class = VIRTIO_NET_CTRL_ANNOUNCE;
1199 : 0 : ctrl.hdr.cmd = VIRTIO_NET_CTRL_ANNOUNCE_ACK;
1200 : :
1201 : 0 : virtio_send_command(hw->cvq, &ctrl, NULL, 0);
1202 : 0 : }
1203 : :
1204 : : /*
1205 : : * Process virtio config changed interrupt. Call the callback
1206 : : * if link state changed, generate gratuitous RARP packet if
1207 : : * the status indicates an ANNOUNCE.
1208 : : */
1209 : : void
1210 : 0 : virtio_interrupt_handler(void *param)
1211 : : {
1212 : : struct rte_eth_dev *dev = param;
1213 : 0 : struct virtio_hw *hw = dev->data->dev_private;
1214 : : uint8_t isr;
1215 : : uint16_t status;
1216 : :
1217 : : /* Read interrupt status which clears interrupt */
1218 : 0 : isr = virtio_get_isr(hw);
1219 : 0 : PMD_DRV_LOG(INFO, "interrupt status = %#x", isr);
1220 : :
1221 [ # # ]: 0 : if (virtio_intr_unmask(dev) < 0)
1222 : 0 : PMD_DRV_LOG(ERR, "interrupt enable failed");
1223 : :
1224 [ # # ]: 0 : if (isr & VIRTIO_ISR_CONFIG) {
1225 [ # # ]: 0 : if (virtio_dev_link_update(dev, 0) == 0)
1226 : 0 : rte_eth_dev_callback_process(dev,
1227 : : RTE_ETH_EVENT_INTR_LSC,
1228 : : NULL);
1229 : :
1230 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_STATUS)) {
1231 : 0 : virtio_read_dev_config(hw,
1232 : : offsetof(struct virtio_net_config, status),
1233 : : &status, sizeof(status));
1234 [ # # ]: 0 : if (status & VIRTIO_NET_S_ANNOUNCE) {
1235 : 0 : virtio_notify_peers(dev);
1236 [ # # ]: 0 : if (hw->cvq)
1237 : 0 : virtio_ack_link_announce(dev);
1238 : : }
1239 : : }
1240 : : }
1241 : 0 : }
1242 : :
1243 : : /* set rx and tx handlers according to what is supported */
1244 : : static void
1245 : 0 : set_rxtx_funcs(struct rte_eth_dev *eth_dev)
1246 : : {
1247 : 0 : struct virtio_hw *hw = eth_dev->data->dev_private;
1248 : :
1249 [ # # ]: 0 : eth_dev->tx_pkt_prepare = virtio_xmit_pkts_prepare;
1250 [ # # ]: 0 : if (virtio_with_packed_queue(hw)) {
1251 [ # # ]: 0 : PMD_INIT_LOG(INFO,
1252 : : "virtio: using packed ring %s Tx path on port %u",
1253 : : hw->use_vec_tx ? "vectorized" : "standard",
1254 : : eth_dev->data->port_id);
1255 [ # # ]: 0 : if (hw->use_vec_tx)
1256 : 0 : eth_dev->tx_pkt_burst = virtio_xmit_pkts_packed_vec;
1257 : : else
1258 : 0 : eth_dev->tx_pkt_burst = virtio_xmit_pkts_packed;
1259 : : } else {
1260 [ # # ]: 0 : if (hw->use_inorder_tx) {
1261 : 0 : PMD_INIT_LOG(INFO, "virtio: using inorder Tx path on port %u",
1262 : : eth_dev->data->port_id);
1263 : 0 : eth_dev->tx_pkt_burst = virtio_xmit_pkts_inorder;
1264 : : } else {
1265 : 0 : PMD_INIT_LOG(INFO, "virtio: using standard Tx path on port %u",
1266 : : eth_dev->data->port_id);
1267 : 0 : eth_dev->tx_pkt_burst = virtio_xmit_pkts;
1268 : : }
1269 : : }
1270 : :
1271 [ # # ]: 0 : if (virtio_with_packed_queue(hw)) {
1272 [ # # ]: 0 : if (hw->use_vec_rx) {
1273 : 0 : PMD_INIT_LOG(INFO,
1274 : : "virtio: using packed ring vectorized Rx path on port %u",
1275 : : eth_dev->data->port_id);
1276 : 0 : eth_dev->rx_pkt_burst =
1277 : : &virtio_recv_pkts_packed_vec;
1278 [ # # ]: 0 : } else if (virtio_with_feature(hw, VIRTIO_NET_F_MRG_RXBUF)) {
1279 : 0 : PMD_INIT_LOG(INFO,
1280 : : "virtio: using packed ring mergeable buffer Rx path on port %u",
1281 : : eth_dev->data->port_id);
1282 : 0 : eth_dev->rx_pkt_burst =
1283 : : &virtio_recv_mergeable_pkts_packed;
1284 : : } else {
1285 : 0 : PMD_INIT_LOG(INFO,
1286 : : "virtio: using packed ring standard Rx path on port %u",
1287 : : eth_dev->data->port_id);
1288 : 0 : eth_dev->rx_pkt_burst = &virtio_recv_pkts_packed;
1289 : : }
1290 : : } else {
1291 [ # # ]: 0 : if (hw->use_vec_rx) {
1292 : 0 : PMD_INIT_LOG(INFO, "virtio: using vectorized Rx path on port %u",
1293 : : eth_dev->data->port_id);
1294 : 0 : eth_dev->rx_pkt_burst = virtio_recv_pkts_vec;
1295 [ # # ]: 0 : } else if (hw->use_inorder_rx) {
1296 : 0 : PMD_INIT_LOG(INFO,
1297 : : "virtio: using inorder Rx path on port %u",
1298 : : eth_dev->data->port_id);
1299 : 0 : eth_dev->rx_pkt_burst = &virtio_recv_pkts_inorder;
1300 [ # # ]: 0 : } else if (virtio_with_feature(hw, VIRTIO_NET_F_MRG_RXBUF)) {
1301 : 0 : PMD_INIT_LOG(INFO,
1302 : : "virtio: using mergeable buffer Rx path on port %u",
1303 : : eth_dev->data->port_id);
1304 : 0 : eth_dev->rx_pkt_burst = &virtio_recv_mergeable_pkts;
1305 : : } else {
1306 : 0 : PMD_INIT_LOG(INFO, "virtio: using standard Rx path on port %u",
1307 : : eth_dev->data->port_id);
1308 : 0 : eth_dev->rx_pkt_burst = &virtio_recv_pkts;
1309 : : }
1310 : : }
1311 : :
1312 : 0 : }
1313 : :
1314 : : /* Only support 1:1 queue/interrupt mapping so far.
1315 : : * TODO: support n:1 queue/interrupt mapping when there are limited number of
1316 : : * interrupt vectors (<N+1).
1317 : : */
1318 : : static int
1319 : 0 : virtio_queues_bind_intr(struct rte_eth_dev *dev)
1320 : : {
1321 : : uint32_t i;
1322 : 0 : struct virtio_hw *hw = dev->data->dev_private;
1323 : :
1324 : 0 : PMD_INIT_LOG(INFO, "queue/interrupt binding");
1325 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; ++i) {
1326 [ # # ]: 0 : if (rte_intr_vec_list_index_set(dev->intr_handle, i,
1327 : 0 : i + 1))
1328 : 0 : return -rte_errno;
1329 [ # # ]: 0 : if (VIRTIO_OPS(hw)->set_queue_irq(hw, hw->vqs[i * 2], i + 1) ==
1330 : : VIRTIO_MSI_NO_VECTOR) {
1331 : 0 : PMD_DRV_LOG(ERR, "failed to set queue vector");
1332 : 0 : return -EBUSY;
1333 : : }
1334 : : }
1335 : :
1336 : : return 0;
1337 : : }
1338 : :
1339 : : static void
1340 : 0 : virtio_queues_unbind_intr(struct rte_eth_dev *dev)
1341 : : {
1342 : : uint32_t i;
1343 : 0 : struct virtio_hw *hw = dev->data->dev_private;
1344 : :
1345 : 0 : PMD_INIT_LOG(INFO, "queue/interrupt unbinding");
1346 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; ++i)
1347 : 0 : VIRTIO_OPS(hw)->set_queue_irq(hw,
1348 : 0 : hw->vqs[i * VTNET_CQ],
1349 : : VIRTIO_MSI_NO_VECTOR);
1350 : 0 : }
1351 : :
1352 : : static int
1353 : 0 : virtio_configure_intr(struct rte_eth_dev *dev)
1354 : : {
1355 : 0 : struct virtio_hw *hw = dev->data->dev_private;
1356 : : int ret;
1357 : :
1358 [ # # ]: 0 : if (!rte_intr_cap_multiple(dev->intr_handle)) {
1359 : 0 : PMD_INIT_LOG(ERR, "Multiple intr vector not supported");
1360 : 0 : return -ENOTSUP;
1361 : : }
1362 : :
1363 : 0 : ret = rte_intr_efd_enable(dev->intr_handle, dev->data->nb_rx_queues);
1364 [ # # ]: 0 : if (ret < 0) {
1365 : 0 : PMD_INIT_LOG(ERR, "Fail to create eventfd");
1366 : 0 : return ret;
1367 : : }
1368 : :
1369 : 0 : ret = rte_intr_vec_list_alloc(dev->intr_handle, "intr_vec",
1370 : 0 : hw->max_queue_pairs);
1371 [ # # ]: 0 : if (ret < 0) {
1372 : 0 : PMD_INIT_LOG(ERR, "Failed to allocate %u rxq vectors",
1373 : : hw->max_queue_pairs);
1374 : 0 : return ret;
1375 : : }
1376 : :
1377 [ # # ]: 0 : if (dev->data->dev_flags & RTE_ETH_DEV_INTR_LSC) {
1378 : : /* Re-register callback to update max_intr */
1379 : 0 : rte_intr_callback_unregister(dev->intr_handle,
1380 : : virtio_interrupt_handler,
1381 : : dev);
1382 : 0 : rte_intr_callback_register(dev->intr_handle,
1383 : : virtio_interrupt_handler,
1384 : : dev);
1385 : : }
1386 : :
1387 : : /* DO NOT try to remove this! This function will enable msix, or QEMU
1388 : : * will encounter SIGSEGV when DRIVER_OK is sent.
1389 : : * And for legacy devices, this should be done before queue/vec binding
1390 : : * to change the config size from 20 to 24, or VIRTIO_MSI_QUEUE_VECTOR
1391 : : * (22) will be ignored.
1392 : : */
1393 [ # # ]: 0 : if (virtio_intr_enable(dev) < 0) {
1394 : 0 : PMD_DRV_LOG(ERR, "interrupt enable failed");
1395 : 0 : return -EINVAL;
1396 : : }
1397 : :
1398 : 0 : ret = virtio_queues_bind_intr(dev);
1399 [ # # ]: 0 : if (ret < 0) {
1400 : 0 : PMD_INIT_LOG(ERR, "Failed to bind queue/interrupt");
1401 : 0 : return ret;
1402 : : }
1403 : :
1404 : : return 0;
1405 : : }
1406 : :
1407 : : static void
1408 : 0 : virtio_get_speed_duplex(struct rte_eth_dev *eth_dev,
1409 : : struct rte_eth_link *link)
1410 : : {
1411 : 0 : struct virtio_hw *hw = eth_dev->data->dev_private;
1412 : : struct virtio_net_config *config;
1413 : : struct virtio_net_config local_config;
1414 : :
1415 : : config = &local_config;
1416 : 0 : virtio_read_dev_config(hw,
1417 : : offsetof(struct virtio_net_config, speed),
1418 : : &config->speed, sizeof(config->speed));
1419 : 0 : virtio_read_dev_config(hw,
1420 : : offsetof(struct virtio_net_config, duplex),
1421 : : &config->duplex, sizeof(config->duplex));
1422 : 0 : hw->speed = config->speed;
1423 : 0 : hw->duplex = config->duplex;
1424 [ # # ]: 0 : if (link != NULL) {
1425 : 0 : link->link_duplex = hw->duplex;
1426 : 0 : link->link_speed = hw->speed;
1427 : : }
1428 : 0 : PMD_INIT_LOG(DEBUG, "link speed = %d, duplex = %d",
1429 : : hw->speed, hw->duplex);
1430 : 0 : }
1431 : :
1432 : : static uint64_t
1433 : 0 : ethdev_to_virtio_rss_offloads(uint64_t ethdev_hash_types)
1434 : : {
1435 : : uint64_t virtio_hash_types = 0;
1436 : :
1437 [ # # ]: 0 : if (ethdev_hash_types & (RTE_ETH_RSS_IPV4 | RTE_ETH_RSS_FRAG_IPV4 |
1438 : : RTE_ETH_RSS_NONFRAG_IPV4_OTHER))
1439 : : virtio_hash_types |= VIRTIO_NET_HASH_TYPE_IPV4;
1440 : :
1441 [ # # ]: 0 : if (ethdev_hash_types & RTE_ETH_RSS_NONFRAG_IPV4_TCP)
1442 : 0 : virtio_hash_types |= VIRTIO_NET_HASH_TYPE_TCPV4;
1443 : :
1444 [ # # ]: 0 : if (ethdev_hash_types & RTE_ETH_RSS_NONFRAG_IPV4_UDP)
1445 : 0 : virtio_hash_types |= VIRTIO_NET_HASH_TYPE_UDPV4;
1446 : :
1447 [ # # ]: 0 : if (ethdev_hash_types & (RTE_ETH_RSS_IPV6 | RTE_ETH_RSS_FRAG_IPV6 |
1448 : : RTE_ETH_RSS_NONFRAG_IPV6_OTHER))
1449 : 0 : virtio_hash_types |= VIRTIO_NET_HASH_TYPE_IPV6;
1450 : :
1451 [ # # ]: 0 : if (ethdev_hash_types & RTE_ETH_RSS_NONFRAG_IPV6_TCP)
1452 : 0 : virtio_hash_types |= VIRTIO_NET_HASH_TYPE_TCPV6;
1453 : :
1454 [ # # ]: 0 : if (ethdev_hash_types & RTE_ETH_RSS_NONFRAG_IPV6_UDP)
1455 : 0 : virtio_hash_types |= VIRTIO_NET_HASH_TYPE_UDPV6;
1456 : :
1457 [ # # ]: 0 : if (ethdev_hash_types & RTE_ETH_RSS_IPV6_EX)
1458 : 0 : virtio_hash_types |= VIRTIO_NET_HASH_TYPE_IP_EX;
1459 : :
1460 [ # # ]: 0 : if (ethdev_hash_types & RTE_ETH_RSS_IPV6_TCP_EX)
1461 : 0 : virtio_hash_types |= VIRTIO_NET_HASH_TYPE_TCP_EX;
1462 : :
1463 [ # # ]: 0 : if (ethdev_hash_types & RTE_ETH_RSS_IPV6_UDP_EX)
1464 : 0 : virtio_hash_types |= VIRTIO_NET_HASH_TYPE_UDP_EX;
1465 : :
1466 : 0 : return virtio_hash_types;
1467 : : }
1468 : :
1469 : : static uint64_t
1470 : 0 : virtio_to_ethdev_rss_offloads(uint64_t virtio_hash_types)
1471 : : {
1472 : : uint64_t rss_offloads = 0;
1473 : :
1474 [ # # ]: 0 : if (virtio_hash_types & VIRTIO_NET_HASH_TYPE_IPV4)
1475 : : rss_offloads |= RTE_ETH_RSS_IPV4 | RTE_ETH_RSS_FRAG_IPV4 |
1476 : : RTE_ETH_RSS_NONFRAG_IPV4_OTHER;
1477 : :
1478 [ # # ]: 0 : if (virtio_hash_types & VIRTIO_NET_HASH_TYPE_TCPV4)
1479 : 0 : rss_offloads |= RTE_ETH_RSS_NONFRAG_IPV4_TCP;
1480 : :
1481 [ # # ]: 0 : if (virtio_hash_types & VIRTIO_NET_HASH_TYPE_UDPV4)
1482 : 0 : rss_offloads |= RTE_ETH_RSS_NONFRAG_IPV4_UDP;
1483 : :
1484 [ # # ]: 0 : if (virtio_hash_types & VIRTIO_NET_HASH_TYPE_IPV6)
1485 : 0 : rss_offloads |= RTE_ETH_RSS_IPV6 | RTE_ETH_RSS_FRAG_IPV6 |
1486 : : RTE_ETH_RSS_NONFRAG_IPV6_OTHER;
1487 : :
1488 [ # # ]: 0 : if (virtio_hash_types & VIRTIO_NET_HASH_TYPE_TCPV6)
1489 : 0 : rss_offloads |= RTE_ETH_RSS_NONFRAG_IPV6_TCP;
1490 : :
1491 [ # # ]: 0 : if (virtio_hash_types & VIRTIO_NET_HASH_TYPE_UDPV6)
1492 : 0 : rss_offloads |= RTE_ETH_RSS_NONFRAG_IPV6_UDP;
1493 : :
1494 [ # # ]: 0 : if (virtio_hash_types & VIRTIO_NET_HASH_TYPE_IP_EX)
1495 : 0 : rss_offloads |= RTE_ETH_RSS_IPV6_EX;
1496 : :
1497 [ # # ]: 0 : if (virtio_hash_types & VIRTIO_NET_HASH_TYPE_TCP_EX)
1498 : 0 : rss_offloads |= RTE_ETH_RSS_IPV6_TCP_EX;
1499 : :
1500 [ # # ]: 0 : if (virtio_hash_types & VIRTIO_NET_HASH_TYPE_UDP_EX)
1501 : 0 : rss_offloads |= RTE_ETH_RSS_IPV6_UDP_EX;
1502 : :
1503 : 0 : return rss_offloads;
1504 : : }
1505 : :
1506 : : static int
1507 : 0 : virtio_dev_get_rss_config(struct virtio_hw *hw, uint32_t *rss_hash_types)
1508 : : {
1509 : : struct virtio_net_config local_config;
1510 : : struct virtio_net_config *config = &local_config;
1511 : :
1512 : 0 : virtio_read_dev_config(hw,
1513 : : offsetof(struct virtio_net_config, rss_max_key_size),
1514 : : &config->rss_max_key_size,
1515 : : sizeof(config->rss_max_key_size));
1516 [ # # ]: 0 : if (config->rss_max_key_size < VIRTIO_NET_RSS_KEY_SIZE) {
1517 : 0 : PMD_INIT_LOG(ERR, "Invalid device RSS max key size (%u)",
1518 : : config->rss_max_key_size);
1519 : 0 : return -EINVAL;
1520 : : }
1521 : :
1522 : 0 : virtio_read_dev_config(hw,
1523 : : offsetof(struct virtio_net_config,
1524 : : rss_max_indirection_table_length),
1525 : : &config->rss_max_indirection_table_length,
1526 : : sizeof(config->rss_max_indirection_table_length));
1527 [ # # ]: 0 : if (config->rss_max_indirection_table_length < VIRTIO_NET_RSS_RETA_SIZE) {
1528 : 0 : PMD_INIT_LOG(ERR, "Invalid device RSS max reta size (%u)",
1529 : : config->rss_max_indirection_table_length);
1530 : 0 : return -EINVAL;
1531 : : }
1532 : :
1533 : 0 : virtio_read_dev_config(hw,
1534 : : offsetof(struct virtio_net_config, supported_hash_types),
1535 : : &config->supported_hash_types,
1536 : : sizeof(config->supported_hash_types));
1537 [ # # ]: 0 : if ((config->supported_hash_types & VIRTIO_NET_HASH_TYPE_MASK) == 0) {
1538 : 0 : PMD_INIT_LOG(ERR, "Invalid device RSS hash types (0x%x)",
1539 : : config->supported_hash_types);
1540 : 0 : return -EINVAL;
1541 : : }
1542 : :
1543 : 0 : *rss_hash_types = config->supported_hash_types & VIRTIO_NET_HASH_TYPE_MASK;
1544 : :
1545 : 0 : PMD_INIT_LOG(DEBUG, "Device RSS config:");
1546 : 0 : PMD_INIT_LOG(DEBUG, "\t-Max key size: %u", config->rss_max_key_size);
1547 : 0 : PMD_INIT_LOG(DEBUG, "\t-Max reta size: %u", config->rss_max_indirection_table_length);
1548 : 0 : PMD_INIT_LOG(DEBUG, "\t-Supported hash types: 0x%x", *rss_hash_types);
1549 : :
1550 : 0 : return 0;
1551 : : }
1552 : :
1553 : : static int
1554 : 0 : virtio_dev_rss_hash_update(struct rte_eth_dev *dev,
1555 : : struct rte_eth_rss_conf *rss_conf)
1556 : : {
1557 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
1558 : : char old_rss_key[VIRTIO_NET_RSS_KEY_SIZE];
1559 : : uint32_t old_hash_types;
1560 : : uint16_t nb_queues;
1561 : : int ret;
1562 : :
1563 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_RSS))
1564 : : return -ENOTSUP;
1565 : :
1566 [ # # ]: 0 : if (rss_conf->rss_hf & ~virtio_to_ethdev_rss_offloads(VIRTIO_NET_HASH_TYPE_MASK))
1567 : : return -EINVAL;
1568 : :
1569 : 0 : old_hash_types = hw->rss_hash_types;
1570 : 0 : hw->rss_hash_types = ethdev_to_virtio_rss_offloads(rss_conf->rss_hf);
1571 : :
1572 [ # # # # ]: 0 : if (rss_conf->rss_key && rss_conf->rss_key_len) {
1573 [ # # ]: 0 : if (rss_conf->rss_key_len != VIRTIO_NET_RSS_KEY_SIZE) {
1574 : 0 : PMD_INIT_LOG(ERR, "Driver only supports %u RSS key length",
1575 : : VIRTIO_NET_RSS_KEY_SIZE);
1576 : : ret = -EINVAL;
1577 : 0 : goto restore_types;
1578 : : }
1579 : 0 : memcpy(old_rss_key, hw->rss_key, VIRTIO_NET_RSS_KEY_SIZE);
1580 : : memcpy(hw->rss_key, rss_conf->rss_key, VIRTIO_NET_RSS_KEY_SIZE);
1581 : : }
1582 : :
1583 : 0 : nb_queues = RTE_MAX(dev->data->nb_rx_queues, dev->data->nb_tx_queues);
1584 : 0 : ret = virtio_set_multiple_queues_rss(dev, nb_queues);
1585 [ # # ]: 0 : if (ret < 0) {
1586 : 0 : PMD_INIT_LOG(ERR, "Failed to apply new RSS config to the device");
1587 : 0 : goto restore_key;
1588 : : }
1589 : :
1590 : : return 0;
1591 : : restore_key:
1592 [ # # # # ]: 0 : if (rss_conf->rss_key && rss_conf->rss_key_len)
1593 : 0 : memcpy(hw->rss_key, old_rss_key, VIRTIO_NET_RSS_KEY_SIZE);
1594 : 0 : restore_types:
1595 : 0 : hw->rss_hash_types = old_hash_types;
1596 : :
1597 : 0 : return ret;
1598 : : }
1599 : :
1600 : : static int
1601 : 0 : virtio_dev_rss_hash_conf_get(struct rte_eth_dev *dev,
1602 : : struct rte_eth_rss_conf *rss_conf)
1603 : : {
1604 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
1605 : :
1606 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_RSS))
1607 : : return -ENOTSUP;
1608 : :
1609 [ # # # # ]: 0 : if (rss_conf->rss_key && rss_conf->rss_key_len >= VIRTIO_NET_RSS_KEY_SIZE)
1610 : 0 : memcpy(rss_conf->rss_key, hw->rss_key, VIRTIO_NET_RSS_KEY_SIZE);
1611 : 0 : rss_conf->rss_key_len = VIRTIO_NET_RSS_KEY_SIZE;
1612 : 0 : rss_conf->rss_hf = virtio_to_ethdev_rss_offloads(hw->rss_hash_types);
1613 : :
1614 : 0 : return 0;
1615 : : }
1616 : :
1617 : 0 : static int virtio_dev_rss_reta_update(struct rte_eth_dev *dev,
1618 : : struct rte_eth_rss_reta_entry64 *reta_conf,
1619 : : uint16_t reta_size)
1620 : : {
1621 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
1622 : : uint16_t nb_queues;
1623 : : uint16_t old_reta[VIRTIO_NET_RSS_RETA_SIZE];
1624 : : int idx, pos, i, ret;
1625 : :
1626 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_RSS))
1627 : : return -ENOTSUP;
1628 : :
1629 [ # # ]: 0 : if (reta_size != VIRTIO_NET_RSS_RETA_SIZE)
1630 : : return -EINVAL;
1631 : :
1632 : 0 : memcpy(old_reta, hw->rss_reta, sizeof(old_reta));
1633 : :
1634 [ # # ]: 0 : for (i = 0; i < reta_size; i++) {
1635 : 0 : idx = i / RTE_ETH_RETA_GROUP_SIZE;
1636 : 0 : pos = i % RTE_ETH_RETA_GROUP_SIZE;
1637 : :
1638 [ # # ]: 0 : if (((reta_conf[idx].mask >> pos) & 0x1) == 0)
1639 : 0 : continue;
1640 : :
1641 : 0 : hw->rss_reta[i] = reta_conf[idx].reta[pos];
1642 : : }
1643 : :
1644 : 0 : nb_queues = RTE_MAX(dev->data->nb_rx_queues, dev->data->nb_tx_queues);
1645 : 0 : ret = virtio_set_multiple_queues_rss(dev, nb_queues);
1646 [ # # ]: 0 : if (ret < 0) {
1647 : 0 : PMD_INIT_LOG(ERR, "Failed to apply new RETA to the device");
1648 : 0 : memcpy(hw->rss_reta, old_reta, sizeof(old_reta));
1649 : : }
1650 : :
1651 : 0 : hw->rss_rx_queues = dev->data->nb_rx_queues;
1652 : :
1653 : 0 : return ret;
1654 : : }
1655 : :
1656 : 0 : static int virtio_dev_rss_reta_query(struct rte_eth_dev *dev,
1657 : : struct rte_eth_rss_reta_entry64 *reta_conf,
1658 : : uint16_t reta_size)
1659 : : {
1660 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
1661 : : int idx, i;
1662 : :
1663 [ # # ]: 0 : if (!virtio_with_feature(hw, VIRTIO_NET_F_RSS))
1664 : : return -ENOTSUP;
1665 : :
1666 [ # # ]: 0 : if (reta_size != VIRTIO_NET_RSS_RETA_SIZE)
1667 : : return -EINVAL;
1668 : :
1669 [ # # ]: 0 : for (i = 0; i < reta_size; i++) {
1670 : 0 : idx = i / RTE_ETH_RETA_GROUP_SIZE;
1671 : 0 : reta_conf[idx].reta[i % RTE_ETH_RETA_GROUP_SIZE] = hw->rss_reta[i];
1672 : : }
1673 : :
1674 : : return 0;
1675 : : }
1676 : :
1677 : : /*
1678 : : * As default RSS hash key, it uses the default key of the
1679 : : * Intel IXGBE devices. It can be updated by the application
1680 : : * with any 40B key value.
1681 : : */
1682 : : static uint8_t rss_intel_key[VIRTIO_NET_RSS_KEY_SIZE] = {
1683 : : 0x6D, 0x5A, 0x56, 0xDA, 0x25, 0x5B, 0x0E, 0xC2,
1684 : : 0x41, 0x67, 0x25, 0x3D, 0x43, 0xA3, 0x8F, 0xB0,
1685 : : 0xD0, 0xCA, 0x2B, 0xCB, 0xAE, 0x7B, 0x30, 0xB4,
1686 : : 0x77, 0xCB, 0x2D, 0xA3, 0x80, 0x30, 0xF2, 0x0C,
1687 : : 0x6A, 0x42, 0xB7, 0x3B, 0xBE, 0xAC, 0x01, 0xFA,
1688 : : };
1689 : :
1690 : : static int
1691 : 0 : virtio_dev_rss_init(struct rte_eth_dev *eth_dev)
1692 : : {
1693 : 0 : struct virtio_hw *hw = eth_dev->data->dev_private;
1694 : 0 : uint16_t nb_rx_queues = eth_dev->data->nb_rx_queues;
1695 : : struct rte_eth_rss_conf *rss_conf;
1696 : : int ret, i;
1697 : :
1698 [ # # ]: 0 : if (!nb_rx_queues) {
1699 : 0 : PMD_INIT_LOG(ERR, "Cannot init RSS if no Rx queues");
1700 : 0 : return -EINVAL;
1701 : : }
1702 : :
1703 : : rss_conf = ð_dev->data->dev_conf.rx_adv_conf.rss_conf;
1704 : :
1705 : 0 : ret = virtio_dev_get_rss_config(hw, &hw->rss_hash_types);
1706 [ # # ]: 0 : if (ret)
1707 : : return ret;
1708 : :
1709 [ # # ]: 0 : if (rss_conf->rss_hf) {
1710 : : /* Ensure requested hash types are supported by the device */
1711 [ # # ]: 0 : if (rss_conf->rss_hf & ~virtio_to_ethdev_rss_offloads(hw->rss_hash_types))
1712 : : return -EINVAL;
1713 : :
1714 : 0 : hw->rss_hash_types = ethdev_to_virtio_rss_offloads(rss_conf->rss_hf);
1715 : : }
1716 : :
1717 [ # # ]: 0 : if (!hw->rss_key) {
1718 : : /* Setup default RSS key if not already setup by the user */
1719 : 0 : hw->rss_key = rte_malloc_socket("rss_key",
1720 : : VIRTIO_NET_RSS_KEY_SIZE, 0,
1721 : 0 : eth_dev->device->numa_node);
1722 [ # # ]: 0 : if (!hw->rss_key) {
1723 : 0 : PMD_INIT_LOG(ERR, "Failed to allocate RSS key");
1724 : 0 : return -ENOMEM;
1725 : : }
1726 : : }
1727 : :
1728 [ # # # # ]: 0 : if (rss_conf->rss_key && rss_conf->rss_key_len) {
1729 [ # # ]: 0 : if (rss_conf->rss_key_len != VIRTIO_NET_RSS_KEY_SIZE) {
1730 : 0 : PMD_INIT_LOG(ERR, "Driver only supports %u RSS key length",
1731 : : VIRTIO_NET_RSS_KEY_SIZE);
1732 : 0 : return -EINVAL;
1733 : : }
1734 : 0 : memcpy(hw->rss_key, rss_conf->rss_key, VIRTIO_NET_RSS_KEY_SIZE);
1735 : : } else {
1736 : 0 : memcpy(hw->rss_key, rss_intel_key, VIRTIO_NET_RSS_KEY_SIZE);
1737 : : }
1738 : :
1739 [ # # ]: 0 : if (!hw->rss_reta) {
1740 : : /* Setup default RSS reta if not already setup by the user */
1741 : 0 : hw->rss_reta = rte_zmalloc_socket("rss_reta",
1742 : : VIRTIO_NET_RSS_RETA_SIZE * sizeof(uint16_t), 0,
1743 : 0 : eth_dev->device->numa_node);
1744 [ # # ]: 0 : if (!hw->rss_reta) {
1745 : 0 : PMD_INIT_LOG(ERR, "Failed to allocate RSS reta");
1746 : 0 : return -ENOMEM;
1747 : : }
1748 : :
1749 : 0 : hw->rss_rx_queues = 0;
1750 : : }
1751 : :
1752 : : /* Re-initialize the RSS reta if the number of RX queues has changed */
1753 [ # # ]: 0 : if (hw->rss_rx_queues != nb_rx_queues) {
1754 [ # # ]: 0 : for (i = 0; i < VIRTIO_NET_RSS_RETA_SIZE; i++)
1755 : 0 : hw->rss_reta[i] = i % nb_rx_queues;
1756 : 0 : hw->rss_rx_queues = nb_rx_queues;
1757 : : }
1758 : :
1759 : : return 0;
1760 : : }
1761 : :
1762 : : #define DUPLEX_UNKNOWN 0xff
1763 : : /* reset device and renegotiate features if needed */
1764 : : static int
1765 : 0 : virtio_init_device(struct rte_eth_dev *eth_dev, uint64_t req_features)
1766 : : {
1767 : 0 : struct virtio_hw *hw = eth_dev->data->dev_private;
1768 : : struct virtio_net_config *config;
1769 : : struct virtio_net_config local_config;
1770 : : int ret;
1771 : :
1772 : : /* Reset the device although not necessary at startup */
1773 : 0 : virtio_reset(hw);
1774 : :
1775 [ # # ]: 0 : if (hw->vqs) {
1776 : 0 : virtio_dev_free_mbufs(eth_dev);
1777 : 0 : virtio_free_queues(hw);
1778 : : }
1779 : :
1780 : : /* Tell the host we've noticed this device. */
1781 : 0 : virtio_set_status(hw, VIRTIO_CONFIG_STATUS_ACK);
1782 : :
1783 : : /* Tell the host we've known how to drive the device. */
1784 : 0 : virtio_set_status(hw, VIRTIO_CONFIG_STATUS_DRIVER);
1785 [ # # ]: 0 : if (virtio_ethdev_negotiate_features(hw, req_features) < 0)
1786 : : return -EINVAL;
1787 : :
1788 : 0 : hw->weak_barriers = !virtio_with_feature(hw, VIRTIO_F_ORDER_PLATFORM);
1789 : :
1790 : : /* If host does not support both status and MSI-X then disable LSC */
1791 [ # # # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_STATUS) && hw->intr_lsc)
1792 : 0 : eth_dev->data->dev_flags |= RTE_ETH_DEV_INTR_LSC;
1793 : : else
1794 : 0 : eth_dev->data->dev_flags &= ~RTE_ETH_DEV_INTR_LSC;
1795 : :
1796 [ # # ]: 0 : eth_dev->data->dev_flags |= RTE_ETH_DEV_AUTOFILL_QUEUE_XSTATS;
1797 : :
1798 : : /* Setting up rx_header size for the device */
1799 [ # # # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_MRG_RXBUF) ||
1800 [ # # ]: 0 : virtio_with_feature(hw, VIRTIO_F_VERSION_1) ||
1801 : : virtio_with_packed_queue(hw))
1802 : 0 : hw->vtnet_hdr_size = sizeof(struct virtio_net_hdr_mrg_rxbuf);
1803 : : else
1804 : 0 : hw->vtnet_hdr_size = sizeof(struct virtio_net_hdr);
1805 : :
1806 : : /* Copy the permanent MAC address to: virtio_hw */
1807 : 0 : virtio_get_hwaddr(hw);
1808 : 0 : rte_ether_addr_copy((struct rte_ether_addr *)hw->mac_addr,
1809 : 0 : ð_dev->data->mac_addrs[0]);
1810 : 0 : PMD_INIT_LOG(DEBUG,
1811 : : "PORT MAC: " RTE_ETHER_ADDR_PRT_FMT,
1812 : : hw->mac_addr[0], hw->mac_addr[1], hw->mac_addr[2],
1813 : : hw->mac_addr[3], hw->mac_addr[4], hw->mac_addr[5]);
1814 : :
1815 [ # # # # ]: 0 : hw->get_speed_via_feat = hw->speed == RTE_ETH_SPEED_NUM_UNKNOWN &&
1816 : : virtio_with_feature(hw, VIRTIO_NET_F_SPEED_DUPLEX);
1817 [ # # ]: 0 : if (hw->get_speed_via_feat)
1818 : 0 : virtio_get_speed_duplex(eth_dev, NULL);
1819 [ # # ]: 0 : if (hw->duplex == DUPLEX_UNKNOWN)
1820 : 0 : hw->duplex = RTE_ETH_LINK_FULL_DUPLEX;
1821 : 0 : PMD_INIT_LOG(DEBUG, "link speed = %d, duplex = %d",
1822 : : hw->speed, hw->duplex);
1823 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_CTRL_VQ)) {
1824 : : config = &local_config;
1825 : :
1826 : 0 : virtio_read_dev_config(hw,
1827 : : offsetof(struct virtio_net_config, mac),
1828 : : &config->mac, sizeof(config->mac));
1829 : :
1830 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_STATUS)) {
1831 : 0 : virtio_read_dev_config(hw,
1832 : : offsetof(struct virtio_net_config, status),
1833 : : &config->status, sizeof(config->status));
1834 : : } else {
1835 : 0 : PMD_INIT_LOG(DEBUG,
1836 : : "VIRTIO_NET_F_STATUS is not supported");
1837 : 0 : config->status = 0;
1838 : : }
1839 : :
1840 [ # # # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_MQ) ||
1841 : : virtio_with_feature(hw, VIRTIO_NET_F_RSS)) {
1842 : 0 : virtio_read_dev_config(hw,
1843 : : offsetof(struct virtio_net_config, max_virtqueue_pairs),
1844 : : &config->max_virtqueue_pairs,
1845 : : sizeof(config->max_virtqueue_pairs));
1846 : : } else {
1847 : 0 : PMD_INIT_LOG(DEBUG,
1848 : : "Neither VIRTIO_NET_F_MQ nor VIRTIO_NET_F_RSS are supported");
1849 : 0 : config->max_virtqueue_pairs = 1;
1850 : : }
1851 : :
1852 [ # # ]: 0 : hw->max_queue_pairs = config->max_virtqueue_pairs;
1853 : :
1854 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_MTU)) {
1855 : 0 : virtio_read_dev_config(hw,
1856 : : offsetof(struct virtio_net_config, mtu),
1857 : : &config->mtu,
1858 : : sizeof(config->mtu));
1859 : :
1860 : : /*
1861 : : * MTU value has already been checked at negotiation
1862 : : * time, but check again in case it has changed since
1863 : : * then, which should not happen.
1864 : : */
1865 [ # # ]: 0 : if (config->mtu < RTE_ETHER_MIN_MTU) {
1866 : 0 : PMD_INIT_LOG(ERR, "invalid max MTU value (%u)",
1867 : : config->mtu);
1868 : 0 : return -EINVAL;
1869 : : }
1870 : :
1871 : 0 : hw->max_mtu = config->mtu;
1872 : : /* Set initial MTU to maximum one supported by vhost */
1873 : 0 : eth_dev->data->mtu = config->mtu;
1874 : :
1875 : : } else {
1876 : 0 : hw->max_mtu = VIRTIO_MAX_RX_PKTLEN - RTE_ETHER_HDR_LEN -
1877 : 0 : VLAN_TAG_LEN - hw->vtnet_hdr_size;
1878 : : }
1879 : :
1880 [ # # ]: 0 : hw->rss_hash_types = 0;
1881 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_RSS)) {
1882 : 0 : ret = virtio_dev_rss_init(eth_dev);
1883 [ # # ]: 0 : if (ret < 0)
1884 : : return ret;
1885 : : }
1886 : :
1887 : 0 : PMD_INIT_LOG(DEBUG, "config->max_virtqueue_pairs=%d",
1888 : : config->max_virtqueue_pairs);
1889 : 0 : PMD_INIT_LOG(DEBUG, "config->status=%d", config->status);
1890 : 0 : PMD_INIT_LOG(DEBUG,
1891 : : "PORT MAC: " RTE_ETHER_ADDR_PRT_FMT,
1892 : : config->mac[0], config->mac[1],
1893 : : config->mac[2], config->mac[3],
1894 : : config->mac[4], config->mac[5]);
1895 : : } else {
1896 : 0 : PMD_INIT_LOG(DEBUG, "config->max_virtqueue_pairs=1");
1897 : 0 : hw->max_queue_pairs = 1;
1898 : 0 : hw->max_mtu = VIRTIO_MAX_RX_PKTLEN - RTE_ETHER_HDR_LEN -
1899 : 0 : VLAN_TAG_LEN - hw->vtnet_hdr_size;
1900 : : }
1901 : :
1902 : 0 : ret = virtio_alloc_queues(eth_dev);
1903 [ # # ]: 0 : if (ret < 0)
1904 : : return ret;
1905 : :
1906 [ # # ]: 0 : if (eth_dev->data->dev_conf.intr_conf.rxq) {
1907 : 0 : ret = virtio_configure_intr(eth_dev);
1908 [ # # ]: 0 : if (ret < 0) {
1909 : 0 : PMD_INIT_LOG(ERR, "failed to configure interrupt");
1910 : 0 : virtio_free_queues(hw);
1911 : 0 : return ret;
1912 : : }
1913 : : }
1914 : :
1915 [ # # ]: 0 : if (eth_dev->data->dev_flags & RTE_ETH_DEV_INTR_LSC)
1916 : : /* Enable vector (0) for Link State Interrupt */
1917 [ # # ]: 0 : if (VIRTIO_OPS(hw)->set_config_irq(hw, 0) ==
1918 : : VIRTIO_MSI_NO_VECTOR) {
1919 : 0 : PMD_DRV_LOG(ERR, "failed to set config vector");
1920 : 0 : return -EBUSY;
1921 : : }
1922 : :
1923 : 0 : virtio_reinit_complete(hw);
1924 : :
1925 : 0 : return 0;
1926 : : }
1927 : :
1928 : : /*
1929 : : * This function is based on probe() function in virtio_pci.c
1930 : : * It returns 0 on success.
1931 : : */
1932 : : int
1933 : 0 : eth_virtio_dev_init(struct rte_eth_dev *eth_dev)
1934 : : {
1935 : 0 : struct virtio_hw *hw = eth_dev->data->dev_private;
1936 : 0 : uint32_t speed = RTE_ETH_SPEED_NUM_UNKNOWN;
1937 : 0 : int vectorized = 0;
1938 : : int ret;
1939 : :
1940 : : if (sizeof(struct virtio_net_hdr_mrg_rxbuf) > RTE_PKTMBUF_HEADROOM) {
1941 : : PMD_INIT_LOG(ERR,
1942 : : "Not sufficient headroom required = %d, avail = %d",
1943 : : (int)sizeof(struct virtio_net_hdr_mrg_rxbuf),
1944 : : RTE_PKTMBUF_HEADROOM);
1945 : :
1946 : : return -1;
1947 : : }
1948 : :
1949 : 0 : eth_dev->dev_ops = &virtio_eth_dev_ops;
1950 : :
1951 [ # # ]: 0 : if (rte_eal_process_type() == RTE_PROC_SECONDARY) {
1952 : 0 : set_rxtx_funcs(eth_dev);
1953 : 0 : return 0;
1954 : : }
1955 : :
1956 : 0 : ret = virtio_dev_devargs_parse(eth_dev->device->devargs, &speed, &vectorized);
1957 [ # # ]: 0 : if (ret < 0)
1958 : : return ret;
1959 : 0 : hw->speed = speed;
1960 : 0 : hw->duplex = DUPLEX_UNKNOWN;
1961 : :
1962 : : /* Allocate memory for storing MAC addresses */
1963 : 0 : eth_dev->data->mac_addrs = rte_zmalloc("virtio",
1964 : : VIRTIO_MAX_MAC_ADDRS * RTE_ETHER_ADDR_LEN, 0);
1965 [ # # ]: 0 : if (eth_dev->data->mac_addrs == NULL) {
1966 : 0 : PMD_INIT_LOG(ERR,
1967 : : "Failed to allocate %d bytes needed to store MAC addresses",
1968 : : VIRTIO_MAX_MAC_ADDRS * RTE_ETHER_ADDR_LEN);
1969 : 0 : return -ENOMEM;
1970 : : }
1971 : :
1972 : : rte_spinlock_init(&hw->state_lock);
1973 : :
1974 [ # # ]: 0 : if (vectorized) {
1975 : 0 : hw->use_vec_rx = 1;
1976 : 0 : hw->use_vec_tx = 1;
1977 : : }
1978 : :
1979 : : /* reset device and negotiate default features */
1980 : 0 : ret = virtio_init_device(eth_dev, VIRTIO_PMD_DEFAULT_GUEST_FEATURES);
1981 [ # # ]: 0 : if (ret < 0)
1982 : 0 : goto err_virtio_init;
1983 : :
1984 [ # # ]: 0 : if (vectorized) {
1985 [ # # ]: 0 : if (!virtio_with_packed_queue(hw)) {
1986 : 0 : hw->use_vec_tx = 0;
1987 : : } else {
1988 : : #if !defined(CC_AVX512_SUPPORT) && !defined(RTE_ARCH_ARM)
1989 : : hw->use_vec_rx = 0;
1990 : : hw->use_vec_tx = 0;
1991 : : PMD_DRV_LOG(INFO,
1992 : : "building environment do not support packed ring vectorized");
1993 : : #endif
1994 : : }
1995 : : }
1996 : :
1997 : 0 : hw->opened = 1;
1998 : :
1999 : 0 : return 0;
2000 : :
2001 : : err_virtio_init:
2002 : 0 : rte_free(eth_dev->data->mac_addrs);
2003 : 0 : eth_dev->data->mac_addrs = NULL;
2004 : 0 : return ret;
2005 : : }
2006 : :
2007 : : static uint32_t
2008 : 0 : virtio_dev_speed_capa_get(uint32_t speed)
2009 : : {
2010 [ # # # # : 0 : switch (speed) {
# # # # #
# ]
2011 : : case RTE_ETH_SPEED_NUM_10G:
2012 : : return RTE_ETH_LINK_SPEED_10G;
2013 : 0 : case RTE_ETH_SPEED_NUM_20G:
2014 : 0 : return RTE_ETH_LINK_SPEED_20G;
2015 : 0 : case RTE_ETH_SPEED_NUM_25G:
2016 : 0 : return RTE_ETH_LINK_SPEED_25G;
2017 : 0 : case RTE_ETH_SPEED_NUM_40G:
2018 : 0 : return RTE_ETH_LINK_SPEED_40G;
2019 : 0 : case RTE_ETH_SPEED_NUM_50G:
2020 : 0 : return RTE_ETH_LINK_SPEED_50G;
2021 : 0 : case RTE_ETH_SPEED_NUM_56G:
2022 : 0 : return RTE_ETH_LINK_SPEED_56G;
2023 : 0 : case RTE_ETH_SPEED_NUM_100G:
2024 : 0 : return RTE_ETH_LINK_SPEED_100G;
2025 : 0 : case RTE_ETH_SPEED_NUM_200G:
2026 : 0 : return RTE_ETH_LINK_SPEED_200G;
2027 : 0 : case RTE_ETH_SPEED_NUM_400G:
2028 : 0 : return RTE_ETH_LINK_SPEED_400G;
2029 : 0 : default:
2030 : 0 : return 0;
2031 : : }
2032 : : }
2033 : :
2034 : 0 : static int vectorized_check_handler(__rte_unused const char *key,
2035 : : const char *value, void *ret_val)
2036 : : {
2037 [ # # ]: 0 : if (value == NULL || ret_val == NULL)
2038 : : return -EINVAL;
2039 : :
2040 [ # # ]: 0 : if (strcmp(value, "1") == 0)
2041 : 0 : *(int *)ret_val = 1;
2042 : : else
2043 : 0 : *(int *)ret_val = 0;
2044 : :
2045 : : return 0;
2046 : : }
2047 : :
2048 : : #define VIRTIO_ARG_SPEED "speed"
2049 : : #define VIRTIO_ARG_VECTORIZED "vectorized"
2050 : :
2051 : : static int
2052 : 0 : link_speed_handler(const char *key __rte_unused,
2053 : : const char *value, void *ret_val)
2054 : : {
2055 : : uint32_t val;
2056 [ # # ]: 0 : if (!value || !ret_val)
2057 : : return -EINVAL;
2058 : 0 : val = strtoul(value, NULL, 0);
2059 : : /* validate input */
2060 [ # # ]: 0 : if (virtio_dev_speed_capa_get(val) == 0)
2061 : : return -EINVAL;
2062 : 0 : *(uint32_t *)ret_val = val;
2063 : :
2064 : 0 : return 0;
2065 : : }
2066 : :
2067 : :
2068 : : static int
2069 : 0 : virtio_dev_devargs_parse(struct rte_devargs *devargs, uint32_t *speed, int *vectorized)
2070 : : {
2071 : : struct rte_kvargs *kvlist;
2072 : : int ret = 0;
2073 : :
2074 [ # # ]: 0 : if (devargs == NULL)
2075 : : return 0;
2076 : :
2077 : 0 : kvlist = rte_kvargs_parse(devargs->args, NULL);
2078 [ # # ]: 0 : if (kvlist == NULL) {
2079 : 0 : PMD_INIT_LOG(ERR, "error when parsing param");
2080 : 0 : return 0;
2081 : : }
2082 : :
2083 [ # # # # ]: 0 : if (speed && rte_kvargs_count(kvlist, VIRTIO_ARG_SPEED) == 1) {
2084 : 0 : ret = rte_kvargs_process(kvlist,
2085 : : VIRTIO_ARG_SPEED,
2086 : : link_speed_handler, speed);
2087 [ # # ]: 0 : if (ret < 0) {
2088 : 0 : PMD_INIT_LOG(ERR, "Failed to parse %s",
2089 : : VIRTIO_ARG_SPEED);
2090 : 0 : goto exit;
2091 : : }
2092 : : }
2093 : :
2094 [ # # # # ]: 0 : if (vectorized &&
2095 : 0 : rte_kvargs_count(kvlist, VIRTIO_ARG_VECTORIZED) == 1) {
2096 : 0 : ret = rte_kvargs_process(kvlist,
2097 : : VIRTIO_ARG_VECTORIZED,
2098 : : vectorized_check_handler, vectorized);
2099 [ # # ]: 0 : if (ret < 0) {
2100 : 0 : PMD_INIT_LOG(ERR, "Failed to parse %s",
2101 : : VIRTIO_ARG_VECTORIZED);
2102 : 0 : goto exit;
2103 : : }
2104 : : }
2105 : :
2106 : 0 : exit:
2107 : 0 : rte_kvargs_free(kvlist);
2108 : 0 : return ret;
2109 : : }
2110 : :
2111 : : static uint8_t
2112 : : rx_offload_enabled(struct virtio_hw *hw)
2113 : : {
2114 [ # # ]: 0 : return virtio_with_feature(hw, VIRTIO_NET_F_GUEST_CSUM) ||
2115 [ # # # # ]: 0 : virtio_with_feature(hw, VIRTIO_NET_F_GUEST_TSO4) ||
2116 : : virtio_with_feature(hw, VIRTIO_NET_F_GUEST_TSO6);
2117 : : }
2118 : :
2119 : : static uint8_t
2120 : : tx_offload_enabled(struct virtio_hw *hw)
2121 : : {
2122 [ # # ]: 0 : return virtio_with_feature(hw, VIRTIO_NET_F_CSUM) ||
2123 [ # # # # ]: 0 : virtio_with_feature(hw, VIRTIO_NET_F_HOST_TSO4) ||
2124 : : virtio_with_feature(hw, VIRTIO_NET_F_HOST_TSO6);
2125 : : }
2126 : :
2127 : : /*
2128 : : * Configure virtio device
2129 : : * It returns 0 on success.
2130 : : */
2131 : : static int
2132 : 0 : virtio_dev_configure(struct rte_eth_dev *dev)
2133 : : {
2134 : 0 : const struct rte_eth_rxmode *rxmode = &dev->data->dev_conf.rxmode;
2135 : : const struct rte_eth_txmode *txmode = &dev->data->dev_conf.txmode;
2136 : 0 : struct virtio_hw *hw = dev->data->dev_private;
2137 : 0 : uint32_t ether_hdr_len = RTE_ETHER_HDR_LEN + VLAN_TAG_LEN +
2138 : 0 : hw->vtnet_hdr_size;
2139 : 0 : uint64_t rx_offloads = rxmode->offloads;
2140 : 0 : uint64_t tx_offloads = txmode->offloads;
2141 : : uint64_t req_features;
2142 : : int ret;
2143 : :
2144 : 0 : PMD_INIT_LOG(DEBUG, "configure");
2145 : : req_features = VIRTIO_PMD_DEFAULT_GUEST_FEATURES;
2146 : :
2147 [ # # ]: 0 : if (rxmode->mq_mode != RTE_ETH_MQ_RX_NONE && rxmode->mq_mode != RTE_ETH_MQ_RX_RSS) {
2148 : 0 : PMD_DRV_LOG(ERR,
2149 : : "Unsupported Rx multi queue mode %d",
2150 : : rxmode->mq_mode);
2151 : 0 : return -EINVAL;
2152 : : }
2153 : :
2154 [ # # ]: 0 : if (txmode->mq_mode != RTE_ETH_MQ_TX_NONE) {
2155 : 0 : PMD_DRV_LOG(ERR,
2156 : : "Unsupported Tx multi queue mode %d",
2157 : : txmode->mq_mode);
2158 : 0 : return -EINVAL;
2159 : : }
2160 : :
2161 [ # # ]: 0 : if (dev->data->dev_conf.intr_conf.rxq) {
2162 : 0 : ret = virtio_init_device(dev, hw->req_guest_features);
2163 [ # # ]: 0 : if (ret < 0)
2164 : : return ret;
2165 : : }
2166 : :
2167 [ # # ]: 0 : if (rxmode->mq_mode == RTE_ETH_MQ_RX_RSS)
2168 : : req_features |= (1ULL << VIRTIO_NET_F_RSS);
2169 : :
2170 [ # # ]: 0 : if (rxmode->mtu > hw->max_mtu)
2171 : 0 : req_features &= ~(1ULL << VIRTIO_NET_F_MTU);
2172 : :
2173 : 0 : hw->max_rx_pkt_len = ether_hdr_len + rxmode->mtu;
2174 : :
2175 [ # # ]: 0 : if (rx_offloads & (RTE_ETH_RX_OFFLOAD_UDP_CKSUM |
2176 : : RTE_ETH_RX_OFFLOAD_TCP_CKSUM))
2177 : 0 : req_features |= (1ULL << VIRTIO_NET_F_GUEST_CSUM);
2178 : :
2179 [ # # ]: 0 : if (rx_offloads & RTE_ETH_RX_OFFLOAD_TCP_LRO)
2180 : 0 : req_features |=
2181 : : (1ULL << VIRTIO_NET_F_GUEST_TSO4) |
2182 : : (1ULL << VIRTIO_NET_F_GUEST_TSO6);
2183 : :
2184 [ # # ]: 0 : if (tx_offloads & (RTE_ETH_TX_OFFLOAD_UDP_CKSUM |
2185 : : RTE_ETH_TX_OFFLOAD_TCP_CKSUM))
2186 : 0 : req_features |= (1ULL << VIRTIO_NET_F_CSUM);
2187 : :
2188 [ # # ]: 0 : if (tx_offloads & RTE_ETH_TX_OFFLOAD_TCP_TSO)
2189 : 0 : req_features |=
2190 : : (1ULL << VIRTIO_NET_F_HOST_TSO4) |
2191 : : (1ULL << VIRTIO_NET_F_HOST_TSO6);
2192 : :
2193 : : /* if request features changed, reinit the device */
2194 [ # # ]: 0 : if (req_features != hw->req_guest_features) {
2195 : 0 : ret = virtio_init_device(dev, req_features);
2196 [ # # ]: 0 : if (ret < 0)
2197 : : return ret;
2198 : : }
2199 : :
2200 : : /* if queues are not allocated, reinit the device */
2201 [ # # ]: 0 : if (hw->vqs == NULL) {
2202 : 0 : ret = virtio_init_device(dev, hw->req_guest_features);
2203 [ # # ]: 0 : if (ret < 0)
2204 : : return ret;
2205 : : }
2206 : :
2207 [ # # # # ]: 0 : if ((rxmode->mq_mode & RTE_ETH_MQ_RX_RSS_FLAG) &&
2208 : : !virtio_with_feature(hw, VIRTIO_NET_F_RSS)) {
2209 : 0 : PMD_DRV_LOG(ERR, "RSS support requested but not supported by the device");
2210 : 0 : return -ENOTSUP;
2211 : : }
2212 : :
2213 [ # # ]: 0 : if ((rx_offloads & (RTE_ETH_RX_OFFLOAD_UDP_CKSUM |
2214 [ # # ]: 0 : RTE_ETH_RX_OFFLOAD_TCP_CKSUM)) &&
2215 : : !virtio_with_feature(hw, VIRTIO_NET_F_GUEST_CSUM)) {
2216 : 0 : PMD_DRV_LOG(ERR,
2217 : : "rx checksum not available on this host");
2218 : 0 : return -ENOTSUP;
2219 : : }
2220 : :
2221 [ # # # # ]: 0 : if ((rx_offloads & RTE_ETH_RX_OFFLOAD_TCP_LRO) &&
2222 [ # # ]: 0 : (!virtio_with_feature(hw, VIRTIO_NET_F_GUEST_TSO4) ||
2223 : : !virtio_with_feature(hw, VIRTIO_NET_F_GUEST_TSO6))) {
2224 : 0 : PMD_DRV_LOG(ERR,
2225 : : "Large Receive Offload not available on this host");
2226 : 0 : return -ENOTSUP;
2227 : : }
2228 : :
2229 : : /* start control queue */
2230 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_CTRL_VQ))
2231 : 0 : virtio_dev_cq_start(dev);
2232 : :
2233 [ # # ]: 0 : if (rx_offloads & RTE_ETH_RX_OFFLOAD_VLAN_STRIP)
2234 : 0 : hw->vlan_strip = 1;
2235 : :
2236 : 0 : hw->rx_ol_scatter = (rx_offloads & RTE_ETH_RX_OFFLOAD_SCATTER);
2237 : :
2238 [ # # # # ]: 0 : if ((rx_offloads & RTE_ETH_RX_OFFLOAD_VLAN_FILTER) &&
2239 : : !virtio_with_feature(hw, VIRTIO_NET_F_CTRL_VLAN)) {
2240 : 0 : PMD_DRV_LOG(ERR,
2241 : : "vlan filtering not available on this host");
2242 : 0 : return -ENOTSUP;
2243 : : }
2244 : :
2245 [ # # ]: 0 : hw->has_tx_offload = tx_offload_enabled(hw);
2246 [ # # ]: 0 : hw->has_rx_offload = rx_offload_enabled(hw);
2247 : :
2248 [ # # ]: 0 : if (virtio_with_packed_queue(hw)) {
2249 : : #if defined(RTE_ARCH_X86_64) && defined(CC_AVX512_SUPPORT)
2250 [ # # # # ]: 0 : if ((hw->use_vec_rx || hw->use_vec_tx) &&
2251 [ # # ]: 0 : (!rte_cpu_get_flag_enabled(RTE_CPUFLAG_AVX512F) ||
2252 [ # # ]: 0 : !virtio_with_feature(hw, VIRTIO_F_IN_ORDER) ||
2253 [ # # ]: 0 : !virtio_with_feature(hw, VIRTIO_F_VERSION_1) ||
2254 : 0 : rte_vect_get_max_simd_bitwidth() < RTE_VECT_SIMD_512)) {
2255 : 0 : PMD_DRV_LOG(INFO,
2256 : : "disabled packed ring vectorized path for requirements not met");
2257 : 0 : hw->use_vec_rx = 0;
2258 : 0 : hw->use_vec_tx = 0;
2259 : : }
2260 : : #elif defined(RTE_ARCH_ARM)
2261 : : if ((hw->use_vec_rx || hw->use_vec_tx) &&
2262 : : (!rte_cpu_get_flag_enabled(RTE_CPUFLAG_NEON) ||
2263 : : !virtio_with_feature(hw, VIRTIO_F_IN_ORDER) ||
2264 : : !virtio_with_feature(hw, VIRTIO_F_VERSION_1) ||
2265 : : rte_vect_get_max_simd_bitwidth() < RTE_VECT_SIMD_128)) {
2266 : : PMD_DRV_LOG(INFO,
2267 : : "disabled packed ring vectorized path for requirements not met");
2268 : : hw->use_vec_rx = 0;
2269 : : hw->use_vec_tx = 0;
2270 : : }
2271 : : #else
2272 : : hw->use_vec_rx = 0;
2273 : : hw->use_vec_tx = 0;
2274 : : #endif
2275 : :
2276 [ # # ]: 0 : if (hw->use_vec_rx) {
2277 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_MRG_RXBUF)) {
2278 : 0 : PMD_DRV_LOG(INFO,
2279 : : "disabled packed ring vectorized rx for mrg_rxbuf enabled");
2280 : 0 : hw->use_vec_rx = 0;
2281 : : }
2282 : :
2283 [ # # ]: 0 : if (rx_offloads & RTE_ETH_RX_OFFLOAD_TCP_LRO) {
2284 : 0 : PMD_DRV_LOG(INFO,
2285 : : "disabled packed ring vectorized rx for TCP_LRO enabled");
2286 : 0 : hw->use_vec_rx = 0;
2287 : : }
2288 : : }
2289 : : } else {
2290 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_F_IN_ORDER)) {
2291 : 0 : hw->use_inorder_tx = 1;
2292 : 0 : hw->use_inorder_rx = 1;
2293 : 0 : hw->use_vec_rx = 0;
2294 : : }
2295 : :
2296 [ # # ]: 0 : if (hw->use_vec_rx) {
2297 : : #if defined RTE_ARCH_ARM
2298 : : if (!rte_cpu_get_flag_enabled(RTE_CPUFLAG_NEON)) {
2299 : : PMD_DRV_LOG(INFO,
2300 : : "disabled split ring vectorized path for requirement not met");
2301 : : hw->use_vec_rx = 0;
2302 : : }
2303 : : #endif
2304 [ # # ]: 0 : if (virtio_with_feature(hw, VIRTIO_NET_F_MRG_RXBUF)) {
2305 : 0 : PMD_DRV_LOG(INFO,
2306 : : "disabled split ring vectorized rx for mrg_rxbuf enabled");
2307 : 0 : hw->use_vec_rx = 0;
2308 : : }
2309 : :
2310 [ # # ]: 0 : if (rx_offloads & (RTE_ETH_RX_OFFLOAD_UDP_CKSUM |
2311 : : RTE_ETH_RX_OFFLOAD_TCP_CKSUM |
2312 : : RTE_ETH_RX_OFFLOAD_TCP_LRO |
2313 : : RTE_ETH_RX_OFFLOAD_VLAN_STRIP)) {
2314 : 0 : PMD_DRV_LOG(INFO,
2315 : : "disabled split ring vectorized rx for offloading enabled");
2316 : 0 : hw->use_vec_rx = 0;
2317 : : }
2318 : :
2319 [ # # ]: 0 : if (rte_vect_get_max_simd_bitwidth() < RTE_VECT_SIMD_128) {
2320 : 0 : PMD_DRV_LOG(INFO,
2321 : : "disabled split ring vectorized rx, max SIMD bitwidth too low");
2322 : 0 : hw->use_vec_rx = 0;
2323 : : }
2324 : : }
2325 : : }
2326 : :
2327 : : return 0;
2328 : : }
2329 : :
2330 : :
2331 : : static int
2332 : 0 : virtio_dev_start(struct rte_eth_dev *dev)
2333 : : {
2334 : : uint16_t nb_queues, i;
2335 : : struct virtqueue *vq;
2336 : 0 : struct virtio_hw *hw = dev->data->dev_private;
2337 : : int ret;
2338 : :
2339 : : /* Finish the initialization of the queues */
2340 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
2341 : 0 : ret = virtio_dev_rx_queue_setup_finish(dev, i);
2342 [ # # ]: 0 : if (ret < 0)
2343 : 0 : return ret;
2344 : : }
2345 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
2346 : 0 : ret = virtio_dev_tx_queue_setup_finish(dev, i);
2347 [ # # ]: 0 : if (ret < 0)
2348 : 0 : return ret;
2349 : : }
2350 : :
2351 : : /* check if lsc interrupt feature is enabled */
2352 [ # # ]: 0 : if (dev->data->dev_conf.intr_conf.lsc) {
2353 [ # # ]: 0 : if (!(dev->data->dev_flags & RTE_ETH_DEV_INTR_LSC)) {
2354 : 0 : PMD_DRV_LOG(ERR, "link status not supported by host");
2355 : 0 : return -ENOTSUP;
2356 : : }
2357 : : }
2358 : :
2359 : : /* Enable uio/vfio intr/eventfd mapping: although we already did that
2360 : : * in device configure, but it could be unmapped when device is
2361 : : * stopped.
2362 : : */
2363 [ # # ]: 0 : if (dev->data->dev_conf.intr_conf.lsc ||
2364 : : dev->data->dev_conf.intr_conf.rxq) {
2365 : 0 : virtio_intr_disable(dev);
2366 : :
2367 : : /* Setup interrupt callback */
2368 [ # # ]: 0 : if (dev->data->dev_flags & RTE_ETH_DEV_INTR_LSC)
2369 : 0 : rte_intr_callback_register(dev->intr_handle,
2370 : : virtio_interrupt_handler,
2371 : : dev);
2372 : :
2373 [ # # ]: 0 : if (virtio_intr_enable(dev) < 0) {
2374 : 0 : PMD_DRV_LOG(ERR, "interrupt enable failed");
2375 : 0 : return -EIO;
2376 : : }
2377 : : }
2378 : :
2379 : : /*Notify the backend
2380 : : *Otherwise the tap backend might already stop its queue due to fullness.
2381 : : *vhost backend will have no chance to be waked up
2382 : : */
2383 : 0 : nb_queues = RTE_MAX(dev->data->nb_rx_queues, dev->data->nb_tx_queues);
2384 [ # # ]: 0 : if (hw->max_queue_pairs > 1) {
2385 [ # # ]: 0 : if (virtio_set_multiple_queues(dev, nb_queues) != 0)
2386 : : return -EINVAL;
2387 : : }
2388 : :
2389 : 0 : PMD_INIT_LOG(DEBUG, "nb_queues=%u (port=%u)", nb_queues,
2390 : : dev->data->port_id);
2391 : :
2392 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
2393 : 0 : vq = virtnet_rxq_to_vq(dev->data->rx_queues[i]);
2394 : : /* Flush the old packets */
2395 : 0 : virtqueue_rxvq_flush(vq);
2396 : : virtqueue_notify(vq);
2397 : : }
2398 : :
2399 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
2400 : 0 : vq = virtnet_txq_to_vq(dev->data->tx_queues[i]);
2401 : : virtqueue_notify(vq);
2402 : : }
2403 : :
2404 : 0 : PMD_INIT_LOG(DEBUG, "Notified backend at initialization (port=%u)",
2405 : : dev->data->port_id);
2406 : :
2407 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++) {
2408 : : vq = virtnet_rxq_to_vq(dev->data->rx_queues[i]);
2409 : : VIRTQUEUE_DUMP(vq);
2410 : : }
2411 : :
2412 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++) {
2413 : : vq = virtnet_txq_to_vq(dev->data->tx_queues[i]);
2414 : : VIRTQUEUE_DUMP(vq);
2415 : : }
2416 : :
2417 : 0 : set_rxtx_funcs(dev);
2418 : 0 : hw->started = 1;
2419 : :
2420 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++)
2421 : 0 : dev->data->rx_queue_state[i] = RTE_ETH_QUEUE_STATE_STARTED;
2422 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++)
2423 : 0 : dev->data->tx_queue_state[i] = RTE_ETH_QUEUE_STATE_STARTED;
2424 : :
2425 : : /* Initialize Link state */
2426 : 0 : virtio_dev_link_update(dev, 0);
2427 : :
2428 : 0 : return 0;
2429 : : }
2430 : :
2431 : 0 : static void virtio_dev_free_mbufs(struct rte_eth_dev *dev)
2432 : : {
2433 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
2434 : : uint16_t nr_vq = virtio_get_nr_vq(hw);
2435 : : const char *type __rte_unused;
2436 : : unsigned int i, mbuf_num = 0;
2437 : : struct virtqueue *vq;
2438 : : struct rte_mbuf *buf;
2439 : : int queue_type;
2440 : :
2441 [ # # ]: 0 : if (hw->vqs == NULL)
2442 : : return;
2443 : :
2444 [ # # ]: 0 : for (i = 0; i < nr_vq; i++) {
2445 : 0 : vq = hw->vqs[i];
2446 [ # # ]: 0 : if (!vq)
2447 : 0 : continue;
2448 : :
2449 [ # # ]: 0 : queue_type = virtio_get_queue_type(hw, i);
2450 : : if (queue_type == VTNET_RQ)
2451 : : type = "rxq";
2452 [ # # ]: 0 : else if (queue_type == VTNET_TQ)
2453 : : type = "txq";
2454 : : else
2455 : 0 : continue;
2456 : :
2457 : 0 : PMD_INIT_LOG(DEBUG,
2458 : : "Before freeing %s[%d] used and unused buf",
2459 : : type, i);
2460 : : VIRTQUEUE_DUMP(vq);
2461 : :
2462 [ # # ]: 0 : while ((buf = virtqueue_detach_unused(vq)) != NULL) {
2463 : 0 : rte_pktmbuf_free(buf);
2464 : 0 : mbuf_num++;
2465 : : }
2466 : :
2467 : 0 : PMD_INIT_LOG(DEBUG,
2468 : : "After freeing %s[%d] used and unused buf",
2469 : : type, i);
2470 : : VIRTQUEUE_DUMP(vq);
2471 : : }
2472 : :
2473 : 0 : PMD_INIT_LOG(DEBUG, "%d mbufs freed", mbuf_num);
2474 : : }
2475 : :
2476 : : static void
2477 : 0 : virtio_tx_completed_cleanup(struct rte_eth_dev *dev)
2478 : : {
2479 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
2480 : : struct virtqueue *vq;
2481 : : int qidx;
2482 : : void (*xmit_cleanup)(struct virtqueue *vq, uint16_t nb_used);
2483 : :
2484 [ # # ]: 0 : if (virtio_with_packed_queue(hw)) {
2485 [ # # ]: 0 : if (hw->use_vec_tx)
2486 : : xmit_cleanup = &virtio_xmit_cleanup_inorder_packed;
2487 [ # # ]: 0 : else if (virtio_with_feature(hw, VIRTIO_F_IN_ORDER))
2488 : : xmit_cleanup = &virtio_xmit_cleanup_inorder_packed;
2489 : : else
2490 : : xmit_cleanup = &virtio_xmit_cleanup_normal_packed;
2491 : : } else {
2492 [ # # ]: 0 : if (hw->use_inorder_tx)
2493 : : xmit_cleanup = &virtio_xmit_cleanup_inorder;
2494 : : else
2495 : : xmit_cleanup = &virtio_xmit_cleanup;
2496 : : }
2497 : :
2498 [ # # ]: 0 : for (qidx = 0; qidx < hw->max_queue_pairs; qidx++) {
2499 : 0 : vq = hw->vqs[2 * qidx + VTNET_SQ_TQ_QUEUE_IDX];
2500 [ # # ]: 0 : if (vq != NULL)
2501 : 0 : xmit_cleanup(vq, virtqueue_nused(vq));
2502 : : }
2503 : 0 : }
2504 : :
2505 : : /*
2506 : : * Stop device: disable interrupt and mark link down
2507 : : */
2508 : : int
2509 : 0 : virtio_dev_stop(struct rte_eth_dev *dev)
2510 : : {
2511 : 0 : struct virtio_hw *hw = dev->data->dev_private;
2512 : : struct rte_eth_link link;
2513 : : struct rte_eth_intr_conf *intr_conf = &dev->data->dev_conf.intr_conf;
2514 : : uint16_t i;
2515 : :
2516 : 0 : PMD_INIT_LOG(DEBUG, "stop");
2517 : 0 : dev->data->dev_started = 0;
2518 : :
2519 : 0 : rte_spinlock_lock(&hw->state_lock);
2520 [ # # ]: 0 : if (!hw->started)
2521 : 0 : goto out_unlock;
2522 : 0 : hw->started = 0;
2523 : :
2524 : 0 : virtio_tx_completed_cleanup(dev);
2525 : :
2526 [ # # ]: 0 : if (intr_conf->lsc || intr_conf->rxq) {
2527 : 0 : virtio_intr_disable(dev);
2528 : :
2529 : : /* Reset interrupt callback */
2530 [ # # ]: 0 : if (dev->data->dev_flags & RTE_ETH_DEV_INTR_LSC) {
2531 : 0 : rte_intr_callback_unregister(dev->intr_handle,
2532 : : virtio_interrupt_handler,
2533 : : dev);
2534 : : }
2535 : : }
2536 : :
2537 : : memset(&link, 0, sizeof(link));
2538 : 0 : rte_eth_linkstatus_set(dev, &link);
2539 : 0 : out_unlock:
2540 : : rte_spinlock_unlock(&hw->state_lock);
2541 : :
2542 [ # # ]: 0 : for (i = 0; i < dev->data->nb_rx_queues; i++)
2543 : 0 : dev->data->rx_queue_state[i] = RTE_ETH_QUEUE_STATE_STOPPED;
2544 [ # # ]: 0 : for (i = 0; i < dev->data->nb_tx_queues; i++)
2545 : 0 : dev->data->tx_queue_state[i] = RTE_ETH_QUEUE_STATE_STOPPED;
2546 : :
2547 : 0 : return 0;
2548 : : }
2549 : :
2550 : : static int
2551 : 0 : virtio_dev_link_update(struct rte_eth_dev *dev, __rte_unused int wait_to_complete)
2552 : : {
2553 : : struct rte_eth_link link;
2554 : : uint16_t status;
2555 [ # # ]: 0 : struct virtio_hw *hw = dev->data->dev_private;
2556 : :
2557 : : memset(&link, 0, sizeof(link));
2558 : 0 : link.link_duplex = hw->duplex;
2559 : 0 : link.link_speed = hw->speed;
2560 : 0 : link.link_autoneg = RTE_ETH_LINK_AUTONEG;
2561 : :
2562 [ # # ]: 0 : if (!hw->started) {
2563 : : link.link_status = RTE_ETH_LINK_DOWN;
2564 : 0 : link.link_speed = RTE_ETH_SPEED_NUM_NONE;
2565 [ # # ]: 0 : } else if (virtio_with_feature(hw, VIRTIO_NET_F_STATUS)) {
2566 : 0 : PMD_INIT_LOG(DEBUG, "Get link status from hw");
2567 : 0 : virtio_read_dev_config(hw,
2568 : : offsetof(struct virtio_net_config, status),
2569 : : &status, sizeof(status));
2570 [ # # ]: 0 : if ((status & VIRTIO_NET_S_LINK_UP) == 0) {
2571 : : link.link_status = RTE_ETH_LINK_DOWN;
2572 : 0 : link.link_speed = RTE_ETH_SPEED_NUM_NONE;
2573 : 0 : PMD_INIT_LOG(DEBUG, "Port %d is down",
2574 : : dev->data->port_id);
2575 : : } else {
2576 : 0 : link.link_status = RTE_ETH_LINK_UP;
2577 [ # # ]: 0 : if (hw->get_speed_via_feat)
2578 : 0 : virtio_get_speed_duplex(dev, &link);
2579 : 0 : PMD_INIT_LOG(DEBUG, "Port %d is up",
2580 : : dev->data->port_id);
2581 : : }
2582 : : } else {
2583 : 0 : link.link_status = RTE_ETH_LINK_UP;
2584 [ # # ]: 0 : if (hw->get_speed_via_feat)
2585 : 0 : virtio_get_speed_duplex(dev, &link);
2586 : : }
2587 : :
2588 : 0 : return rte_eth_linkstatus_set(dev, &link);
2589 : : }
2590 : :
2591 : : static int
2592 : 0 : virtio_dev_vlan_offload_set(struct rte_eth_dev *dev, int mask)
2593 : : {
2594 : 0 : const struct rte_eth_rxmode *rxmode = &dev->data->dev_conf.rxmode;
2595 : 0 : struct virtio_hw *hw = dev->data->dev_private;
2596 : 0 : uint64_t offloads = rxmode->offloads;
2597 : :
2598 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_FILTER_MASK) {
2599 [ # # # # ]: 0 : if ((offloads & RTE_ETH_RX_OFFLOAD_VLAN_FILTER) &&
2600 : : !virtio_with_feature(hw, VIRTIO_NET_F_CTRL_VLAN)) {
2601 : :
2602 : 0 : PMD_DRV_LOG(NOTICE,
2603 : : "vlan filtering not available on this host");
2604 : :
2605 : 0 : return -ENOTSUP;
2606 : : }
2607 : : }
2608 : :
2609 [ # # ]: 0 : if (mask & RTE_ETH_VLAN_STRIP_MASK)
2610 : 0 : hw->vlan_strip = !!(offloads & RTE_ETH_RX_OFFLOAD_VLAN_STRIP);
2611 : :
2612 : : return 0;
2613 : : }
2614 : :
2615 : : static int
2616 : 0 : virtio_dev_info_get(struct rte_eth_dev *dev, struct rte_eth_dev_info *dev_info)
2617 : : {
2618 : : uint64_t tso_mask, host_features;
2619 : 0 : uint32_t rss_hash_types = 0;
2620 : 0 : struct virtio_hw *hw = dev->data->dev_private;
2621 : 0 : dev_info->speed_capa = virtio_dev_speed_capa_get(hw->speed);
2622 : :
2623 : 0 : dev_info->max_rx_queues =
2624 : 0 : RTE_MIN(hw->max_queue_pairs, VIRTIO_MAX_RX_QUEUES);
2625 : 0 : dev_info->max_tx_queues =
2626 : : RTE_MIN(hw->max_queue_pairs, VIRTIO_MAX_TX_QUEUES);
2627 : 0 : dev_info->min_rx_bufsize = VIRTIO_MIN_RX_BUFSIZE;
2628 : 0 : dev_info->max_rx_pktlen = VIRTIO_MAX_RX_PKTLEN;
2629 : 0 : dev_info->max_mac_addrs = VIRTIO_MAX_MAC_ADDRS;
2630 : 0 : dev_info->max_mtu = hw->max_mtu;
2631 : :
2632 : 0 : host_features = VIRTIO_OPS(hw)->get_features(hw);
2633 : 0 : dev_info->rx_offload_capa = RTE_ETH_RX_OFFLOAD_VLAN_STRIP;
2634 [ # # ]: 0 : if (host_features & (1ULL << VIRTIO_NET_F_MRG_RXBUF))
2635 : 0 : dev_info->rx_offload_capa |= RTE_ETH_RX_OFFLOAD_SCATTER;
2636 [ # # ]: 0 : if (host_features & (1ULL << VIRTIO_NET_F_GUEST_CSUM)) {
2637 : 0 : dev_info->rx_offload_capa |=
2638 : : RTE_ETH_RX_OFFLOAD_TCP_CKSUM |
2639 : : RTE_ETH_RX_OFFLOAD_UDP_CKSUM;
2640 : : }
2641 [ # # ]: 0 : if (host_features & (1ULL << VIRTIO_NET_F_CTRL_VLAN))
2642 : 0 : dev_info->rx_offload_capa |= RTE_ETH_RX_OFFLOAD_VLAN_FILTER;
2643 : : tso_mask = (1ULL << VIRTIO_NET_F_GUEST_TSO4) |
2644 : : (1ULL << VIRTIO_NET_F_GUEST_TSO6);
2645 [ # # ]: 0 : if ((host_features & tso_mask) == tso_mask)
2646 : 0 : dev_info->rx_offload_capa |= RTE_ETH_RX_OFFLOAD_TCP_LRO;
2647 : :
2648 : 0 : dev_info->tx_offload_capa = RTE_ETH_TX_OFFLOAD_MULTI_SEGS |
2649 : : RTE_ETH_TX_OFFLOAD_VLAN_INSERT;
2650 [ # # ]: 0 : if (host_features & (1ULL << VIRTIO_NET_F_CSUM)) {
2651 : 0 : dev_info->tx_offload_capa |=
2652 : : RTE_ETH_TX_OFFLOAD_UDP_CKSUM |
2653 : : RTE_ETH_TX_OFFLOAD_TCP_CKSUM;
2654 : : }
2655 : : tso_mask = (1ULL << VIRTIO_NET_F_HOST_TSO4) |
2656 : : (1ULL << VIRTIO_NET_F_HOST_TSO6);
2657 [ # # ]: 0 : if ((host_features & tso_mask) == tso_mask)
2658 : 0 : dev_info->tx_offload_capa |= RTE_ETH_TX_OFFLOAD_TCP_TSO;
2659 : :
2660 [ # # ]: 0 : if (host_features & (1ULL << VIRTIO_NET_F_RSS)) {
2661 : 0 : virtio_dev_get_rss_config(hw, &rss_hash_types);
2662 : 0 : dev_info->hash_key_size = VIRTIO_NET_RSS_KEY_SIZE;
2663 : 0 : dev_info->reta_size = VIRTIO_NET_RSS_RETA_SIZE;
2664 : 0 : dev_info->flow_type_rss_offloads =
2665 : 0 : virtio_to_ethdev_rss_offloads(rss_hash_types);
2666 : : } else {
2667 : 0 : dev_info->hash_key_size = 0;
2668 : 0 : dev_info->reta_size = 0;
2669 : 0 : dev_info->flow_type_rss_offloads = 0;
2670 : : }
2671 : :
2672 [ # # ]: 0 : if (host_features & (1ULL << VIRTIO_F_RING_PACKED)) {
2673 : : /*
2674 : : * According to 2.7 Packed Virtqueues,
2675 : : * 2.7.10.1 Structure Size and Alignment:
2676 : : * The Queue Size value does not have to be a power of 2.
2677 : : */
2678 : 0 : dev_info->rx_desc_lim.nb_max = UINT16_MAX;
2679 : 0 : dev_info->tx_desc_lim.nb_max = UINT16_MAX;
2680 : : } else {
2681 : : /*
2682 : : * According to 2.6 Split Virtqueues:
2683 : : * Queue Size value is always a power of 2. The maximum Queue
2684 : : * Size value is 32768.
2685 : : */
2686 : 0 : dev_info->rx_desc_lim.nb_max = 32768;
2687 : 0 : dev_info->tx_desc_lim.nb_max = 32768;
2688 : : }
2689 : : /*
2690 : : * Actual minimum is not the same for virtqueues of different kinds,
2691 : : * but to avoid tangling the code with separate branches, rely on
2692 : : * default thresholds since desc number must be at least of their size.
2693 : : */
2694 : 0 : dev_info->rx_desc_lim.nb_min = RTE_MAX(DEFAULT_RX_FREE_THRESH,
2695 : : RTE_VIRTIO_VPMD_RX_REARM_THRESH);
2696 : 0 : dev_info->tx_desc_lim.nb_min = DEFAULT_TX_FREE_THRESH;
2697 : 0 : dev_info->rx_desc_lim.nb_align = 1;
2698 : 0 : dev_info->tx_desc_lim.nb_align = 1;
2699 : :
2700 : 0 : return 0;
2701 : : }
2702 : :
2703 : : /*
2704 : : * It enables testpmd to collect per queue stats.
2705 : : */
2706 : : static int
2707 : 0 : virtio_dev_queue_stats_mapping_set(__rte_unused struct rte_eth_dev *eth_dev,
2708 : : __rte_unused uint16_t queue_id, __rte_unused uint8_t stat_idx,
2709 : : __rte_unused uint8_t is_rx)
2710 : : {
2711 : 0 : return 0;
2712 : : }
2713 : :
2714 [ - + ]: 235 : RTE_LOG_REGISTER_SUFFIX(virtio_logtype_init, init, NOTICE);
2715 [ - + ]: 235 : RTE_LOG_REGISTER_SUFFIX(virtio_logtype_driver, driver, NOTICE);
|