Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright 2016 6WIND S.A.
3 : : * Copyright 2016 Mellanox Technologies, Ltd
4 : : */
5 : :
6 : : #include <stdalign.h>
7 : : #include <errno.h>
8 : : #include <stddef.h>
9 : : #include <stdint.h>
10 : : #include <pthread.h>
11 : :
12 : : #include <eal_export.h>
13 : : #include <rte_common.h>
14 : : #include <rte_errno.h>
15 : : #include <rte_branch_prediction.h>
16 : : #include <rte_string_fns.h>
17 : : #include <rte_mbuf_dyn.h>
18 : : #include "rte_flow_driver.h"
19 : : #include "rte_flow.h"
20 : :
21 : : #include "ethdev_trace.h"
22 : :
23 : : #define FLOW_LOG RTE_ETHDEV_LOG_LINE
24 : :
25 : : /* Mbuf dynamic field name for metadata. */
26 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_dynf_metadata_offs, 19.11)
27 : : int32_t rte_flow_dynf_metadata_offs = -1;
28 : :
29 : : /* Mbuf dynamic field flag bit number for metadata. */
30 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_dynf_metadata_mask, 19.11)
31 : : uint64_t rte_flow_dynf_metadata_mask;
32 : :
33 : : /**
34 : : * Flow elements description tables.
35 : : */
36 : : struct rte_flow_desc_data {
37 : : const char *name;
38 : : size_t size;
39 : : size_t (*desc_fn)(void *dst, const void *src);
40 : : };
41 : :
42 : : /**
43 : : *
44 : : * @param buf
45 : : * Destination memory.
46 : : * @param data
47 : : * Source memory
48 : : * @param size
49 : : * Requested copy size
50 : : * @param desc
51 : : * rte_flow_desc_item - for flow item conversion.
52 : : * rte_flow_desc_action - for flow action conversion.
53 : : * @param type
54 : : * Offset into the desc param or negative value for private flow elements.
55 : : */
56 : : static inline size_t
57 : 0 : rte_flow_conv_copy(void *buf, const void *data, const size_t size,
58 : : const struct rte_flow_desc_data *desc, int type)
59 : : {
60 : : /**
61 : : * Allow PMD private flow item
62 : : */
63 : : bool rte_type = type >= 0;
64 : :
65 [ # # ]: 0 : size_t sz = rte_type ? desc[type].size : sizeof(void *);
66 [ # # ]: 0 : if (data == NULL)
67 : : return 0;
68 [ # # ]: 0 : if (buf != NULL)
69 [ # # ]: 0 : rte_memcpy(buf, data, (size > sz ? sz : size));
70 [ # # # # ]: 0 : if (rte_type && desc[type].desc_fn)
71 [ # # ]: 0 : sz += desc[type].desc_fn(size > 0 ? buf : NULL, data);
72 : : return sz;
73 : : }
74 : :
75 : : static size_t
76 : 0 : rte_flow_item_flex_conv(void *buf, const void *data)
77 : : {
78 : : struct rte_flow_item_flex *dst = buf;
79 : : const struct rte_flow_item_flex *src = data;
80 [ # # ]: 0 : if (buf) {
81 : 0 : dst->pattern = rte_memcpy
82 : 0 : ((void *)((uintptr_t)(dst + 1)), src->pattern,
83 [ # # ]: 0 : src->length);
84 : : }
85 : 0 : return src->length;
86 : : }
87 : :
88 : : /** Generate flow_item[] entry. */
89 : : #define MK_FLOW_ITEM(t, s) \
90 : : [RTE_FLOW_ITEM_TYPE_ ## t] = { \
91 : : .name = # t, \
92 : : .size = s, \
93 : : .desc_fn = NULL,\
94 : : }
95 : :
96 : : #define MK_FLOW_ITEM_FN(t, s, fn) \
97 : : [RTE_FLOW_ITEM_TYPE_ ## t] = {\
98 : : .name = # t, \
99 : : .size = s, \
100 : : .desc_fn = fn, \
101 : : }
102 : :
103 : : /** Information about known flow pattern items. */
104 : : static const struct rte_flow_desc_data rte_flow_desc_item[] = {
105 : : MK_FLOW_ITEM(END, 0),
106 : : MK_FLOW_ITEM(VOID, 0),
107 : : MK_FLOW_ITEM(INVERT, 0),
108 : : MK_FLOW_ITEM(ANY, sizeof(struct rte_flow_item_any)),
109 : : MK_FLOW_ITEM(PORT_ID, sizeof(struct rte_flow_item_port_id)),
110 : : MK_FLOW_ITEM(RAW, sizeof(struct rte_flow_item_raw)),
111 : : MK_FLOW_ITEM(ETH, sizeof(struct rte_flow_item_eth)),
112 : : MK_FLOW_ITEM(VLAN, sizeof(struct rte_flow_item_vlan)),
113 : : MK_FLOW_ITEM(IPV4, sizeof(struct rte_flow_item_ipv4)),
114 : : MK_FLOW_ITEM(IPV6, sizeof(struct rte_flow_item_ipv6)),
115 : : MK_FLOW_ITEM(ICMP, sizeof(struct rte_flow_item_icmp)),
116 : : MK_FLOW_ITEM(UDP, sizeof(struct rte_flow_item_udp)),
117 : : MK_FLOW_ITEM(TCP, sizeof(struct rte_flow_item_tcp)),
118 : : MK_FLOW_ITEM(SCTP, sizeof(struct rte_flow_item_sctp)),
119 : : MK_FLOW_ITEM(VXLAN, sizeof(struct rte_flow_item_vxlan)),
120 : : MK_FLOW_ITEM(E_TAG, sizeof(struct rte_flow_item_e_tag)),
121 : : MK_FLOW_ITEM(NVGRE, sizeof(struct rte_flow_item_nvgre)),
122 : : MK_FLOW_ITEM(MPLS, sizeof(struct rte_flow_item_mpls)),
123 : : MK_FLOW_ITEM(GRE, sizeof(struct rte_flow_item_gre)),
124 : : MK_FLOW_ITEM(FUZZY, sizeof(struct rte_flow_item_fuzzy)),
125 : : MK_FLOW_ITEM(GTP, sizeof(struct rte_flow_item_gtp)),
126 : : MK_FLOW_ITEM(GTPC, sizeof(struct rte_flow_item_gtp)),
127 : : MK_FLOW_ITEM(GTPU, sizeof(struct rte_flow_item_gtp)),
128 : : MK_FLOW_ITEM(ESP, sizeof(struct rte_flow_item_esp)),
129 : : MK_FLOW_ITEM(GENEVE, sizeof(struct rte_flow_item_geneve)),
130 : : MK_FLOW_ITEM(VXLAN_GPE, sizeof(struct rte_flow_item_vxlan_gpe)),
131 : : MK_FLOW_ITEM(ARP_ETH_IPV4, sizeof(struct rte_flow_item_arp_eth_ipv4)),
132 : : MK_FLOW_ITEM(IPV6_EXT, sizeof(struct rte_flow_item_ipv6_ext)),
133 : : MK_FLOW_ITEM(IPV6_FRAG_EXT, sizeof(struct rte_flow_item_ipv6_frag_ext)),
134 : : MK_FLOW_ITEM(ICMP6, sizeof(struct rte_flow_item_icmp6)),
135 : : MK_FLOW_ITEM(ICMP6_ECHO_REQUEST, sizeof(struct rte_flow_item_icmp6_echo)),
136 : : MK_FLOW_ITEM(ICMP6_ECHO_REPLY, sizeof(struct rte_flow_item_icmp6_echo)),
137 : : MK_FLOW_ITEM(ICMP6_ND_NS, sizeof(struct rte_flow_item_icmp6_nd_ns)),
138 : : MK_FLOW_ITEM(ICMP6_ND_NA, sizeof(struct rte_flow_item_icmp6_nd_na)),
139 : : MK_FLOW_ITEM(ICMP6_ND_OPT, sizeof(struct rte_flow_item_icmp6_nd_opt)),
140 : : MK_FLOW_ITEM(ICMP6_ND_OPT_SLA_ETH,
141 : : sizeof(struct rte_flow_item_icmp6_nd_opt_sla_eth)),
142 : : MK_FLOW_ITEM(ICMP6_ND_OPT_TLA_ETH,
143 : : sizeof(struct rte_flow_item_icmp6_nd_opt_tla_eth)),
144 : : MK_FLOW_ITEM(MARK, sizeof(struct rte_flow_item_mark)),
145 : : MK_FLOW_ITEM(META, sizeof(struct rte_flow_item_meta)),
146 : : MK_FLOW_ITEM(RANDOM, sizeof(struct rte_flow_item_random)),
147 : : MK_FLOW_ITEM(TAG, sizeof(struct rte_flow_item_tag)),
148 : : MK_FLOW_ITEM(GRE_KEY, sizeof(rte_be32_t)),
149 : : MK_FLOW_ITEM(GRE_OPTION, sizeof(struct rte_flow_item_gre_opt)),
150 : : MK_FLOW_ITEM(GTP_PSC, sizeof(struct rte_flow_item_gtp_psc)),
151 : : MK_FLOW_ITEM(PPPOES, sizeof(struct rte_flow_item_pppoe)),
152 : : MK_FLOW_ITEM(PPPOED, sizeof(struct rte_flow_item_pppoe)),
153 : : MK_FLOW_ITEM(PPPOE_PROTO_ID,
154 : : sizeof(struct rte_flow_item_pppoe_proto_id)),
155 : : MK_FLOW_ITEM(NSH, sizeof(struct rte_flow_item_nsh)),
156 : : MK_FLOW_ITEM(IGMP, sizeof(struct rte_flow_item_igmp)),
157 : : MK_FLOW_ITEM(AH, sizeof(struct rte_flow_item_ah)),
158 : : MK_FLOW_ITEM(HIGIG2, sizeof(struct rte_flow_item_higig2_hdr)),
159 : : MK_FLOW_ITEM(L2TPV3OIP, sizeof(struct rte_flow_item_l2tpv3oip)),
160 : : MK_FLOW_ITEM(PFCP, sizeof(struct rte_flow_item_pfcp)),
161 : : MK_FLOW_ITEM(ECPRI, sizeof(struct rte_flow_item_ecpri)),
162 : : MK_FLOW_ITEM(GENEVE_OPT, sizeof(struct rte_flow_item_geneve_opt)),
163 : : MK_FLOW_ITEM(INTEGRITY, sizeof(struct rte_flow_item_integrity)),
164 : : MK_FLOW_ITEM(CONNTRACK, sizeof(uint32_t)),
165 : : MK_FLOW_ITEM(PORT_REPRESENTOR, sizeof(struct rte_flow_item_ethdev)),
166 : : MK_FLOW_ITEM(REPRESENTED_PORT, sizeof(struct rte_flow_item_ethdev)),
167 : : MK_FLOW_ITEM_FN(FLEX, sizeof(struct rte_flow_item_flex),
168 : : rte_flow_item_flex_conv),
169 : : MK_FLOW_ITEM(L2TPV2, sizeof(struct rte_flow_item_l2tpv2)),
170 : : MK_FLOW_ITEM(PPP, sizeof(struct rte_flow_item_ppp)),
171 : : MK_FLOW_ITEM(METER_COLOR, sizeof(struct rte_flow_item_meter_color)),
172 : : MK_FLOW_ITEM(IPV6_ROUTING_EXT, sizeof(struct rte_flow_item_ipv6_routing_ext)),
173 : : MK_FLOW_ITEM(QUOTA, sizeof(struct rte_flow_item_quota)),
174 : : MK_FLOW_ITEM(AGGR_AFFINITY, sizeof(struct rte_flow_item_aggr_affinity)),
175 : : MK_FLOW_ITEM(TX_QUEUE, sizeof(struct rte_flow_item_tx_queue)),
176 : : MK_FLOW_ITEM(IB_BTH, sizeof(struct rte_flow_item_ib_bth)),
177 : : MK_FLOW_ITEM(PTYPE, sizeof(struct rte_flow_item_ptype)),
178 : : MK_FLOW_ITEM(COMPARE, sizeof(struct rte_flow_item_compare)),
179 : : };
180 : :
181 : : /** Generate flow_action[] entry. */
182 : : #define MK_FLOW_ACTION(t, s) \
183 : : [RTE_FLOW_ACTION_TYPE_ ## t] = { \
184 : : .name = # t, \
185 : : .size = s, \
186 : : .desc_fn = NULL,\
187 : : }
188 : :
189 : : #define MK_FLOW_ACTION_FN(t, fn) \
190 : : [RTE_FLOW_ACTION_TYPE_ ## t] = { \
191 : : .name = # t, \
192 : : .size = 0, \
193 : : .desc_fn = fn,\
194 : : }
195 : :
196 : :
197 : : /** Information about known flow actions. */
198 : : static const struct rte_flow_desc_data rte_flow_desc_action[] = {
199 : : MK_FLOW_ACTION(END, 0),
200 : : MK_FLOW_ACTION(VOID, 0),
201 : : MK_FLOW_ACTION(PASSTHRU, 0),
202 : : MK_FLOW_ACTION(JUMP, sizeof(struct rte_flow_action_jump)),
203 : : MK_FLOW_ACTION(MARK, sizeof(struct rte_flow_action_mark)),
204 : : MK_FLOW_ACTION(FLAG, 0),
205 : : MK_FLOW_ACTION(QUEUE, sizeof(struct rte_flow_action_queue)),
206 : : MK_FLOW_ACTION(DROP, 0),
207 : : MK_FLOW_ACTION(COUNT, sizeof(struct rte_flow_action_count)),
208 : : MK_FLOW_ACTION(RSS, sizeof(struct rte_flow_action_rss)),
209 : : MK_FLOW_ACTION(PF, 0),
210 : : MK_FLOW_ACTION(VF, sizeof(struct rte_flow_action_vf)),
211 : : MK_FLOW_ACTION(PORT_ID, sizeof(struct rte_flow_action_port_id)),
212 : : MK_FLOW_ACTION(METER, sizeof(struct rte_flow_action_meter)),
213 : : MK_FLOW_ACTION(SECURITY, sizeof(struct rte_flow_action_security)),
214 : : MK_FLOW_ACTION(OF_DEC_NW_TTL, 0),
215 : : MK_FLOW_ACTION(OF_POP_VLAN, 0),
216 : : MK_FLOW_ACTION(OF_PUSH_VLAN,
217 : : sizeof(struct rte_flow_action_of_push_vlan)),
218 : : MK_FLOW_ACTION(OF_SET_VLAN_VID,
219 : : sizeof(struct rte_flow_action_of_set_vlan_vid)),
220 : : MK_FLOW_ACTION(OF_SET_VLAN_PCP,
221 : : sizeof(struct rte_flow_action_of_set_vlan_pcp)),
222 : : MK_FLOW_ACTION(OF_POP_MPLS,
223 : : sizeof(struct rte_flow_action_of_pop_mpls)),
224 : : MK_FLOW_ACTION(OF_PUSH_MPLS,
225 : : sizeof(struct rte_flow_action_of_push_mpls)),
226 : : MK_FLOW_ACTION(VXLAN_ENCAP, sizeof(struct rte_flow_action_vxlan_encap)),
227 : : MK_FLOW_ACTION(VXLAN_DECAP, 0),
228 : : MK_FLOW_ACTION(NVGRE_ENCAP, sizeof(struct rte_flow_action_nvgre_encap)),
229 : : MK_FLOW_ACTION(NVGRE_DECAP, 0),
230 : : MK_FLOW_ACTION(RAW_ENCAP, sizeof(struct rte_flow_action_raw_encap)),
231 : : MK_FLOW_ACTION(RAW_DECAP, sizeof(struct rte_flow_action_raw_decap)),
232 : : MK_FLOW_ACTION(SET_IPV4_SRC,
233 : : sizeof(struct rte_flow_action_set_ipv4)),
234 : : MK_FLOW_ACTION(SET_IPV4_DST,
235 : : sizeof(struct rte_flow_action_set_ipv4)),
236 : : MK_FLOW_ACTION(SET_IPV6_SRC,
237 : : sizeof(struct rte_flow_action_set_ipv6)),
238 : : MK_FLOW_ACTION(SET_IPV6_DST,
239 : : sizeof(struct rte_flow_action_set_ipv6)),
240 : : MK_FLOW_ACTION(SET_TP_SRC,
241 : : sizeof(struct rte_flow_action_set_tp)),
242 : : MK_FLOW_ACTION(SET_TP_DST,
243 : : sizeof(struct rte_flow_action_set_tp)),
244 : : MK_FLOW_ACTION(MAC_SWAP, 0),
245 : : MK_FLOW_ACTION(DEC_TTL, 0),
246 : : MK_FLOW_ACTION(SET_TTL, sizeof(struct rte_flow_action_set_ttl)),
247 : : MK_FLOW_ACTION(SET_MAC_SRC, sizeof(struct rte_flow_action_set_mac)),
248 : : MK_FLOW_ACTION(SET_MAC_DST, sizeof(struct rte_flow_action_set_mac)),
249 : : MK_FLOW_ACTION(INC_TCP_SEQ, sizeof(rte_be32_t)),
250 : : MK_FLOW_ACTION(DEC_TCP_SEQ, sizeof(rte_be32_t)),
251 : : MK_FLOW_ACTION(INC_TCP_ACK, sizeof(rte_be32_t)),
252 : : MK_FLOW_ACTION(DEC_TCP_ACK, sizeof(rte_be32_t)),
253 : : MK_FLOW_ACTION(SET_TAG, sizeof(struct rte_flow_action_set_tag)),
254 : : MK_FLOW_ACTION(SET_META, sizeof(struct rte_flow_action_set_meta)),
255 : : MK_FLOW_ACTION(SET_IPV4_DSCP, sizeof(struct rte_flow_action_set_dscp)),
256 : : MK_FLOW_ACTION(SET_IPV6_DSCP, sizeof(struct rte_flow_action_set_dscp)),
257 : : MK_FLOW_ACTION(AGE, sizeof(struct rte_flow_action_age)),
258 : : MK_FLOW_ACTION(SAMPLE, sizeof(struct rte_flow_action_sample)),
259 : : MK_FLOW_ACTION(MODIFY_FIELD,
260 : : sizeof(struct rte_flow_action_modify_field)),
261 : : /**
262 : : * Indirect action represented as handle of type
263 : : * (struct rte_flow_action_handle *) stored in conf field (see
264 : : * struct rte_flow_action); no need for additional structure to * store
265 : : * indirect action handle.
266 : : */
267 : : MK_FLOW_ACTION(INDIRECT, 0),
268 : : MK_FLOW_ACTION(CONNTRACK, sizeof(struct rte_flow_action_conntrack)),
269 : : MK_FLOW_ACTION(PORT_REPRESENTOR, sizeof(struct rte_flow_action_ethdev)),
270 : : MK_FLOW_ACTION(REPRESENTED_PORT, sizeof(struct rte_flow_action_ethdev)),
271 : : MK_FLOW_ACTION(METER_MARK, sizeof(struct rte_flow_action_meter_mark)),
272 : : MK_FLOW_ACTION(SEND_TO_KERNEL, 0),
273 : : MK_FLOW_ACTION(QUOTA, sizeof(struct rte_flow_action_quota)),
274 : : MK_FLOW_ACTION(IPV6_EXT_PUSH, sizeof(struct rte_flow_action_ipv6_ext_push)),
275 : : MK_FLOW_ACTION(IPV6_EXT_REMOVE, sizeof(struct rte_flow_action_ipv6_ext_remove)),
276 : : MK_FLOW_ACTION(INDIRECT_LIST,
277 : : sizeof(struct rte_flow_action_indirect_list)),
278 : : MK_FLOW_ACTION(PROG,
279 : : sizeof(struct rte_flow_action_prog)),
280 : : MK_FLOW_ACTION(NAT64, sizeof(struct rte_flow_action_nat64)),
281 : : MK_FLOW_ACTION(JUMP_TO_TABLE_INDEX, sizeof(struct rte_flow_action_jump_to_table_index)),
282 : : };
283 : :
284 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_dynf_metadata_register, 19.11)
285 : : int
286 : 0 : rte_flow_dynf_metadata_register(void)
287 : : {
288 : : int offset;
289 : : int flag;
290 : :
291 : : static const struct rte_mbuf_dynfield desc_offs = {
292 : : .name = RTE_MBUF_DYNFIELD_METADATA_NAME,
293 : : .size = sizeof(uint32_t),
294 : : .align = alignof(uint32_t),
295 : : };
296 : : static const struct rte_mbuf_dynflag desc_flag = {
297 : : .name = RTE_MBUF_DYNFLAG_METADATA_NAME,
298 : : };
299 : :
300 : 0 : offset = rte_mbuf_dynfield_register(&desc_offs);
301 [ # # ]: 0 : if (offset < 0)
302 : 0 : goto error;
303 : 0 : flag = rte_mbuf_dynflag_register(&desc_flag);
304 [ # # ]: 0 : if (flag < 0)
305 : 0 : goto error;
306 : 0 : rte_flow_dynf_metadata_offs = offset;
307 [ # # ]: 0 : rte_flow_dynf_metadata_mask = RTE_BIT64(flag);
308 : :
309 : 0 : rte_flow_trace_dynf_metadata_register(offset, RTE_BIT64(flag));
310 : :
311 : 0 : return 0;
312 : :
313 : 0 : error:
314 : 0 : rte_flow_dynf_metadata_offs = -1;
315 : 0 : rte_flow_dynf_metadata_mask = UINT64_C(0);
316 : 0 : return -rte_errno;
317 : : }
318 : :
319 : : static inline void
320 : : fts_enter(struct rte_eth_dev *dev)
321 : : {
322 [ # # # # : 0 : if (!(dev->data->dev_flags & RTE_ETH_DEV_FLOW_OPS_THREAD_SAFE))
# # # # #
# # # # #
# # # # #
# ]
323 : 0 : pthread_mutex_lock(&dev->data->flow_ops_mutex);
324 : : }
325 : :
326 : : static inline void
327 : : fts_exit(struct rte_eth_dev *dev)
328 : : {
329 [ # # # # : 0 : if (!(dev->data->dev_flags & RTE_ETH_DEV_FLOW_OPS_THREAD_SAFE))
# # # # #
# # # # #
# # # # #
# ]
330 : 0 : pthread_mutex_unlock(&dev->data->flow_ops_mutex);
331 : : }
332 : :
333 : : static int
334 : 0 : flow_err(uint16_t port_id, int ret, struct rte_flow_error *error)
335 : : {
336 [ # # ]: 0 : if (ret == 0)
337 : : return 0;
338 [ # # ]: 0 : if (rte_eth_dev_is_removed(port_id))
339 : 0 : return rte_flow_error_set(error, EIO,
340 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
341 : : NULL, rte_strerror(EIO));
342 : : return ret;
343 : : }
344 : :
345 : : /* Get generic flow operations structure from a port. */
346 : : const struct rte_flow_ops *
347 : 0 : rte_flow_ops_get(uint16_t port_id, struct rte_flow_error *error)
348 : : {
349 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
350 : : const struct rte_flow_ops *ops;
351 : : int code;
352 : :
353 [ # # ]: 0 : if (unlikely(!rte_eth_dev_is_valid_port(port_id)))
354 : : code = ENODEV;
355 [ # # ]: 0 : else if (unlikely(dev->dev_ops->flow_ops_get == NULL))
356 : : /* flow API not supported with this driver dev_ops */
357 : : code = ENOSYS;
358 : : else
359 : 0 : code = dev->dev_ops->flow_ops_get(dev, &ops);
360 [ # # # # ]: 0 : if (code == 0 && ops == NULL)
361 : : /* flow API not supported with this device */
362 : : code = ENOSYS;
363 : :
364 [ # # ]: 0 : if (code != 0) {
365 : 0 : rte_flow_error_set(error, code, RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
366 : : NULL, rte_strerror(code));
367 : 0 : return NULL;
368 : : }
369 : 0 : return ops;
370 : : }
371 : :
372 : : /* Check whether a flow rule can be created on a given port. */
373 : : RTE_EXPORT_SYMBOL(rte_flow_validate)
374 : : int
375 : 0 : rte_flow_validate(uint16_t port_id,
376 : : const struct rte_flow_attr *attr,
377 : : const struct rte_flow_item pattern[],
378 : : const struct rte_flow_action actions[],
379 : : struct rte_flow_error *error)
380 : : {
381 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
382 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
383 : : int ret;
384 : :
385 [ # # # # ]: 0 : if (likely(!!attr) && attr->transfer &&
386 [ # # ]: 0 : (attr->ingress || attr->egress)) {
387 : 0 : return rte_flow_error_set(error, EINVAL,
388 : : RTE_FLOW_ERROR_TYPE_ATTR,
389 : : attr, "cannot use attr ingress/egress with attr transfer");
390 : : }
391 : :
392 [ # # ]: 0 : if (unlikely(!ops))
393 : 0 : return -rte_errno;
394 [ # # ]: 0 : if (likely(!!ops->validate)) {
395 : : fts_enter(dev);
396 : 0 : ret = ops->validate(dev, attr, pattern, actions, error);
397 : : fts_exit(dev);
398 : 0 : ret = flow_err(port_id, ret, error);
399 : :
400 : 0 : rte_flow_trace_validate(port_id, attr, pattern, actions, ret);
401 : :
402 : 0 : return ret;
403 : : }
404 : 0 : return rte_flow_error_set(error, ENOSYS,
405 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
406 : : NULL, rte_strerror(ENOSYS));
407 : : }
408 : :
409 : : /* Create a flow rule on a given port. */
410 : : RTE_EXPORT_SYMBOL(rte_flow_create)
411 : : struct rte_flow *
412 : 0 : rte_flow_create(uint16_t port_id,
413 : : const struct rte_flow_attr *attr,
414 : : const struct rte_flow_item pattern[],
415 : : const struct rte_flow_action actions[],
416 : : struct rte_flow_error *error)
417 : : {
418 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
419 : : struct rte_flow *flow;
420 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
421 : :
422 [ # # ]: 0 : if (unlikely(!ops))
423 : : return NULL;
424 [ # # ]: 0 : if (likely(!!ops->create)) {
425 : : fts_enter(dev);
426 : 0 : flow = ops->create(dev, attr, pattern, actions, error);
427 : : fts_exit(dev);
428 [ # # ]: 0 : if (flow == NULL)
429 : 0 : flow_err(port_id, -rte_errno, error);
430 : :
431 : : rte_flow_trace_create(port_id, attr, pattern, actions, flow);
432 : :
433 : 0 : return flow;
434 : : }
435 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
436 : : NULL, rte_strerror(ENOSYS));
437 : 0 : return NULL;
438 : : }
439 : :
440 : : /* Destroy a flow rule on a given port. */
441 : : RTE_EXPORT_SYMBOL(rte_flow_destroy)
442 : : int
443 : 0 : rte_flow_destroy(uint16_t port_id,
444 : : struct rte_flow *flow,
445 : : struct rte_flow_error *error)
446 : : {
447 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
448 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
449 : : int ret;
450 : :
451 [ # # ]: 0 : if (unlikely(!ops))
452 : 0 : return -rte_errno;
453 [ # # ]: 0 : if (likely(!!ops->destroy)) {
454 : : fts_enter(dev);
455 : 0 : ret = ops->destroy(dev, flow, error);
456 : : fts_exit(dev);
457 : 0 : ret = flow_err(port_id, ret, error);
458 : :
459 : : rte_flow_trace_destroy(port_id, flow, ret);
460 : :
461 : 0 : return ret;
462 : : }
463 : 0 : return rte_flow_error_set(error, ENOSYS,
464 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
465 : : NULL, rte_strerror(ENOSYS));
466 : : }
467 : :
468 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_actions_update, 23.07)
469 : : int
470 : 0 : rte_flow_actions_update(uint16_t port_id,
471 : : struct rte_flow *flow,
472 : : const struct rte_flow_action actions[],
473 : : struct rte_flow_error *error)
474 : : {
475 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
476 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
477 : : int ret;
478 : :
479 [ # # ]: 0 : if (unlikely(!ops))
480 : 0 : return -rte_errno;
481 [ # # ]: 0 : if (likely(!!ops->actions_update)) {
482 : : fts_enter(dev);
483 : 0 : ret = ops->actions_update(dev, flow, actions, error);
484 : : fts_exit(dev);
485 : :
486 : : rte_flow_trace_actions_update(port_id, flow, actions, ret);
487 : :
488 : 0 : return flow_err(port_id, ret, error);
489 : : }
490 : 0 : return rte_flow_error_set(error, ENOSYS,
491 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
492 : : NULL, rte_strerror(ENOSYS));
493 : : }
494 : :
495 : : /* Destroy all flow rules associated with a port. */
496 : : RTE_EXPORT_SYMBOL(rte_flow_flush)
497 : : int
498 : 0 : rte_flow_flush(uint16_t port_id,
499 : : struct rte_flow_error *error)
500 : : {
501 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
502 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
503 : : int ret;
504 : :
505 [ # # ]: 0 : if (unlikely(!ops))
506 : 0 : return -rte_errno;
507 [ # # ]: 0 : if (likely(!!ops->flush)) {
508 : : fts_enter(dev);
509 : 0 : ret = ops->flush(dev, error);
510 : : fts_exit(dev);
511 : 0 : ret = flow_err(port_id, ret, error);
512 : :
513 : 0 : rte_flow_trace_flush(port_id, ret);
514 : :
515 : 0 : return ret;
516 : : }
517 : 0 : return rte_flow_error_set(error, ENOSYS,
518 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
519 : : NULL, rte_strerror(ENOSYS));
520 : : }
521 : :
522 : : /* Query an existing flow rule. */
523 : : RTE_EXPORT_SYMBOL(rte_flow_query)
524 : : int
525 : 0 : rte_flow_query(uint16_t port_id,
526 : : struct rte_flow *flow,
527 : : const struct rte_flow_action *action,
528 : : void *data,
529 : : struct rte_flow_error *error)
530 : : {
531 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
532 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
533 : : int ret;
534 : :
535 [ # # ]: 0 : if (!ops)
536 : 0 : return -rte_errno;
537 [ # # ]: 0 : if (likely(!!ops->query)) {
538 : : fts_enter(dev);
539 : 0 : ret = ops->query(dev, flow, action, data, error);
540 : : fts_exit(dev);
541 : 0 : ret = flow_err(port_id, ret, error);
542 : :
543 : : rte_flow_trace_query(port_id, flow, action, data, ret);
544 : :
545 : 0 : return ret;
546 : : }
547 : 0 : return rte_flow_error_set(error, ENOSYS,
548 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
549 : : NULL, rte_strerror(ENOSYS));
550 : : }
551 : :
552 : : /* Restrict ingress traffic to the defined flow rules. */
553 : : RTE_EXPORT_SYMBOL(rte_flow_isolate)
554 : : int
555 : 0 : rte_flow_isolate(uint16_t port_id,
556 : : int set,
557 : : struct rte_flow_error *error)
558 : : {
559 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
560 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
561 : : int ret;
562 : :
563 [ # # ]: 0 : if (!ops)
564 : 0 : return -rte_errno;
565 [ # # ]: 0 : if (likely(!!ops->isolate)) {
566 : : fts_enter(dev);
567 : 0 : ret = ops->isolate(dev, set, error);
568 : : fts_exit(dev);
569 : 0 : ret = flow_err(port_id, ret, error);
570 : :
571 : : rte_flow_trace_isolate(port_id, set, ret);
572 : :
573 : 0 : return ret;
574 : : }
575 : 0 : return rte_flow_error_set(error, ENOSYS,
576 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
577 : : NULL, rte_strerror(ENOSYS));
578 : : }
579 : :
580 : : /* Initialize flow error structure. */
581 : : RTE_EXPORT_SYMBOL(rte_flow_error_set)
582 : : int
583 : 0 : rte_flow_error_set(struct rte_flow_error *error,
584 : : int code,
585 : : enum rte_flow_error_type type,
586 : : const void *cause,
587 : : const char *message)
588 : : {
589 [ # # ]: 0 : if (error) {
590 : 0 : *error = (struct rte_flow_error){
591 : : .type = type,
592 : : .cause = cause,
593 : : .message = message,
594 : : };
595 : : }
596 : 0 : rte_errno = code;
597 : 0 : return -code;
598 : : }
599 : :
600 : : /** Pattern item specification types. */
601 : : enum rte_flow_conv_item_spec_type {
602 : : RTE_FLOW_CONV_ITEM_SPEC,
603 : : RTE_FLOW_CONV_ITEM_LAST,
604 : : RTE_FLOW_CONV_ITEM_MASK,
605 : : };
606 : :
607 : : /**
608 : : * Copy pattern item specification.
609 : : *
610 : : * @param[out] buf
611 : : * Output buffer. Can be NULL if @p size is zero.
612 : : * @param size
613 : : * Size of @p buf in bytes.
614 : : * @param[in] item
615 : : * Pattern item to copy specification from.
616 : : * @param type
617 : : * Specification selector for either @p spec, @p last or @p mask.
618 : : *
619 : : * @return
620 : : * Number of bytes needed to store pattern item specification regardless
621 : : * of @p size. @p buf contents are truncated to @p size if not large
622 : : * enough.
623 : : */
624 : : static size_t
625 : 0 : rte_flow_conv_item_spec(void *buf, const size_t size,
626 : : const struct rte_flow_item *item,
627 : : enum rte_flow_conv_item_spec_type type)
628 : : {
629 : : size_t off;
630 : : const void *data =
631 [ # # ]: 0 : type == RTE_FLOW_CONV_ITEM_SPEC ? item->spec :
632 [ # # ]: 0 : type == RTE_FLOW_CONV_ITEM_LAST ? item->last :
633 [ # # ]: 0 : type == RTE_FLOW_CONV_ITEM_MASK ? item->mask :
634 : : NULL;
635 : :
636 [ # # # ]: 0 : switch (item->type) {
637 : : union {
638 : : const struct rte_flow_item_raw *raw;
639 : : const struct rte_flow_item_geneve_opt *geneve_opt;
640 : : } spec;
641 : : union {
642 : : const struct rte_flow_item_raw *raw;
643 : : } last;
644 : : union {
645 : : const struct rte_flow_item_raw *raw;
646 : : } mask;
647 : : union {
648 : : const struct rte_flow_item_raw *raw;
649 : : const struct rte_flow_item_geneve_opt *geneve_opt;
650 : : } src;
651 : : union {
652 : : struct rte_flow_item_raw *raw;
653 : : struct rte_flow_item_geneve_opt *geneve_opt;
654 : : } dst;
655 : : void *deep_src;
656 : : size_t tmp;
657 : :
658 : 0 : case RTE_FLOW_ITEM_TYPE_RAW:
659 : 0 : spec.raw = item->spec;
660 [ # # ]: 0 : last.raw = item->last ? item->last : item->spec;
661 [ # # ]: 0 : mask.raw = item->mask ? item->mask : &rte_flow_item_raw_mask;
662 : : src.raw = data;
663 : : dst.raw = buf;
664 : : rte_memcpy(dst.raw,
665 : 0 : (&(struct rte_flow_item_raw){
666 : 0 : .relative = src.raw->relative,
667 : 0 : .search = src.raw->search,
668 : 0 : .reserved = src.raw->reserved,
669 : 0 : .offset = src.raw->offset,
670 : 0 : .limit = src.raw->limit,
671 : 0 : .length = src.raw->length,
672 : : }),
673 [ # # ]: 0 : size > sizeof(*dst.raw) ? sizeof(*dst.raw) : size);
674 : : off = sizeof(*dst.raw);
675 [ # # # # ]: 0 : if (type == RTE_FLOW_CONV_ITEM_SPEC ||
676 : 0 : (type == RTE_FLOW_CONV_ITEM_MASK &&
677 : 0 : ((spec.raw->length & mask.raw->length) >=
678 [ # # ]: 0 : (last.raw->length & mask.raw->length))))
679 : 0 : tmp = spec.raw->length & mask.raw->length;
680 : : else
681 : 0 : tmp = last.raw->length & mask.raw->length;
682 [ # # ]: 0 : if (tmp) {
683 : : off = RTE_ALIGN_CEIL(off, sizeof(*dst.raw->pattern));
684 [ # # ]: 0 : if (size >= off + tmp) {
685 : 0 : deep_src = (void *)((uintptr_t)dst.raw + off);
686 : 0 : dst.raw->pattern = rte_memcpy(deep_src,
687 [ # # ]: 0 : src.raw->pattern,
688 : : tmp);
689 : : }
690 : : off += tmp;
691 : : }
692 : : break;
693 : 0 : case RTE_FLOW_ITEM_TYPE_GENEVE_OPT:
694 : 0 : off = rte_flow_conv_copy(buf, data, size,
695 : : rte_flow_desc_item, item->type);
696 : 0 : spec.geneve_opt = item->spec;
697 : : src.geneve_opt = data;
698 : : dst.geneve_opt = buf;
699 : 0 : tmp = spec.geneve_opt->option_len << 2;
700 [ # # # # ]: 0 : if (size > 0 && src.geneve_opt->data) {
701 [ # # ]: 0 : deep_src = (void *)((uintptr_t)(dst.geneve_opt + 1));
702 : 0 : dst.geneve_opt->data = rte_memcpy(deep_src,
703 : : src.geneve_opt->data,
704 : : tmp);
705 : : }
706 : 0 : off += tmp;
707 : 0 : break;
708 : 0 : default:
709 : 0 : off = rte_flow_conv_copy(buf, data, size,
710 : : rte_flow_desc_item, item->type);
711 : 0 : break;
712 : : }
713 : 0 : return off;
714 : : }
715 : :
716 : : /**
717 : : * Copy action configuration.
718 : : *
719 : : * @param[out] buf
720 : : * Output buffer. Can be NULL if @p size is zero.
721 : : * @param size
722 : : * Size of @p buf in bytes.
723 : : * @param[in] action
724 : : * Action to copy configuration from.
725 : : *
726 : : * @return
727 : : * Number of bytes needed to store pattern item specification regardless
728 : : * of @p size. @p buf contents are truncated to @p size if not large
729 : : * enough.
730 : : */
731 : : static size_t
732 : 0 : rte_flow_conv_action_conf(void *buf, const size_t size,
733 : : const struct rte_flow_action *action)
734 : : {
735 : : size_t off;
736 : :
737 [ # # # ]: 0 : switch (action->type) {
738 : : union {
739 : : const struct rte_flow_action_rss *rss;
740 : : const struct rte_flow_action_vxlan_encap *vxlan_encap;
741 : : const struct rte_flow_action_nvgre_encap *nvgre_encap;
742 : : } src;
743 : : union {
744 : : struct rte_flow_action_rss *rss;
745 : : struct rte_flow_action_vxlan_encap *vxlan_encap;
746 : : struct rte_flow_action_nvgre_encap *nvgre_encap;
747 : : } dst;
748 : : size_t tmp;
749 : : int ret;
750 : :
751 : 0 : case RTE_FLOW_ACTION_TYPE_RSS:
752 : 0 : src.rss = action->conf;
753 : : dst.rss = buf;
754 : : rte_memcpy(dst.rss,
755 : 0 : (&(struct rte_flow_action_rss){
756 : 0 : .func = src.rss->func,
757 : 0 : .level = src.rss->level,
758 : 0 : .types = src.rss->types,
759 : 0 : .key_len = src.rss->key_len,
760 : 0 : .queue_num = src.rss->queue_num,
761 : : }),
762 [ # # ]: 0 : size > sizeof(*dst.rss) ? sizeof(*dst.rss) : size);
763 : : off = sizeof(*dst.rss);
764 [ # # # # ]: 0 : if (src.rss->key_len && src.rss->key) {
765 : : off = RTE_ALIGN_CEIL(off, sizeof(*dst.rss->key));
766 : 0 : tmp = sizeof(*src.rss->key) * src.rss->key_len;
767 [ # # ]: 0 : if (size >= (uint64_t)off + (uint64_t)tmp)
768 : 0 : dst.rss->key = rte_memcpy
769 [ # # ]: 0 : ((void *)((uintptr_t)dst.rss + off),
770 : : src.rss->key, tmp);
771 : : off += tmp;
772 : : }
773 [ # # ]: 0 : if (src.rss->queue_num) {
774 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(*dst.rss->queue));
775 : 0 : tmp = sizeof(*src.rss->queue) * src.rss->queue_num;
776 [ # # ]: 0 : if (size >= (uint64_t)off + (uint64_t)tmp)
777 : 0 : dst.rss->queue = rte_memcpy
778 : 0 : ((void *)((uintptr_t)dst.rss + off),
779 [ # # ]: 0 : src.rss->queue, tmp);
780 : : off += tmp;
781 : : }
782 : 0 : break;
783 : 0 : case RTE_FLOW_ACTION_TYPE_VXLAN_ENCAP:
784 : : case RTE_FLOW_ACTION_TYPE_NVGRE_ENCAP:
785 : 0 : src.vxlan_encap = action->conf;
786 : : dst.vxlan_encap = buf;
787 : : RTE_BUILD_BUG_ON(sizeof(*src.vxlan_encap) !=
788 : : sizeof(*src.nvgre_encap) ||
789 : : offsetof(struct rte_flow_action_vxlan_encap,
790 : : definition) !=
791 : : offsetof(struct rte_flow_action_nvgre_encap,
792 : : definition));
793 : : off = sizeof(*dst.vxlan_encap);
794 [ # # ]: 0 : if (src.vxlan_encap->definition) {
795 : : off = RTE_ALIGN_CEIL
796 : : (off, sizeof(*dst.vxlan_encap->definition));
797 [ # # ]: 0 : ret = rte_flow_conv
798 : : (RTE_FLOW_CONV_OP_PATTERN,
799 : 0 : (void *)((uintptr_t)dst.vxlan_encap + off),
800 : : size > off ? size - off : 0,
801 : : src.vxlan_encap->definition, NULL);
802 [ # # ]: 0 : if (ret < 0)
803 : 0 : return 0;
804 [ # # ]: 0 : if (size >= off + ret)
805 : 0 : dst.vxlan_encap->definition =
806 : : (void *)((uintptr_t)dst.vxlan_encap +
807 : : off);
808 : : off += ret;
809 : : }
810 : : break;
811 : 0 : default:
812 : 0 : off = rte_flow_conv_copy(buf, action->conf, size,
813 : : rte_flow_desc_action, action->type);
814 : 0 : break;
815 : : }
816 : 0 : return off;
817 : : }
818 : :
819 : : /**
820 : : * Copy a list of pattern items.
821 : : *
822 : : * @param[out] dst
823 : : * Destination buffer. Can be NULL if @p size is zero.
824 : : * @param size
825 : : * Size of @p dst in bytes.
826 : : * @param[in] src
827 : : * Source pattern items.
828 : : * @param num
829 : : * Maximum number of pattern items to process from @p src or 0 to process
830 : : * the entire list. In both cases, processing stops after
831 : : * RTE_FLOW_ITEM_TYPE_END is encountered.
832 : : * @param[out] error
833 : : * Perform verbose error reporting if not NULL.
834 : : *
835 : : * @return
836 : : * A positive value representing the number of bytes needed to store
837 : : * pattern items regardless of @p size on success (@p buf contents are
838 : : * truncated to @p size if not large enough), a negative errno value
839 : : * otherwise and rte_errno is set.
840 : : */
841 : : static int
842 : 0 : rte_flow_conv_pattern(struct rte_flow_item *dst,
843 : : const size_t size,
844 : : const struct rte_flow_item *src,
845 : : unsigned int num,
846 : : struct rte_flow_error *error)
847 : : {
848 : 0 : uintptr_t data = (uintptr_t)dst;
849 : : size_t off;
850 : : size_t ret;
851 : : unsigned int i;
852 : :
853 [ # # ]: 0 : for (i = 0, off = 0; !num || i != num; ++i, ++src, ++dst) {
854 : : /**
855 : : * allow PMD private flow item
856 : : */
857 [ # # # # ]: 0 : if (((int)src->type >= 0) &&
858 : 0 : ((size_t)src->type >= RTE_DIM(rte_flow_desc_item) ||
859 [ # # ]: 0 : !rte_flow_desc_item[src->type].name))
860 : 0 : return rte_flow_error_set
861 : : (error, ENOTSUP, RTE_FLOW_ERROR_TYPE_ITEM, src,
862 : : "cannot convert unknown item type");
863 [ # # ]: 0 : if (size >= off + sizeof(*dst))
864 : 0 : *dst = (struct rte_flow_item){
865 : : .type = src->type,
866 : : };
867 : : off += sizeof(*dst);
868 [ # # ]: 0 : if (!src->type)
869 : 0 : num = i + 1;
870 : : }
871 : : num = i;
872 : 0 : src -= num;
873 : 0 : dst -= num;
874 : : do {
875 [ # # ]: 0 : if (src->spec) {
876 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
877 [ # # ]: 0 : ret = rte_flow_conv_item_spec
878 : 0 : ((void *)(data + off),
879 : : size > off ? size - off : 0, src,
880 : : RTE_FLOW_CONV_ITEM_SPEC);
881 [ # # # # ]: 0 : if (size && size >= off + ret)
882 : 0 : dst->spec = (void *)(data + off);
883 : 0 : off += ret;
884 : :
885 : : }
886 [ # # ]: 0 : if (src->last) {
887 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
888 [ # # ]: 0 : ret = rte_flow_conv_item_spec
889 : 0 : ((void *)(data + off),
890 : : size > off ? size - off : 0, src,
891 : : RTE_FLOW_CONV_ITEM_LAST);
892 [ # # # # ]: 0 : if (size && size >= off + ret)
893 : 0 : dst->last = (void *)(data + off);
894 : 0 : off += ret;
895 : : }
896 [ # # ]: 0 : if (src->mask) {
897 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
898 [ # # ]: 0 : ret = rte_flow_conv_item_spec
899 : 0 : ((void *)(data + off),
900 : : size > off ? size - off : 0, src,
901 : : RTE_FLOW_CONV_ITEM_MASK);
902 [ # # # # ]: 0 : if (size && size >= off + ret)
903 : 0 : dst->mask = (void *)(data + off);
904 : 0 : off += ret;
905 : : }
906 : 0 : ++src;
907 : 0 : ++dst;
908 [ # # ]: 0 : } while (--num);
909 : 0 : return off;
910 : : }
911 : :
912 : : /**
913 : : * Copy a list of actions.
914 : : *
915 : : * @param[out] dst
916 : : * Destination buffer. Can be NULL if @p size is zero.
917 : : * @param size
918 : : * Size of @p dst in bytes.
919 : : * @param[in] src
920 : : * Source actions.
921 : : * @param num
922 : : * Maximum number of actions to process from @p src or 0 to process the
923 : : * entire list. In both cases, processing stops after
924 : : * RTE_FLOW_ACTION_TYPE_END is encountered.
925 : : * @param[out] error
926 : : * Perform verbose error reporting if not NULL.
927 : : *
928 : : * @return
929 : : * A positive value representing the number of bytes needed to store
930 : : * actions regardless of @p size on success (@p buf contents are truncated
931 : : * to @p size if not large enough), a negative errno value otherwise and
932 : : * rte_errno is set.
933 : : */
934 : : static int
935 : 0 : rte_flow_conv_actions(struct rte_flow_action *dst,
936 : : const size_t size,
937 : : const struct rte_flow_action *src,
938 : : unsigned int num,
939 : : struct rte_flow_error *error)
940 : : {
941 : 0 : uintptr_t data = (uintptr_t)dst;
942 : : size_t off;
943 : : size_t ret;
944 : : unsigned int i;
945 : :
946 [ # # ]: 0 : for (i = 0, off = 0; !num || i != num; ++i, ++src, ++dst) {
947 : : /**
948 : : * allow PMD private flow action
949 : : */
950 [ # # # # ]: 0 : if (((int)src->type >= 0) &&
951 : 0 : ((size_t)src->type >= RTE_DIM(rte_flow_desc_action) ||
952 [ # # ]: 0 : !rte_flow_desc_action[src->type].name))
953 : 0 : return rte_flow_error_set
954 : : (error, ENOTSUP, RTE_FLOW_ERROR_TYPE_ACTION,
955 : : src, "cannot convert unknown action type");
956 [ # # ]: 0 : if (size >= off + sizeof(*dst))
957 : 0 : *dst = (struct rte_flow_action){
958 : : .type = src->type,
959 : : };
960 : : off += sizeof(*dst);
961 [ # # ]: 0 : if (!src->type)
962 : 0 : num = i + 1;
963 : : }
964 : : num = i;
965 : 0 : src -= num;
966 : 0 : dst -= num;
967 : : do {
968 [ # # ]: 0 : if (src->type == RTE_FLOW_ACTION_TYPE_INDIRECT) {
969 : : /*
970 : : * Indirect action conf fills the indirect action
971 : : * handler. Copy the action handle directly instead
972 : : * of duplicating the pointer memory.
973 : : */
974 [ # # ]: 0 : if (size)
975 : 0 : dst->conf = src->conf;
976 [ # # ]: 0 : } else if (src->conf) {
977 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
978 [ # # ]: 0 : ret = rte_flow_conv_action_conf
979 : 0 : ((void *)(data + off),
980 : : size > off ? size - off : 0, src);
981 [ # # # # ]: 0 : if (size && size >= off + ret)
982 : 0 : dst->conf = (void *)(data + off);
983 : 0 : off += ret;
984 : : }
985 : 0 : ++src;
986 : 0 : ++dst;
987 [ # # ]: 0 : } while (--num);
988 : 0 : return off;
989 : : }
990 : :
991 : : /**
992 : : * Copy flow rule components.
993 : : *
994 : : * This comprises the flow rule descriptor itself, attributes, pattern and
995 : : * actions list. NULL components in @p src are skipped.
996 : : *
997 : : * @param[out] dst
998 : : * Destination buffer. Can be NULL if @p size is zero.
999 : : * @param size
1000 : : * Size of @p dst in bytes.
1001 : : * @param[in] src
1002 : : * Source flow rule descriptor.
1003 : : * @param[out] error
1004 : : * Perform verbose error reporting if not NULL.
1005 : : *
1006 : : * @return
1007 : : * A positive value representing the number of bytes needed to store all
1008 : : * components including the descriptor regardless of @p size on success
1009 : : * (@p buf contents are truncated to @p size if not large enough), a
1010 : : * negative errno value otherwise and rte_errno is set.
1011 : : */
1012 : : static int
1013 : 0 : rte_flow_conv_rule(struct rte_flow_conv_rule *dst,
1014 : : const size_t size,
1015 : : const struct rte_flow_conv_rule *src,
1016 : : struct rte_flow_error *error)
1017 : : {
1018 : : size_t off;
1019 : : int ret;
1020 : :
1021 : : rte_memcpy(dst,
1022 : 0 : (&(struct rte_flow_conv_rule){
1023 : : .attr = NULL,
1024 : : .pattern = NULL,
1025 : : .actions = NULL,
1026 : : }),
1027 [ # # ]: 0 : size > sizeof(*dst) ? sizeof(*dst) : size);
1028 : : off = sizeof(*dst);
1029 [ # # ]: 0 : if (src->attr_ro) {
1030 : : off = RTE_ALIGN_CEIL(off, sizeof(double));
1031 [ # # # # ]: 0 : if (size && size >= off + sizeof(*dst->attr))
1032 : 0 : dst->attr = rte_memcpy
1033 [ # # ]: 0 : ((void *)((uintptr_t)dst + off),
1034 : : src->attr_ro, sizeof(*dst->attr));
1035 : : off += sizeof(*dst->attr);
1036 : : }
1037 [ # # ]: 0 : if (src->pattern_ro) {
1038 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
1039 [ # # ]: 0 : ret = rte_flow_conv_pattern((void *)((uintptr_t)dst + off),
1040 : : size > off ? size - off : 0,
1041 : : src->pattern_ro, 0, error);
1042 [ # # ]: 0 : if (ret < 0)
1043 : : return ret;
1044 [ # # # # ]: 0 : if (size && size >= off + (size_t)ret)
1045 : 0 : dst->pattern = (void *)((uintptr_t)dst + off);
1046 : 0 : off += ret;
1047 : : }
1048 [ # # ]: 0 : if (src->actions_ro) {
1049 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
1050 [ # # ]: 0 : ret = rte_flow_conv_actions((void *)((uintptr_t)dst + off),
1051 : : size > off ? size - off : 0,
1052 : : src->actions_ro, 0, error);
1053 [ # # ]: 0 : if (ret < 0)
1054 : : return ret;
1055 [ # # ]: 0 : if (size >= off + (size_t)ret)
1056 : 0 : dst->actions = (void *)((uintptr_t)dst + off);
1057 : : off += ret;
1058 : : }
1059 : 0 : return off;
1060 : : }
1061 : :
1062 : : /**
1063 : : * Retrieve the name of a pattern item/action type.
1064 : : *
1065 : : * @param is_action
1066 : : * Nonzero when @p src represents an action type instead of a pattern item
1067 : : * type.
1068 : : * @param is_ptr
1069 : : * Nonzero to write string address instead of contents into @p dst.
1070 : : * @param[out] dst
1071 : : * Destination buffer. Can be NULL if @p size is zero.
1072 : : * @param size
1073 : : * Size of @p dst in bytes.
1074 : : * @param[in] src
1075 : : * Depending on @p is_action, source pattern item or action type cast as a
1076 : : * pointer.
1077 : : * @param[out] error
1078 : : * Perform verbose error reporting if not NULL.
1079 : : *
1080 : : * @return
1081 : : * A positive value representing the number of bytes needed to store the
1082 : : * name or its address regardless of @p size on success (@p buf contents
1083 : : * are truncated to @p size if not large enough), a negative errno value
1084 : : * otherwise and rte_errno is set.
1085 : : */
1086 : : static int
1087 : 0 : rte_flow_conv_name(int is_action,
1088 : : int is_ptr,
1089 : : char *dst,
1090 : : const size_t size,
1091 : : const void *src,
1092 : : struct rte_flow_error *error)
1093 : : {
1094 : : struct desc_info {
1095 : : const struct rte_flow_desc_data *data;
1096 : : size_t num;
1097 : : };
1098 : : static const struct desc_info info_rep[2] = {
1099 : : { rte_flow_desc_item, RTE_DIM(rte_flow_desc_item), },
1100 : : { rte_flow_desc_action, RTE_DIM(rte_flow_desc_action), },
1101 : : };
1102 : 0 : const struct desc_info *const info = &info_rep[!!is_action];
1103 : 0 : unsigned int type = (uintptr_t)src;
1104 : :
1105 [ # # ]: 0 : if (type >= info->num)
1106 : 0 : return rte_flow_error_set
1107 : : (error, EINVAL, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
1108 : : "unknown object type to retrieve the name of");
1109 [ # # ]: 0 : if (!is_ptr)
1110 : 0 : return strlcpy(dst, info->data[type].name, size);
1111 [ # # ]: 0 : if (size >= sizeof(const char **))
1112 : 0 : *((const char **)dst) = info->data[type].name;
1113 : : return sizeof(const char **);
1114 : : }
1115 : :
1116 : : /** Helper function to convert flow API objects. */
1117 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_conv, 18.11)
1118 : : int
1119 : 0 : rte_flow_conv(enum rte_flow_conv_op op,
1120 : : void *dst,
1121 : : size_t size,
1122 : : const void *src,
1123 : : struct rte_flow_error *error)
1124 : : {
1125 : : int ret;
1126 : :
1127 [ # # # # : 0 : switch (op) {
# # # # #
# # # # ]
1128 : : const struct rte_flow_attr *attr;
1129 : : const struct rte_flow_item *item;
1130 : :
1131 : : case RTE_FLOW_CONV_OP_NONE:
1132 : : ret = 0;
1133 : : break;
1134 [ # # ]: 0 : case RTE_FLOW_CONV_OP_ATTR:
1135 : : attr = src;
1136 : : if (size > sizeof(*attr))
1137 : : size = sizeof(*attr);
1138 : : rte_memcpy(dst, attr, size);
1139 : : ret = sizeof(*attr);
1140 : : break;
1141 : 0 : case RTE_FLOW_CONV_OP_ITEM:
1142 : 0 : ret = rte_flow_conv_pattern(dst, size, src, 1, error);
1143 : 0 : break;
1144 : 0 : case RTE_FLOW_CONV_OP_ITEM_MASK:
1145 : : item = src;
1146 [ # # ]: 0 : if (item->mask == NULL) {
1147 : 0 : ret = rte_flow_error_set(error, EINVAL, RTE_FLOW_ERROR_TYPE_ITEM_MASK,
1148 : : item, "Mask not provided");
1149 : 0 : break;
1150 : : }
1151 : 0 : ret = rte_flow_conv_item_spec(dst, size, src, RTE_FLOW_CONV_ITEM_MASK);
1152 : 0 : break;
1153 : 0 : case RTE_FLOW_CONV_OP_ACTION:
1154 : 0 : ret = rte_flow_conv_actions(dst, size, src, 1, error);
1155 : 0 : break;
1156 : 0 : case RTE_FLOW_CONV_OP_PATTERN:
1157 : 0 : ret = rte_flow_conv_pattern(dst, size, src, 0, error);
1158 : 0 : break;
1159 : 0 : case RTE_FLOW_CONV_OP_ACTIONS:
1160 : 0 : ret = rte_flow_conv_actions(dst, size, src, 0, error);
1161 : 0 : break;
1162 : 0 : case RTE_FLOW_CONV_OP_RULE:
1163 : 0 : ret = rte_flow_conv_rule(dst, size, src, error);
1164 : 0 : break;
1165 : 0 : case RTE_FLOW_CONV_OP_ITEM_NAME:
1166 : 0 : ret = rte_flow_conv_name(0, 0, dst, size, src, error);
1167 : 0 : break;
1168 : 0 : case RTE_FLOW_CONV_OP_ACTION_NAME:
1169 : 0 : ret = rte_flow_conv_name(1, 0, dst, size, src, error);
1170 : 0 : break;
1171 : 0 : case RTE_FLOW_CONV_OP_ITEM_NAME_PTR:
1172 : 0 : ret = rte_flow_conv_name(0, 1, dst, size, src, error);
1173 : 0 : break;
1174 : 0 : case RTE_FLOW_CONV_OP_ACTION_NAME_PTR:
1175 : 0 : ret = rte_flow_conv_name(1, 1, dst, size, src, error);
1176 : 0 : break;
1177 : 0 : default:
1178 : 0 : ret = rte_flow_error_set
1179 : : (error, ENOTSUP, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
1180 : : "unknown object conversion operation");
1181 : : }
1182 : :
1183 : 0 : rte_flow_trace_conv(op, dst, size, src, ret);
1184 : :
1185 : 0 : return ret;
1186 : : }
1187 : :
1188 : : /** Store a full rte_flow description. */
1189 : : RTE_EXPORT_SYMBOL(rte_flow_copy)
1190 : : size_t
1191 : 0 : rte_flow_copy(struct rte_flow_desc *desc, size_t len,
1192 : : const struct rte_flow_attr *attr,
1193 : : const struct rte_flow_item *items,
1194 : : const struct rte_flow_action *actions)
1195 : : {
1196 : : /*
1197 : : * Overlap struct rte_flow_conv with struct rte_flow_desc in order
1198 : : * to convert the former to the latter without wasting space.
1199 : : */
1200 : : struct rte_flow_conv_rule *dst =
1201 : : len ?
1202 : 0 : (void *)((uintptr_t)desc +
1203 : : (offsetof(struct rte_flow_desc, actions) -
1204 [ # # ]: 0 : offsetof(struct rte_flow_conv_rule, actions))) :
1205 : : NULL;
1206 : 0 : size_t dst_size =
1207 : : len > sizeof(*desc) - sizeof(*dst) ?
1208 : 0 : len - (sizeof(*desc) - sizeof(*dst)) :
1209 : : 0;
1210 : 0 : struct rte_flow_conv_rule src = {
1211 : : .attr_ro = NULL,
1212 : : .pattern_ro = items,
1213 : : .actions_ro = actions,
1214 : : };
1215 : : int ret;
1216 : :
1217 : : RTE_BUILD_BUG_ON(sizeof(struct rte_flow_desc) <
1218 : : sizeof(struct rte_flow_conv_rule));
1219 [ # # ]: 0 : if (dst_size &&
1220 [ # # ]: 0 : (&dst->pattern != &desc->items ||
1221 [ # # ]: 0 : &dst->actions != &desc->actions ||
1222 [ # # ]: 0 : (uintptr_t)(dst + 1) != (uintptr_t)(desc + 1))) {
1223 : 0 : rte_errno = EINVAL;
1224 : 0 : return 0;
1225 : : }
1226 : 0 : ret = rte_flow_conv(RTE_FLOW_CONV_OP_RULE, dst, dst_size, &src, NULL);
1227 [ # # ]: 0 : if (ret < 0)
1228 : : return 0;
1229 : 0 : ret += sizeof(*desc) - sizeof(*dst);
1230 : : rte_memcpy(desc,
1231 [ # # ]: 0 : (&(struct rte_flow_desc){
1232 : : .size = ret,
1233 : : .attr = *attr,
1234 : 0 : .items = dst_size ? dst->pattern : NULL,
1235 [ # # ]: 0 : .actions = dst_size ? dst->actions : NULL,
1236 : : }),
1237 [ # # ]: 0 : len > sizeof(*desc) ? sizeof(*desc) : len);
1238 : :
1239 : 0 : rte_flow_trace_copy(desc, len, attr, items, actions, ret);
1240 : :
1241 : 0 : return ret;
1242 : : }
1243 : :
1244 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_dev_dump, 20.02)
1245 : : int
1246 : 0 : rte_flow_dev_dump(uint16_t port_id, struct rte_flow *flow,
1247 : : FILE *file, struct rte_flow_error *error)
1248 : : {
1249 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1250 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1251 : : int ret;
1252 : :
1253 [ # # ]: 0 : if (unlikely(!ops))
1254 : 0 : return -rte_errno;
1255 [ # # ]: 0 : if (likely(!!ops->dev_dump)) {
1256 : : fts_enter(dev);
1257 : 0 : ret = ops->dev_dump(dev, flow, file, error);
1258 : : fts_exit(dev);
1259 : 0 : return flow_err(port_id, ret, error);
1260 : : }
1261 : 0 : return rte_flow_error_set(error, ENOSYS,
1262 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1263 : : NULL, rte_strerror(ENOSYS));
1264 : : }
1265 : :
1266 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_get_aged_flows, 20.05)
1267 : : int
1268 : 0 : rte_flow_get_aged_flows(uint16_t port_id, void **contexts,
1269 : : uint32_t nb_contexts, struct rte_flow_error *error)
1270 : : {
1271 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1272 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1273 : : int ret;
1274 : :
1275 [ # # ]: 0 : if (unlikely(!ops))
1276 : 0 : return -rte_errno;
1277 [ # # ]: 0 : if (likely(!!ops->get_aged_flows)) {
1278 : : fts_enter(dev);
1279 : 0 : ret = ops->get_aged_flows(dev, contexts, nb_contexts, error);
1280 : : fts_exit(dev);
1281 : 0 : ret = flow_err(port_id, ret, error);
1282 : :
1283 : : rte_flow_trace_get_aged_flows(port_id, contexts, nb_contexts, ret);
1284 : :
1285 : 0 : return ret;
1286 : : }
1287 : 0 : return rte_flow_error_set(error, ENOTSUP,
1288 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1289 : : NULL, rte_strerror(ENOTSUP));
1290 : : }
1291 : :
1292 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_get_q_aged_flows, 22.11)
1293 : : int
1294 : 0 : rte_flow_get_q_aged_flows(uint16_t port_id, uint32_t queue_id, void **contexts,
1295 : : uint32_t nb_contexts, struct rte_flow_error *error)
1296 : : {
1297 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1298 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1299 : : int ret;
1300 : :
1301 [ # # ]: 0 : if (unlikely(!ops))
1302 : 0 : return -rte_errno;
1303 [ # # ]: 0 : if (likely(!!ops->get_q_aged_flows)) {
1304 : : fts_enter(dev);
1305 : 0 : ret = ops->get_q_aged_flows(dev, queue_id, contexts,
1306 : : nb_contexts, error);
1307 : : fts_exit(dev);
1308 : 0 : ret = flow_err(port_id, ret, error);
1309 : :
1310 : : rte_flow_trace_get_q_aged_flows(port_id, queue_id, contexts,
1311 : : nb_contexts, ret);
1312 : :
1313 : 0 : return ret;
1314 : : }
1315 : 0 : return rte_flow_error_set(error, ENOTSUP,
1316 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1317 : : NULL, rte_strerror(ENOTSUP));
1318 : : }
1319 : :
1320 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_handle_create, 21.05)
1321 : : struct rte_flow_action_handle *
1322 : 0 : rte_flow_action_handle_create(uint16_t port_id,
1323 : : const struct rte_flow_indir_action_conf *conf,
1324 : : const struct rte_flow_action *action,
1325 : : struct rte_flow_error *error)
1326 : : {
1327 : : struct rte_flow_action_handle *handle;
1328 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1329 : :
1330 [ # # ]: 0 : if (unlikely(!ops))
1331 : : return NULL;
1332 [ # # ]: 0 : if (unlikely(!ops->action_handle_create)) {
1333 : 0 : rte_flow_error_set(error, ENOSYS,
1334 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
1335 : : rte_strerror(ENOSYS));
1336 : 0 : return NULL;
1337 : : }
1338 : 0 : handle = ops->action_handle_create(&rte_eth_devices[port_id],
1339 : : conf, action, error);
1340 [ # # ]: 0 : if (handle == NULL)
1341 : 0 : flow_err(port_id, -rte_errno, error);
1342 : :
1343 : : rte_flow_trace_action_handle_create(port_id, conf, action, handle);
1344 : :
1345 : : return handle;
1346 : : }
1347 : :
1348 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_handle_destroy, 21.05)
1349 : : int
1350 : 0 : rte_flow_action_handle_destroy(uint16_t port_id,
1351 : : struct rte_flow_action_handle *handle,
1352 : : struct rte_flow_error *error)
1353 : : {
1354 : : int ret;
1355 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1356 : :
1357 [ # # ]: 0 : if (unlikely(!ops))
1358 : 0 : return -rte_errno;
1359 [ # # ]: 0 : if (unlikely(!ops->action_handle_destroy))
1360 : 0 : return rte_flow_error_set(error, ENOSYS,
1361 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1362 : : NULL, rte_strerror(ENOSYS));
1363 : 0 : ret = ops->action_handle_destroy(&rte_eth_devices[port_id],
1364 : : handle, error);
1365 : 0 : ret = flow_err(port_id, ret, error);
1366 : :
1367 : : rte_flow_trace_action_handle_destroy(port_id, handle, ret);
1368 : :
1369 : 0 : return ret;
1370 : : }
1371 : :
1372 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_handle_update, 21.05)
1373 : : int
1374 : 0 : rte_flow_action_handle_update(uint16_t port_id,
1375 : : struct rte_flow_action_handle *handle,
1376 : : const void *update,
1377 : : struct rte_flow_error *error)
1378 : : {
1379 : : int ret;
1380 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1381 : :
1382 [ # # ]: 0 : if (unlikely(!ops))
1383 : 0 : return -rte_errno;
1384 [ # # ]: 0 : if (unlikely(!ops->action_handle_update))
1385 : 0 : return rte_flow_error_set(error, ENOSYS,
1386 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1387 : : NULL, rte_strerror(ENOSYS));
1388 : 0 : ret = ops->action_handle_update(&rte_eth_devices[port_id], handle,
1389 : : update, error);
1390 : 0 : ret = flow_err(port_id, ret, error);
1391 : :
1392 : : rte_flow_trace_action_handle_update(port_id, handle, update, ret);
1393 : :
1394 : 0 : return ret;
1395 : : }
1396 : :
1397 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_handle_query, 21.05)
1398 : : int
1399 : 0 : rte_flow_action_handle_query(uint16_t port_id,
1400 : : const struct rte_flow_action_handle *handle,
1401 : : void *data,
1402 : : struct rte_flow_error *error)
1403 : : {
1404 : : int ret;
1405 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1406 : :
1407 [ # # ]: 0 : if (unlikely(!ops))
1408 : 0 : return -rte_errno;
1409 [ # # ]: 0 : if (unlikely(!ops->action_handle_query))
1410 : 0 : return rte_flow_error_set(error, ENOSYS,
1411 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1412 : : NULL, rte_strerror(ENOSYS));
1413 : 0 : ret = ops->action_handle_query(&rte_eth_devices[port_id], handle,
1414 : : data, error);
1415 : 0 : ret = flow_err(port_id, ret, error);
1416 : :
1417 : : rte_flow_trace_action_handle_query(port_id, handle, data, ret);
1418 : :
1419 : 0 : return ret;
1420 : : }
1421 : :
1422 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_tunnel_decap_set, 20.11)
1423 : : int
1424 : 0 : rte_flow_tunnel_decap_set(uint16_t port_id,
1425 : : struct rte_flow_tunnel *tunnel,
1426 : : struct rte_flow_action **actions,
1427 : : uint32_t *num_of_actions,
1428 : : struct rte_flow_error *error)
1429 : : {
1430 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1431 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1432 : : int ret;
1433 : :
1434 [ # # ]: 0 : if (unlikely(!ops))
1435 : 0 : return -rte_errno;
1436 [ # # ]: 0 : if (likely(!!ops->tunnel_decap_set)) {
1437 : 0 : ret = flow_err(port_id,
1438 : : ops->tunnel_decap_set(dev, tunnel, actions,
1439 : : num_of_actions, error),
1440 : : error);
1441 : :
1442 : 0 : rte_flow_trace_tunnel_decap_set(port_id, tunnel, actions,
1443 : : num_of_actions, ret);
1444 : :
1445 : 0 : return ret;
1446 : : }
1447 : 0 : return rte_flow_error_set(error, ENOTSUP,
1448 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1449 : : NULL, rte_strerror(ENOTSUP));
1450 : : }
1451 : :
1452 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_tunnel_match, 20.11)
1453 : : int
1454 : 0 : rte_flow_tunnel_match(uint16_t port_id,
1455 : : struct rte_flow_tunnel *tunnel,
1456 : : struct rte_flow_item **items,
1457 : : uint32_t *num_of_items,
1458 : : struct rte_flow_error *error)
1459 : : {
1460 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1461 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1462 : : int ret;
1463 : :
1464 [ # # ]: 0 : if (unlikely(!ops))
1465 : 0 : return -rte_errno;
1466 [ # # ]: 0 : if (likely(!!ops->tunnel_match)) {
1467 : 0 : ret = flow_err(port_id,
1468 : : ops->tunnel_match(dev, tunnel, items,
1469 : : num_of_items, error),
1470 : : error);
1471 : :
1472 : 0 : rte_flow_trace_tunnel_match(port_id, tunnel, items, num_of_items,
1473 : : ret);
1474 : :
1475 : 0 : return ret;
1476 : : }
1477 : 0 : return rte_flow_error_set(error, ENOTSUP,
1478 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1479 : : NULL, rte_strerror(ENOTSUP));
1480 : : }
1481 : :
1482 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_get_restore_info, 20.11)
1483 : : int
1484 : 0 : rte_flow_get_restore_info(uint16_t port_id,
1485 : : struct rte_mbuf *m,
1486 : : struct rte_flow_restore_info *restore_info,
1487 : : struct rte_flow_error *error)
1488 : : {
1489 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1490 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1491 : : int ret;
1492 : :
1493 [ # # ]: 0 : if (unlikely(!ops))
1494 : 0 : return -rte_errno;
1495 [ # # ]: 0 : if (likely(!!ops->get_restore_info)) {
1496 : 0 : ret = flow_err(port_id,
1497 : : ops->get_restore_info(dev, m, restore_info,
1498 : : error),
1499 : : error);
1500 : :
1501 : : rte_flow_trace_get_restore_info(port_id, m, restore_info, ret);
1502 : :
1503 : 0 : return ret;
1504 : : }
1505 : 0 : return rte_flow_error_set(error, ENOTSUP,
1506 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1507 : : NULL, rte_strerror(ENOTSUP));
1508 : : }
1509 : :
1510 : : static struct {
1511 : : const struct rte_mbuf_dynflag desc;
1512 : : uint64_t value;
1513 : : } flow_restore_info_dynflag = {
1514 : : .desc = { .name = "RTE_MBUF_F_RX_RESTORE_INFO", },
1515 : : };
1516 : :
1517 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_restore_info_dynflag, 23.07)
1518 : : uint64_t
1519 : 0 : rte_flow_restore_info_dynflag(void)
1520 : : {
1521 : 0 : return flow_restore_info_dynflag.value;
1522 : : }
1523 : :
1524 : : int
1525 : 0 : rte_flow_restore_info_dynflag_register(void)
1526 : : {
1527 [ # # ]: 0 : if (flow_restore_info_dynflag.value == 0) {
1528 : 0 : int offset = rte_mbuf_dynflag_register(&flow_restore_info_dynflag.desc);
1529 : :
1530 [ # # ]: 0 : if (offset < 0)
1531 : : return -1;
1532 : 0 : flow_restore_info_dynflag.value = RTE_BIT64(offset);
1533 : : }
1534 : :
1535 : : return 0;
1536 : : }
1537 : :
1538 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_tunnel_action_decap_release, 20.11)
1539 : : int
1540 : 0 : rte_flow_tunnel_action_decap_release(uint16_t port_id,
1541 : : struct rte_flow_action *actions,
1542 : : uint32_t num_of_actions,
1543 : : struct rte_flow_error *error)
1544 : : {
1545 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1546 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1547 : : int ret;
1548 : :
1549 [ # # ]: 0 : if (unlikely(!ops))
1550 : 0 : return -rte_errno;
1551 [ # # ]: 0 : if (likely(!!ops->tunnel_action_decap_release)) {
1552 : 0 : ret = flow_err(port_id,
1553 : : ops->tunnel_action_decap_release(dev, actions,
1554 : : num_of_actions,
1555 : : error),
1556 : : error);
1557 : :
1558 : 0 : rte_flow_trace_tunnel_action_decap_release(port_id, actions,
1559 : : num_of_actions, ret);
1560 : :
1561 : 0 : return ret;
1562 : : }
1563 : 0 : return rte_flow_error_set(error, ENOTSUP,
1564 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1565 : : NULL, rte_strerror(ENOTSUP));
1566 : : }
1567 : :
1568 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_tunnel_item_release, 20.11)
1569 : : int
1570 : 0 : rte_flow_tunnel_item_release(uint16_t port_id,
1571 : : struct rte_flow_item *items,
1572 : : uint32_t num_of_items,
1573 : : struct rte_flow_error *error)
1574 : : {
1575 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1576 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1577 : : int ret;
1578 : :
1579 [ # # ]: 0 : if (unlikely(!ops))
1580 : 0 : return -rte_errno;
1581 [ # # ]: 0 : if (likely(!!ops->tunnel_item_release)) {
1582 : 0 : ret = flow_err(port_id,
1583 : : ops->tunnel_item_release(dev, items,
1584 : : num_of_items, error),
1585 : : error);
1586 : :
1587 : 0 : rte_flow_trace_tunnel_item_release(port_id, items, num_of_items, ret);
1588 : :
1589 : 0 : return ret;
1590 : : }
1591 : 0 : return rte_flow_error_set(error, ENOTSUP,
1592 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1593 : : NULL, rte_strerror(ENOTSUP));
1594 : : }
1595 : :
1596 : : RTE_EXPORT_SYMBOL(rte_flow_pick_transfer_proxy)
1597 : : int
1598 : 0 : rte_flow_pick_transfer_proxy(uint16_t port_id, uint16_t *proxy_port_id,
1599 : : struct rte_flow_error *error)
1600 : : {
1601 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1602 : : struct rte_eth_dev *dev;
1603 : : int ret;
1604 : :
1605 [ # # ]: 0 : if (unlikely(ops == NULL))
1606 : 0 : return -rte_errno;
1607 : :
1608 [ # # ]: 0 : if (ops->pick_transfer_proxy == NULL) {
1609 : 0 : *proxy_port_id = port_id;
1610 : 0 : return 0;
1611 : : }
1612 : :
1613 : 0 : dev = &rte_eth_devices[port_id];
1614 : :
1615 : 0 : ret = flow_err(port_id,
1616 : : ops->pick_transfer_proxy(dev, proxy_port_id, error),
1617 : : error);
1618 : :
1619 : : rte_flow_trace_pick_transfer_proxy(port_id, proxy_port_id, ret);
1620 : :
1621 : 0 : return ret;
1622 : : }
1623 : :
1624 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_flex_item_create, 21.11)
1625 : : struct rte_flow_item_flex_handle *
1626 : 0 : rte_flow_flex_item_create(uint16_t port_id,
1627 : : const struct rte_flow_item_flex_conf *conf,
1628 : : struct rte_flow_error *error)
1629 : : {
1630 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1631 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1632 : : struct rte_flow_item_flex_handle *handle;
1633 : :
1634 [ # # ]: 0 : if (unlikely(!ops))
1635 : : return NULL;
1636 [ # # ]: 0 : if (unlikely(!ops->flex_item_create)) {
1637 : 0 : rte_flow_error_set(error, ENOTSUP,
1638 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1639 : : NULL, rte_strerror(ENOTSUP));
1640 : 0 : return NULL;
1641 : : }
1642 : 0 : handle = ops->flex_item_create(dev, conf, error);
1643 [ # # ]: 0 : if (handle == NULL)
1644 : 0 : flow_err(port_id, -rte_errno, error);
1645 : :
1646 : 0 : rte_flow_trace_flex_item_create(port_id, conf, handle);
1647 : :
1648 : 0 : return handle;
1649 : : }
1650 : :
1651 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_flex_item_release, 21.11)
1652 : : int
1653 : 0 : rte_flow_flex_item_release(uint16_t port_id,
1654 : : const struct rte_flow_item_flex_handle *handle,
1655 : : struct rte_flow_error *error)
1656 : : {
1657 : : int ret;
1658 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1659 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1660 : :
1661 [ # # # # ]: 0 : if (unlikely(!ops || !ops->flex_item_release))
1662 : 0 : return rte_flow_error_set(error, ENOTSUP,
1663 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1664 : : NULL, rte_strerror(ENOTSUP));
1665 : 0 : ret = ops->flex_item_release(dev, handle, error);
1666 : 0 : ret = flow_err(port_id, ret, error);
1667 : :
1668 : 0 : rte_flow_trace_flex_item_release(port_id, handle, ret);
1669 : :
1670 : 0 : return ret;
1671 : : }
1672 : :
1673 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_info_get, 22.03)
1674 : : int
1675 : 0 : rte_flow_info_get(uint16_t port_id,
1676 : : struct rte_flow_port_info *port_info,
1677 : : struct rte_flow_queue_info *queue_info,
1678 : : struct rte_flow_error *error)
1679 : : {
1680 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1681 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1682 : : int ret;
1683 : :
1684 [ # # ]: 0 : if (unlikely(!ops))
1685 : 0 : return -rte_errno;
1686 [ # # ]: 0 : if (dev->data->dev_configured == 0) {
1687 : 0 : FLOW_LOG(INFO,
1688 : : "Device with port_id=%"PRIu16" is not configured.",
1689 : : port_id);
1690 : 0 : return -EINVAL;
1691 : : }
1692 [ # # ]: 0 : if (port_info == NULL) {
1693 : 0 : FLOW_LOG(ERR, "Port %"PRIu16" info is NULL.", port_id);
1694 : 0 : return -EINVAL;
1695 : : }
1696 [ # # ]: 0 : if (likely(!!ops->info_get)) {
1697 : 0 : ret = flow_err(port_id,
1698 : : ops->info_get(dev, port_info, queue_info, error),
1699 : : error);
1700 : :
1701 : 0 : rte_flow_trace_info_get(port_id, port_info, queue_info, ret);
1702 : :
1703 : 0 : return ret;
1704 : : }
1705 : 0 : return rte_flow_error_set(error, ENOTSUP,
1706 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1707 : : NULL, rte_strerror(ENOTSUP));
1708 : : }
1709 : :
1710 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_configure, 22.03)
1711 : : int
1712 : 0 : rte_flow_configure(uint16_t port_id,
1713 : : const struct rte_flow_port_attr *port_attr,
1714 : : uint16_t nb_queue,
1715 : : const struct rte_flow_queue_attr *queue_attr[],
1716 : : struct rte_flow_error *error)
1717 : : {
1718 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1719 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1720 : : int ret;
1721 : :
1722 [ # # ]: 0 : if (unlikely(!ops))
1723 : 0 : return -rte_errno;
1724 [ # # ]: 0 : if (dev->data->dev_configured == 0) {
1725 : 0 : FLOW_LOG(INFO,
1726 : : "Device with port_id=%"PRIu16" is not configured.",
1727 : : port_id);
1728 : 0 : goto error;
1729 : : }
1730 [ # # ]: 0 : if (dev->data->dev_started != 0) {
1731 : 0 : FLOW_LOG(INFO,
1732 : : "Device with port_id=%"PRIu16" already started.",
1733 : : port_id);
1734 : 0 : goto error;
1735 : : }
1736 [ # # ]: 0 : if (port_attr == NULL) {
1737 : 0 : FLOW_LOG(ERR, "Port %"PRIu16" info is NULL.", port_id);
1738 : 0 : goto error;
1739 : : }
1740 [ # # ]: 0 : if (queue_attr == NULL) {
1741 : 0 : FLOW_LOG(ERR, "Port %"PRIu16" queue info is NULL.", port_id);
1742 : 0 : goto error;
1743 : : }
1744 [ # # # # ]: 0 : if ((port_attr->flags & RTE_FLOW_PORT_FLAG_SHARE_INDIRECT) &&
1745 : 0 : !rte_eth_dev_is_valid_port(port_attr->host_port_id)) {
1746 : 0 : return rte_flow_error_set(error, ENODEV,
1747 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1748 : : NULL, rte_strerror(ENODEV));
1749 : : }
1750 [ # # ]: 0 : if (likely(!!ops->configure)) {
1751 : 0 : ret = ops->configure(dev, port_attr, nb_queue, queue_attr, error);
1752 [ # # ]: 0 : if (ret == 0)
1753 : 0 : dev->data->flow_configured = 1;
1754 : 0 : ret = flow_err(port_id, ret, error);
1755 : :
1756 : 0 : rte_flow_trace_configure(port_id, port_attr, nb_queue, queue_attr, ret);
1757 : :
1758 : 0 : return ret;
1759 : : }
1760 : 0 : return rte_flow_error_set(error, ENOTSUP,
1761 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1762 : : NULL, rte_strerror(ENOTSUP));
1763 : 0 : error:
1764 : 0 : return rte_flow_error_set(error, EINVAL,
1765 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1766 : : NULL, rte_strerror(EINVAL));
1767 : : }
1768 : :
1769 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_pattern_template_create, 22.03)
1770 : : struct rte_flow_pattern_template *
1771 : 0 : rte_flow_pattern_template_create(uint16_t port_id,
1772 : : const struct rte_flow_pattern_template_attr *template_attr,
1773 : : const struct rte_flow_item pattern[],
1774 : : struct rte_flow_error *error)
1775 : : {
1776 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1777 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1778 : : struct rte_flow_pattern_template *template;
1779 : :
1780 [ # # ]: 0 : if (unlikely(!ops))
1781 : : return NULL;
1782 [ # # ]: 0 : if (dev->data->flow_configured == 0) {
1783 : 0 : FLOW_LOG(INFO,
1784 : : "Flow engine on port_id=%"PRIu16" is not configured.",
1785 : : port_id);
1786 : 0 : rte_flow_error_set(error, EINVAL,
1787 : : RTE_FLOW_ERROR_TYPE_STATE,
1788 : : NULL, rte_strerror(EINVAL));
1789 : 0 : return NULL;
1790 : : }
1791 [ # # ]: 0 : if (template_attr == NULL) {
1792 : 0 : FLOW_LOG(ERR,
1793 : : "Port %"PRIu16" template attr is NULL.",
1794 : : port_id);
1795 : 0 : rte_flow_error_set(error, EINVAL,
1796 : : RTE_FLOW_ERROR_TYPE_ATTR,
1797 : : NULL, rte_strerror(EINVAL));
1798 : 0 : return NULL;
1799 : : }
1800 [ # # ]: 0 : if (pattern == NULL) {
1801 : 0 : FLOW_LOG(ERR,
1802 : : "Port %"PRIu16" pattern is NULL.",
1803 : : port_id);
1804 : 0 : rte_flow_error_set(error, EINVAL,
1805 : : RTE_FLOW_ERROR_TYPE_ATTR,
1806 : : NULL, rte_strerror(EINVAL));
1807 : 0 : return NULL;
1808 : : }
1809 [ # # ]: 0 : if (likely(!!ops->pattern_template_create)) {
1810 : 0 : template = ops->pattern_template_create(dev, template_attr,
1811 : : pattern, error);
1812 [ # # ]: 0 : if (template == NULL)
1813 : 0 : flow_err(port_id, -rte_errno, error);
1814 : :
1815 : 0 : rte_flow_trace_pattern_template_create(port_id, template_attr,
1816 : : pattern, template);
1817 : :
1818 : 0 : return template;
1819 : : }
1820 : 0 : rte_flow_error_set(error, ENOTSUP,
1821 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1822 : : NULL, rte_strerror(ENOTSUP));
1823 : 0 : return NULL;
1824 : : }
1825 : :
1826 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_pattern_template_destroy, 22.03)
1827 : : int
1828 : 0 : rte_flow_pattern_template_destroy(uint16_t port_id,
1829 : : struct rte_flow_pattern_template *pattern_template,
1830 : : struct rte_flow_error *error)
1831 : : {
1832 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1833 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1834 : : int ret;
1835 : :
1836 [ # # ]: 0 : if (unlikely(!ops))
1837 : 0 : return -rte_errno;
1838 [ # # ]: 0 : if (unlikely(pattern_template == NULL))
1839 : : return 0;
1840 [ # # ]: 0 : if (likely(!!ops->pattern_template_destroy)) {
1841 : 0 : ret = flow_err(port_id,
1842 : : ops->pattern_template_destroy(dev,
1843 : : pattern_template,
1844 : : error),
1845 : : error);
1846 : :
1847 : 0 : rte_flow_trace_pattern_template_destroy(port_id, pattern_template,
1848 : : ret);
1849 : :
1850 : 0 : return ret;
1851 : : }
1852 : 0 : return rte_flow_error_set(error, ENOTSUP,
1853 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1854 : : NULL, rte_strerror(ENOTSUP));
1855 : : }
1856 : :
1857 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_actions_template_create, 22.03)
1858 : : struct rte_flow_actions_template *
1859 : 0 : rte_flow_actions_template_create(uint16_t port_id,
1860 : : const struct rte_flow_actions_template_attr *template_attr,
1861 : : const struct rte_flow_action actions[],
1862 : : const struct rte_flow_action masks[],
1863 : : struct rte_flow_error *error)
1864 : : {
1865 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1866 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1867 : : struct rte_flow_actions_template *template;
1868 : :
1869 [ # # ]: 0 : if (unlikely(!ops))
1870 : : return NULL;
1871 [ # # ]: 0 : if (dev->data->flow_configured == 0) {
1872 : 0 : FLOW_LOG(INFO,
1873 : : "Flow engine on port_id=%"PRIu16" is not configured.",
1874 : : port_id);
1875 : 0 : rte_flow_error_set(error, EINVAL,
1876 : : RTE_FLOW_ERROR_TYPE_STATE,
1877 : : NULL, rte_strerror(EINVAL));
1878 : 0 : return NULL;
1879 : : }
1880 [ # # ]: 0 : if (template_attr == NULL) {
1881 : 0 : FLOW_LOG(ERR,
1882 : : "Port %"PRIu16" template attr is NULL.",
1883 : : port_id);
1884 : 0 : rte_flow_error_set(error, EINVAL,
1885 : : RTE_FLOW_ERROR_TYPE_ATTR,
1886 : : NULL, rte_strerror(EINVAL));
1887 : 0 : return NULL;
1888 : : }
1889 [ # # ]: 0 : if (actions == NULL) {
1890 : 0 : FLOW_LOG(ERR,
1891 : : "Port %"PRIu16" actions is NULL.",
1892 : : port_id);
1893 : 0 : rte_flow_error_set(error, EINVAL,
1894 : : RTE_FLOW_ERROR_TYPE_ATTR,
1895 : : NULL, rte_strerror(EINVAL));
1896 : 0 : return NULL;
1897 : : }
1898 [ # # ]: 0 : if (masks == NULL) {
1899 : 0 : FLOW_LOG(ERR,
1900 : : "Port %"PRIu16" masks is NULL.",
1901 : : port_id);
1902 : 0 : rte_flow_error_set(error, EINVAL,
1903 : : RTE_FLOW_ERROR_TYPE_ATTR,
1904 : : NULL, rte_strerror(EINVAL));
1905 : :
1906 : : }
1907 [ # # ]: 0 : if (likely(!!ops->actions_template_create)) {
1908 : 0 : template = ops->actions_template_create(dev, template_attr,
1909 : : actions, masks, error);
1910 [ # # ]: 0 : if (template == NULL)
1911 : 0 : flow_err(port_id, -rte_errno, error);
1912 : :
1913 : 0 : rte_flow_trace_actions_template_create(port_id, template_attr, actions,
1914 : : masks, template);
1915 : :
1916 : 0 : return template;
1917 : : }
1918 : 0 : rte_flow_error_set(error, ENOTSUP,
1919 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1920 : : NULL, rte_strerror(ENOTSUP));
1921 : 0 : return NULL;
1922 : : }
1923 : :
1924 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_actions_template_destroy, 22.03)
1925 : : int
1926 : 0 : rte_flow_actions_template_destroy(uint16_t port_id,
1927 : : struct rte_flow_actions_template *actions_template,
1928 : : struct rte_flow_error *error)
1929 : : {
1930 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1931 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1932 : : int ret;
1933 : :
1934 [ # # ]: 0 : if (unlikely(!ops))
1935 : 0 : return -rte_errno;
1936 [ # # ]: 0 : if (unlikely(actions_template == NULL))
1937 : : return 0;
1938 [ # # ]: 0 : if (likely(!!ops->actions_template_destroy)) {
1939 : 0 : ret = flow_err(port_id,
1940 : : ops->actions_template_destroy(dev,
1941 : : actions_template,
1942 : : error),
1943 : : error);
1944 : :
1945 : 0 : rte_flow_trace_actions_template_destroy(port_id, actions_template,
1946 : : ret);
1947 : :
1948 : 0 : return ret;
1949 : : }
1950 : 0 : return rte_flow_error_set(error, ENOTSUP,
1951 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1952 : : NULL, rte_strerror(ENOTSUP));
1953 : : }
1954 : :
1955 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_template_table_create, 22.03)
1956 : : struct rte_flow_template_table *
1957 : 0 : rte_flow_template_table_create(uint16_t port_id,
1958 : : const struct rte_flow_template_table_attr *table_attr,
1959 : : struct rte_flow_pattern_template *pattern_templates[],
1960 : : uint8_t nb_pattern_templates,
1961 : : struct rte_flow_actions_template *actions_templates[],
1962 : : uint8_t nb_actions_templates,
1963 : : struct rte_flow_error *error)
1964 : : {
1965 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1966 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1967 : : struct rte_flow_template_table *table;
1968 : :
1969 [ # # ]: 0 : if (unlikely(!ops))
1970 : : return NULL;
1971 [ # # ]: 0 : if (dev->data->flow_configured == 0) {
1972 : 0 : FLOW_LOG(INFO,
1973 : : "Flow engine on port_id=%"PRIu16" is not configured.",
1974 : : port_id);
1975 : 0 : rte_flow_error_set(error, EINVAL,
1976 : : RTE_FLOW_ERROR_TYPE_STATE,
1977 : : NULL, rte_strerror(EINVAL));
1978 : 0 : return NULL;
1979 : : }
1980 [ # # ]: 0 : if (table_attr == NULL) {
1981 : 0 : FLOW_LOG(ERR,
1982 : : "Port %"PRIu16" table attr is NULL.",
1983 : : port_id);
1984 : 0 : rte_flow_error_set(error, EINVAL,
1985 : : RTE_FLOW_ERROR_TYPE_ATTR,
1986 : : NULL, rte_strerror(EINVAL));
1987 : 0 : return NULL;
1988 : : }
1989 [ # # ]: 0 : if (pattern_templates == NULL) {
1990 : 0 : FLOW_LOG(ERR,
1991 : : "Port %"PRIu16" pattern templates is NULL.",
1992 : : port_id);
1993 : 0 : rte_flow_error_set(error, EINVAL,
1994 : : RTE_FLOW_ERROR_TYPE_ATTR,
1995 : : NULL, rte_strerror(EINVAL));
1996 : 0 : return NULL;
1997 : : }
1998 [ # # ]: 0 : if (actions_templates == NULL) {
1999 : 0 : FLOW_LOG(ERR,
2000 : : "Port %"PRIu16" actions templates is NULL.",
2001 : : port_id);
2002 : 0 : rte_flow_error_set(error, EINVAL,
2003 : : RTE_FLOW_ERROR_TYPE_ATTR,
2004 : : NULL, rte_strerror(EINVAL));
2005 : 0 : return NULL;
2006 : : }
2007 [ # # ]: 0 : if (likely(!!ops->template_table_create)) {
2008 : 0 : table = ops->template_table_create(dev, table_attr,
2009 : : pattern_templates, nb_pattern_templates,
2010 : : actions_templates, nb_actions_templates,
2011 : : error);
2012 [ # # ]: 0 : if (table == NULL)
2013 : 0 : flow_err(port_id, -rte_errno, error);
2014 : :
2015 : 0 : rte_flow_trace_template_table_create(port_id, table_attr,
2016 : : pattern_templates,
2017 : : nb_pattern_templates,
2018 : : actions_templates,
2019 : : nb_actions_templates, table);
2020 : :
2021 : 0 : return table;
2022 : : }
2023 : 0 : rte_flow_error_set(error, ENOTSUP,
2024 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
2025 : : NULL, rte_strerror(ENOTSUP));
2026 : 0 : return NULL;
2027 : : }
2028 : :
2029 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_template_table_destroy, 22.03)
2030 : : int
2031 : 0 : rte_flow_template_table_destroy(uint16_t port_id,
2032 : : struct rte_flow_template_table *template_table,
2033 : : struct rte_flow_error *error)
2034 : : {
2035 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2036 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
2037 : : int ret;
2038 : :
2039 [ # # ]: 0 : if (unlikely(!ops))
2040 : 0 : return -rte_errno;
2041 [ # # ]: 0 : if (unlikely(template_table == NULL))
2042 : : return 0;
2043 [ # # ]: 0 : if (likely(!!ops->template_table_destroy)) {
2044 : 0 : ret = flow_err(port_id,
2045 : : ops->template_table_destroy(dev,
2046 : : template_table,
2047 : : error),
2048 : : error);
2049 : :
2050 : 0 : rte_flow_trace_template_table_destroy(port_id, template_table,
2051 : : ret);
2052 : :
2053 : 0 : return ret;
2054 : : }
2055 : 0 : return rte_flow_error_set(error, ENOTSUP,
2056 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
2057 : : NULL, rte_strerror(ENOTSUP));
2058 : : }
2059 : :
2060 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_group_set_miss_actions, 23.11)
2061 : : int
2062 : 0 : rte_flow_group_set_miss_actions(uint16_t port_id,
2063 : : uint32_t group_id,
2064 : : const struct rte_flow_group_attr *attr,
2065 : : const struct rte_flow_action actions[],
2066 : : struct rte_flow_error *error)
2067 : : {
2068 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2069 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
2070 : :
2071 [ # # ]: 0 : if (unlikely(!ops))
2072 : 0 : return -rte_errno;
2073 [ # # ]: 0 : if (likely(!!ops->group_set_miss_actions)) {
2074 : 0 : return flow_err(port_id,
2075 : : ops->group_set_miss_actions(dev, group_id, attr, actions, error),
2076 : : error);
2077 : : }
2078 : 0 : return rte_flow_error_set(error, ENOTSUP,
2079 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
2080 : : NULL, rte_strerror(ENOTSUP));
2081 : : }
2082 : :
2083 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_create, 22.03)
2084 : : struct rte_flow *
2085 : 0 : rte_flow_async_create(uint16_t port_id,
2086 : : uint32_t queue_id,
2087 : : const struct rte_flow_op_attr *op_attr,
2088 : : struct rte_flow_template_table *template_table,
2089 : : const struct rte_flow_item pattern[],
2090 : : uint8_t pattern_template_index,
2091 : : const struct rte_flow_action actions[],
2092 : : uint8_t actions_template_index,
2093 : : void *user_data,
2094 : : struct rte_flow_error *error)
2095 : : {
2096 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2097 : : struct rte_flow *flow;
2098 : :
2099 : : #ifdef RTE_FLOW_DEBUG
2100 : : if (!rte_eth_dev_is_valid_port(port_id)) {
2101 : : rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2102 : : rte_strerror(ENODEV));
2103 : : return NULL;
2104 : : }
2105 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_create == NULL) {
2106 : : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2107 : : rte_strerror(ENOSYS));
2108 : : return NULL;
2109 : : }
2110 : : #endif
2111 : :
2112 : 0 : flow = dev->flow_fp_ops->async_create(dev, queue_id,
2113 : : op_attr, template_table,
2114 : : pattern, pattern_template_index,
2115 : : actions, actions_template_index,
2116 : : user_data, error);
2117 : :
2118 : : rte_flow_trace_async_create(port_id, queue_id, op_attr, template_table,
2119 : : pattern, pattern_template_index, actions,
2120 : : actions_template_index, user_data, flow);
2121 : :
2122 : 0 : return flow;
2123 : : }
2124 : :
2125 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_create_by_index, 23.03)
2126 : : struct rte_flow *
2127 : 0 : rte_flow_async_create_by_index(uint16_t port_id,
2128 : : uint32_t queue_id,
2129 : : const struct rte_flow_op_attr *op_attr,
2130 : : struct rte_flow_template_table *template_table,
2131 : : uint32_t rule_index,
2132 : : const struct rte_flow_action actions[],
2133 : : uint8_t actions_template_index,
2134 : : void *user_data,
2135 : : struct rte_flow_error *error)
2136 : : {
2137 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2138 : : struct rte_flow *flow;
2139 : :
2140 : : #ifdef RTE_FLOW_DEBUG
2141 : : if (!rte_eth_dev_is_valid_port(port_id)) {
2142 : : rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2143 : : rte_strerror(ENODEV));
2144 : : return NULL;
2145 : : }
2146 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_create_by_index == NULL) {
2147 : : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2148 : : rte_strerror(ENOSYS));
2149 : : return NULL;
2150 : : }
2151 : : #endif
2152 : :
2153 : 0 : flow = dev->flow_fp_ops->async_create_by_index(dev, queue_id,
2154 : : op_attr, template_table, rule_index,
2155 : : actions, actions_template_index,
2156 : : user_data, error);
2157 : :
2158 : : rte_flow_trace_async_create_by_index(port_id, queue_id, op_attr, template_table, rule_index,
2159 : : actions, actions_template_index, user_data, flow);
2160 : :
2161 : 0 : return flow;
2162 : : }
2163 : :
2164 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_create_by_index_with_pattern, 24.11)
2165 : : struct rte_flow *
2166 : 0 : rte_flow_async_create_by_index_with_pattern(uint16_t port_id,
2167 : : uint32_t queue_id,
2168 : : const struct rte_flow_op_attr *op_attr,
2169 : : struct rte_flow_template_table *template_table,
2170 : : uint32_t rule_index,
2171 : : const struct rte_flow_item pattern[],
2172 : : uint8_t pattern_template_index,
2173 : : const struct rte_flow_action actions[],
2174 : : uint8_t actions_template_index,
2175 : : void *user_data,
2176 : : struct rte_flow_error *error)
2177 : : {
2178 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2179 : : struct rte_flow *flow;
2180 : :
2181 : : #ifdef RTE_FLOW_DEBUG
2182 : : if (!rte_eth_dev_is_valid_port(port_id)) {
2183 : : rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2184 : : rte_strerror(ENODEV));
2185 : : return NULL;
2186 : : }
2187 : : if (dev->flow_fp_ops == NULL ||
2188 : : dev->flow_fp_ops->async_create_by_index_with_pattern == NULL) {
2189 : : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2190 : : rte_strerror(ENOSYS));
2191 : : return NULL;
2192 : : }
2193 : : #endif
2194 : :
2195 : 0 : flow = dev->flow_fp_ops->async_create_by_index_with_pattern(dev, queue_id, op_attr,
2196 : : template_table, rule_index,
2197 : : pattern, pattern_template_index,
2198 : : actions, actions_template_index,
2199 : : user_data, error);
2200 : :
2201 : : rte_flow_trace_async_create_by_index_with_pattern(port_id, queue_id, op_attr,
2202 : : template_table, rule_index, pattern,
2203 : : pattern_template_index, actions,
2204 : : actions_template_index, user_data, flow);
2205 : :
2206 : 0 : return flow;
2207 : : }
2208 : :
2209 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_destroy, 22.03)
2210 : : int
2211 : 0 : rte_flow_async_destroy(uint16_t port_id,
2212 : : uint32_t queue_id,
2213 : : const struct rte_flow_op_attr *op_attr,
2214 : : struct rte_flow *flow,
2215 : : void *user_data,
2216 : : struct rte_flow_error *error)
2217 : : {
2218 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2219 : : int ret;
2220 : :
2221 : : #ifdef RTE_FLOW_DEBUG
2222 : : if (!rte_eth_dev_is_valid_port(port_id))
2223 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2224 : : rte_strerror(ENODEV));
2225 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_destroy == NULL)
2226 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2227 : : rte_strerror(ENOSYS));
2228 : : #endif
2229 : :
2230 : 0 : ret = dev->flow_fp_ops->async_destroy(dev, queue_id,
2231 : : op_attr, flow,
2232 : : user_data, error);
2233 : :
2234 : : rte_flow_trace_async_destroy(port_id, queue_id, op_attr, flow,
2235 : : user_data, ret);
2236 : :
2237 : 0 : return ret;
2238 : : }
2239 : :
2240 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_actions_update, 23.07)
2241 : : int
2242 : 0 : rte_flow_async_actions_update(uint16_t port_id,
2243 : : uint32_t queue_id,
2244 : : const struct rte_flow_op_attr *op_attr,
2245 : : struct rte_flow *flow,
2246 : : const struct rte_flow_action actions[],
2247 : : uint8_t actions_template_index,
2248 : : void *user_data,
2249 : : struct rte_flow_error *error)
2250 : : {
2251 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2252 : : int ret;
2253 : :
2254 : : #ifdef RTE_FLOW_DEBUG
2255 : : if (!rte_eth_dev_is_valid_port(port_id))
2256 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2257 : : rte_strerror(ENODEV));
2258 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_actions_update == NULL)
2259 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2260 : : rte_strerror(ENOSYS));
2261 : : #endif
2262 : :
2263 : 0 : ret = dev->flow_fp_ops->async_actions_update(dev, queue_id, op_attr,
2264 : : flow, actions,
2265 : : actions_template_index,
2266 : : user_data, error);
2267 : :
2268 : : rte_flow_trace_async_actions_update(port_id, queue_id, op_attr, flow,
2269 : : actions, actions_template_index,
2270 : : user_data, ret);
2271 : :
2272 : 0 : return ret;
2273 : : }
2274 : :
2275 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_push, 22.03)
2276 : : int
2277 : 0 : rte_flow_push(uint16_t port_id,
2278 : : uint32_t queue_id,
2279 : : struct rte_flow_error *error)
2280 : : {
2281 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2282 : : int ret;
2283 : :
2284 : : #ifdef RTE_FLOW_DEBUG
2285 : : if (!rte_eth_dev_is_valid_port(port_id))
2286 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2287 : : rte_strerror(ENODEV));
2288 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->push == NULL)
2289 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2290 : : rte_strerror(ENOSYS));
2291 : : #endif
2292 : :
2293 : 0 : ret = dev->flow_fp_ops->push(dev, queue_id, error);
2294 : :
2295 : : rte_flow_trace_push(port_id, queue_id, ret);
2296 : :
2297 : 0 : return ret;
2298 : : }
2299 : :
2300 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_pull, 22.03)
2301 : : int
2302 : 0 : rte_flow_pull(uint16_t port_id,
2303 : : uint32_t queue_id,
2304 : : struct rte_flow_op_result res[],
2305 : : uint16_t n_res,
2306 : : struct rte_flow_error *error)
2307 : : {
2308 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2309 : : int ret;
2310 : :
2311 : : #ifdef RTE_FLOW_DEBUG
2312 : : if (!rte_eth_dev_is_valid_port(port_id))
2313 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2314 : : rte_strerror(ENODEV));
2315 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->pull == NULL)
2316 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2317 : : rte_strerror(ENOSYS));
2318 : : #endif
2319 : :
2320 : 0 : ret = dev->flow_fp_ops->pull(dev, queue_id, res, n_res, error);
2321 : :
2322 : : rte_flow_trace_pull(port_id, queue_id, res, n_res, ret);
2323 : :
2324 : 0 : return ret;
2325 : : }
2326 : :
2327 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_handle_create, 22.03)
2328 : : struct rte_flow_action_handle *
2329 : 0 : rte_flow_async_action_handle_create(uint16_t port_id,
2330 : : uint32_t queue_id,
2331 : : const struct rte_flow_op_attr *op_attr,
2332 : : const struct rte_flow_indir_action_conf *indir_action_conf,
2333 : : const struct rte_flow_action *action,
2334 : : void *user_data,
2335 : : struct rte_flow_error *error)
2336 : : {
2337 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2338 : : struct rte_flow_action_handle *handle;
2339 : :
2340 : : #ifdef RTE_FLOW_DEBUG
2341 : : if (!rte_eth_dev_is_valid_port(port_id)) {
2342 : : rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2343 : : rte_strerror(ENODEV));
2344 : : return NULL;
2345 : : }
2346 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_handle_create == NULL) {
2347 : : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2348 : : rte_strerror(ENOSYS));
2349 : : return NULL;
2350 : : }
2351 : : #endif
2352 : :
2353 : 0 : handle = dev->flow_fp_ops->async_action_handle_create(dev, queue_id, op_attr,
2354 : : indir_action_conf, action,
2355 : : user_data, error);
2356 : :
2357 : : rte_flow_trace_async_action_handle_create(port_id, queue_id, op_attr,
2358 : : indir_action_conf, action,
2359 : : user_data, handle);
2360 : :
2361 : 0 : return handle;
2362 : : }
2363 : :
2364 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_handle_destroy, 22.03)
2365 : : int
2366 : 0 : rte_flow_async_action_handle_destroy(uint16_t port_id,
2367 : : uint32_t queue_id,
2368 : : const struct rte_flow_op_attr *op_attr,
2369 : : struct rte_flow_action_handle *action_handle,
2370 : : void *user_data,
2371 : : struct rte_flow_error *error)
2372 : : {
2373 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2374 : : int ret;
2375 : :
2376 : : #ifdef RTE_FLOW_DEBUG
2377 : : if (!rte_eth_dev_is_valid_port(port_id))
2378 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2379 : : rte_strerror(ENODEV));
2380 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_handle_destroy == NULL)
2381 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2382 : : rte_strerror(ENOSYS));
2383 : : #endif
2384 : :
2385 : 0 : ret = dev->flow_fp_ops->async_action_handle_destroy(dev, queue_id, op_attr,
2386 : : action_handle, user_data, error);
2387 : :
2388 : : rte_flow_trace_async_action_handle_destroy(port_id, queue_id, op_attr,
2389 : : action_handle, user_data, ret);
2390 : :
2391 : 0 : return ret;
2392 : : }
2393 : :
2394 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_handle_update, 22.03)
2395 : : int
2396 : 0 : rte_flow_async_action_handle_update(uint16_t port_id,
2397 : : uint32_t queue_id,
2398 : : const struct rte_flow_op_attr *op_attr,
2399 : : struct rte_flow_action_handle *action_handle,
2400 : : const void *update,
2401 : : void *user_data,
2402 : : struct rte_flow_error *error)
2403 : : {
2404 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2405 : : int ret;
2406 : :
2407 : : #ifdef RTE_FLOW_DEBUG
2408 : : if (!rte_eth_dev_is_valid_port(port_id))
2409 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2410 : : rte_strerror(ENODEV));
2411 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_handle_update == NULL)
2412 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2413 : : rte_strerror(ENOSYS));
2414 : : #endif
2415 : :
2416 : 0 : ret = dev->flow_fp_ops->async_action_handle_update(dev, queue_id, op_attr,
2417 : : action_handle, update, user_data, error);
2418 : :
2419 : : rte_flow_trace_async_action_handle_update(port_id, queue_id, op_attr,
2420 : : action_handle, update,
2421 : : user_data, ret);
2422 : :
2423 : 0 : return ret;
2424 : : }
2425 : :
2426 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_handle_query, 22.11)
2427 : : int
2428 : 0 : rte_flow_async_action_handle_query(uint16_t port_id,
2429 : : uint32_t queue_id,
2430 : : const struct rte_flow_op_attr *op_attr,
2431 : : const struct rte_flow_action_handle *action_handle,
2432 : : void *data,
2433 : : void *user_data,
2434 : : struct rte_flow_error *error)
2435 : : {
2436 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2437 : : int ret;
2438 : :
2439 : : #ifdef RTE_FLOW_DEBUG
2440 : : if (!rte_eth_dev_is_valid_port(port_id))
2441 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2442 : : rte_strerror(ENODEV));
2443 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_handle_query == NULL)
2444 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2445 : : rte_strerror(ENOSYS));
2446 : : #endif
2447 : :
2448 : 0 : ret = dev->flow_fp_ops->async_action_handle_query(dev, queue_id, op_attr,
2449 : : action_handle, data, user_data, error);
2450 : :
2451 : : rte_flow_trace_async_action_handle_query(port_id, queue_id, op_attr,
2452 : : action_handle, data, user_data,
2453 : : ret);
2454 : :
2455 : 0 : return ret;
2456 : : }
2457 : :
2458 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_handle_query_update, 23.03)
2459 : : int
2460 : 0 : rte_flow_action_handle_query_update(uint16_t port_id,
2461 : : struct rte_flow_action_handle *handle,
2462 : : const void *update, void *query,
2463 : : enum rte_flow_query_update_mode mode,
2464 : : struct rte_flow_error *error)
2465 : : {
2466 : : int ret;
2467 : : struct rte_eth_dev *dev;
2468 : : const struct rte_flow_ops *ops;
2469 : :
2470 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2471 [ # # ]: 0 : if (!handle)
2472 : : return -EINVAL;
2473 [ # # ]: 0 : if (!update && !query)
2474 : : return -EINVAL;
2475 : 0 : dev = &rte_eth_devices[port_id];
2476 : 0 : ops = rte_flow_ops_get(port_id, error);
2477 [ # # # # ]: 0 : if (!ops || !ops->action_handle_query_update)
2478 : : return -ENOTSUP;
2479 : 0 : ret = ops->action_handle_query_update(dev, handle, update,
2480 : : query, mode, error);
2481 : 0 : return flow_err(port_id, ret, error);
2482 : : }
2483 : :
2484 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_handle_query_update, 23.03)
2485 : : int
2486 : 0 : rte_flow_async_action_handle_query_update(uint16_t port_id, uint32_t queue_id,
2487 : : const struct rte_flow_op_attr *attr,
2488 : : struct rte_flow_action_handle *handle,
2489 : : const void *update, void *query,
2490 : : enum rte_flow_query_update_mode mode,
2491 : : void *user_data,
2492 : : struct rte_flow_error *error)
2493 : : {
2494 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2495 : :
2496 : : #ifdef RTE_FLOW_DEBUG
2497 : : if (!rte_eth_dev_is_valid_port(port_id))
2498 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2499 : : rte_strerror(ENODEV));
2500 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_handle_query_update == NULL)
2501 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2502 : : rte_strerror(ENOSYS));
2503 : : #endif
2504 : :
2505 : 0 : return dev->flow_fp_ops->async_action_handle_query_update(dev, queue_id, attr,
2506 : : handle, update,
2507 : : query, mode,
2508 : : user_data, error);
2509 : : }
2510 : :
2511 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_list_handle_create, 23.07)
2512 : : struct rte_flow_action_list_handle *
2513 : 0 : rte_flow_action_list_handle_create(uint16_t port_id,
2514 : : const
2515 : : struct rte_flow_indir_action_conf *conf,
2516 : : const struct rte_flow_action *actions,
2517 : : struct rte_flow_error *error)
2518 : : {
2519 : : int ret;
2520 : : struct rte_eth_dev *dev;
2521 : : const struct rte_flow_ops *ops;
2522 : : struct rte_flow_action_list_handle *handle;
2523 : :
2524 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, NULL);
2525 : 0 : ops = rte_flow_ops_get(port_id, error);
2526 [ # # # # ]: 0 : if (!ops || !ops->action_list_handle_create) {
2527 : 0 : rte_flow_error_set(error, ENOTSUP,
2528 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2529 : : "action_list handle not supported");
2530 : 0 : return NULL;
2531 : : }
2532 : 0 : dev = &rte_eth_devices[port_id];
2533 : 0 : handle = ops->action_list_handle_create(dev, conf, actions, error);
2534 : 0 : ret = flow_err(port_id, -rte_errno, error);
2535 : : rte_flow_trace_action_list_handle_create(port_id, conf, actions, ret);
2536 : 0 : return handle;
2537 : : }
2538 : :
2539 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_list_handle_destroy, 23.07)
2540 : : int
2541 : 0 : rte_flow_action_list_handle_destroy(uint16_t port_id,
2542 : : struct rte_flow_action_list_handle *handle,
2543 : : struct rte_flow_error *error)
2544 : : {
2545 : : int ret;
2546 : : struct rte_eth_dev *dev;
2547 : : const struct rte_flow_ops *ops;
2548 : :
2549 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2550 : 0 : ops = rte_flow_ops_get(port_id, error);
2551 [ # # # # ]: 0 : if (!ops || !ops->action_list_handle_destroy)
2552 : 0 : return rte_flow_error_set(error, ENOTSUP,
2553 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2554 : : "action_list handle not supported");
2555 : 0 : dev = &rte_eth_devices[port_id];
2556 : 0 : ret = ops->action_list_handle_destroy(dev, handle, error);
2557 : 0 : ret = flow_err(port_id, ret, error);
2558 : : rte_flow_trace_action_list_handle_destroy(port_id, handle, ret);
2559 : 0 : return ret;
2560 : : }
2561 : :
2562 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_list_handle_create, 23.07)
2563 : : struct rte_flow_action_list_handle *
2564 : 0 : rte_flow_async_action_list_handle_create(uint16_t port_id, uint32_t queue_id,
2565 : : const struct rte_flow_op_attr *attr,
2566 : : const struct rte_flow_indir_action_conf *conf,
2567 : : const struct rte_flow_action *actions,
2568 : : void *user_data,
2569 : : struct rte_flow_error *error)
2570 : : {
2571 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2572 : : struct rte_flow_action_list_handle *handle;
2573 : : int ret;
2574 : :
2575 : : #ifdef RTE_FLOW_DEBUG
2576 : : if (!rte_eth_dev_is_valid_port(port_id)) {
2577 : : rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2578 : : rte_strerror(ENODEV));
2579 : : return NULL;
2580 : : }
2581 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_list_handle_create == NULL) {
2582 : : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2583 : : rte_strerror(ENOSYS));
2584 : : return NULL;
2585 : : }
2586 : : #endif
2587 : :
2588 : 0 : handle = dev->flow_fp_ops->async_action_list_handle_create(dev, queue_id, attr, conf,
2589 : : actions, user_data,
2590 : : error);
2591 : 0 : ret = flow_err(port_id, -rte_errno, error);
2592 : :
2593 : : rte_flow_trace_async_action_list_handle_create(port_id, queue_id, attr,
2594 : : conf, actions, user_data,
2595 : : ret);
2596 : 0 : return handle;
2597 : : }
2598 : :
2599 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_list_handle_destroy, 23.07)
2600 : : int
2601 : 0 : rte_flow_async_action_list_handle_destroy(uint16_t port_id, uint32_t queue_id,
2602 : : const struct rte_flow_op_attr *op_attr,
2603 : : struct rte_flow_action_list_handle *handle,
2604 : : void *user_data, struct rte_flow_error *error)
2605 : : {
2606 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2607 : : int ret;
2608 : :
2609 : : #ifdef RTE_FLOW_DEBUG
2610 : : if (!rte_eth_dev_is_valid_port(port_id))
2611 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2612 : : rte_strerror(ENODEV));
2613 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_list_handle_destroy == NULL)
2614 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2615 : : rte_strerror(ENOSYS));
2616 : : #endif
2617 : :
2618 : 0 : ret = dev->flow_fp_ops->async_action_list_handle_destroy(dev, queue_id, op_attr,
2619 : : handle, user_data, error);
2620 : :
2621 : : rte_flow_trace_async_action_list_handle_destroy(port_id, queue_id,
2622 : : op_attr, handle,
2623 : : user_data, ret);
2624 : 0 : return ret;
2625 : : }
2626 : :
2627 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_list_handle_query_update, 23.07)
2628 : : int
2629 : 0 : rte_flow_action_list_handle_query_update(uint16_t port_id,
2630 : : const struct rte_flow_action_list_handle *handle,
2631 : : const void **update, void **query,
2632 : : enum rte_flow_query_update_mode mode,
2633 : : struct rte_flow_error *error)
2634 : : {
2635 : : int ret;
2636 : : struct rte_eth_dev *dev;
2637 : : const struct rte_flow_ops *ops;
2638 : :
2639 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2640 : 0 : ops = rte_flow_ops_get(port_id, error);
2641 [ # # # # ]: 0 : if (!ops || !ops->action_list_handle_query_update)
2642 : 0 : return rte_flow_error_set(error, ENOTSUP,
2643 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2644 : : "action_list query_update not supported");
2645 : 0 : dev = &rte_eth_devices[port_id];
2646 : 0 : ret = ops->action_list_handle_query_update(dev, handle, update, query,
2647 : : mode, error);
2648 : 0 : ret = flow_err(port_id, ret, error);
2649 : : rte_flow_trace_action_list_handle_query_update(port_id, handle, update,
2650 : : query, mode, ret);
2651 : 0 : return ret;
2652 : : }
2653 : :
2654 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_list_handle_query_update, 23.07)
2655 : : int
2656 : 0 : rte_flow_async_action_list_handle_query_update(uint16_t port_id, uint32_t queue_id,
2657 : : const struct rte_flow_op_attr *attr,
2658 : : const struct rte_flow_action_list_handle *handle,
2659 : : const void **update, void **query,
2660 : : enum rte_flow_query_update_mode mode,
2661 : : void *user_data, struct rte_flow_error *error)
2662 : : {
2663 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2664 : : int ret;
2665 : :
2666 : : #ifdef RTE_FLOW_DEBUG
2667 : : if (!rte_eth_dev_is_valid_port(port_id))
2668 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2669 : : rte_strerror(ENODEV));
2670 : : if (dev->flow_fp_ops == NULL ||
2671 : : dev->flow_fp_ops->async_action_list_handle_query_update == NULL)
2672 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2673 : : rte_strerror(ENOSYS));
2674 : : #endif
2675 : :
2676 : 0 : ret = dev->flow_fp_ops->async_action_list_handle_query_update(dev, queue_id, attr,
2677 : : handle, update, query,
2678 : : mode, user_data,
2679 : : error);
2680 : :
2681 : : rte_flow_trace_async_action_list_handle_query_update(port_id, queue_id,
2682 : : attr, handle,
2683 : : update, query,
2684 : : mode, user_data,
2685 : : ret);
2686 : 0 : return ret;
2687 : : }
2688 : :
2689 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_calc_table_hash, 23.11)
2690 : : int
2691 : 0 : rte_flow_calc_table_hash(uint16_t port_id, const struct rte_flow_template_table *table,
2692 : : const struct rte_flow_item pattern[], uint8_t pattern_template_index,
2693 : : uint32_t *hash, struct rte_flow_error *error)
2694 : : {
2695 : : int ret;
2696 : : struct rte_eth_dev *dev;
2697 : : const struct rte_flow_ops *ops;
2698 : :
2699 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2700 : 0 : ops = rte_flow_ops_get(port_id, error);
2701 [ # # # # ]: 0 : if (!ops || !ops->flow_calc_table_hash)
2702 : 0 : return rte_flow_error_set(error, ENOTSUP,
2703 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2704 : : "action_list async query_update not supported");
2705 : 0 : dev = &rte_eth_devices[port_id];
2706 : 0 : ret = ops->flow_calc_table_hash(dev, table, pattern, pattern_template_index,
2707 : : hash, error);
2708 : 0 : return flow_err(port_id, ret, error);
2709 : : }
2710 : :
2711 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_calc_encap_hash, 24.03)
2712 : : int
2713 : 0 : rte_flow_calc_encap_hash(uint16_t port_id, const struct rte_flow_item pattern[],
2714 : : enum rte_flow_encap_hash_field dest_field, uint8_t hash_len,
2715 : : uint8_t *hash, struct rte_flow_error *error)
2716 : : {
2717 : : int ret;
2718 : : struct rte_eth_dev *dev;
2719 : : const struct rte_flow_ops *ops;
2720 : :
2721 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2722 : 0 : ops = rte_flow_ops_get(port_id, error);
2723 [ # # # # ]: 0 : if (!ops || !ops->flow_calc_encap_hash)
2724 : 0 : return rte_flow_error_set(error, ENOTSUP,
2725 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2726 : : "calc encap hash is not supported");
2727 [ # # ]: 0 : if (dest_field > RTE_FLOW_ENCAP_HASH_FIELD_NVGRE_FLOW_ID)
2728 : 0 : return rte_flow_error_set(error, EINVAL,
2729 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2730 : : "hash dest field is not defined");
2731 [ # # ]: 0 : if ((dest_field == RTE_FLOW_ENCAP_HASH_FIELD_SRC_PORT && hash_len != 2) ||
2732 [ # # ]: 0 : (dest_field == RTE_FLOW_ENCAP_HASH_FIELD_NVGRE_FLOW_ID && hash_len != 1))
2733 : 0 : return rte_flow_error_set(error, EINVAL,
2734 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2735 : : "hash len doesn't match the requested field len");
2736 : 0 : dev = &rte_eth_devices[port_id];
2737 : 0 : ret = ops->flow_calc_encap_hash(dev, pattern, dest_field, hash, error);
2738 : 0 : return flow_err(port_id, ret, error);
2739 : : }
2740 : :
2741 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_template_table_resizable, 24.03)
2742 : : bool
2743 : 0 : rte_flow_template_table_resizable(__rte_unused uint16_t port_id,
2744 : : const struct rte_flow_template_table_attr *tbl_attr)
2745 : : {
2746 : 0 : return (tbl_attr->specialize &
2747 : 0 : RTE_FLOW_TABLE_SPECIALIZE_RESIZABLE) != 0;
2748 : : }
2749 : :
2750 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_template_table_resize, 24.03)
2751 : : int
2752 : 0 : rte_flow_template_table_resize(uint16_t port_id,
2753 : : struct rte_flow_template_table *table,
2754 : : uint32_t nb_rules,
2755 : : struct rte_flow_error *error)
2756 : : {
2757 : : int ret;
2758 : : struct rte_eth_dev *dev;
2759 : : const struct rte_flow_ops *ops;
2760 : :
2761 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2762 : 0 : ops = rte_flow_ops_get(port_id, error);
2763 [ # # # # ]: 0 : if (!ops || !ops->flow_template_table_resize)
2764 : 0 : return rte_flow_error_set(error, ENOTSUP,
2765 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2766 : : "flow_template_table_resize not supported");
2767 : 0 : dev = &rte_eth_devices[port_id];
2768 : 0 : ret = ops->flow_template_table_resize(dev, table, nb_rules, error);
2769 : 0 : ret = flow_err(port_id, ret, error);
2770 : : rte_flow_trace_template_table_resize(port_id, table, nb_rules, ret);
2771 : 0 : return ret;
2772 : : }
2773 : :
2774 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_update_resized, 24.03)
2775 : : int
2776 : 0 : rte_flow_async_update_resized(uint16_t port_id, uint32_t queue,
2777 : : const struct rte_flow_op_attr *attr,
2778 : : struct rte_flow *rule, void *user_data,
2779 : : struct rte_flow_error *error)
2780 : : {
2781 : : int ret;
2782 : : struct rte_eth_dev *dev;
2783 : : const struct rte_flow_ops *ops;
2784 : :
2785 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2786 : 0 : ops = rte_flow_ops_get(port_id, error);
2787 [ # # # # ]: 0 : if (!ops || !ops->flow_update_resized)
2788 : 0 : return rte_flow_error_set(error, ENOTSUP,
2789 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2790 : : "async_flow_async_transfer not supported");
2791 : 0 : dev = &rte_eth_devices[port_id];
2792 : 0 : ret = ops->flow_update_resized(dev, queue, attr, rule, user_data, error);
2793 : 0 : ret = flow_err(port_id, ret, error);
2794 : : rte_flow_trace_async_update_resized(port_id, queue, attr,
2795 : : rule, user_data, ret);
2796 : 0 : return ret;
2797 : : }
2798 : :
2799 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_template_table_resize_complete, 24.03)
2800 : : int
2801 : 0 : rte_flow_template_table_resize_complete(uint16_t port_id,
2802 : : struct rte_flow_template_table *table,
2803 : : struct rte_flow_error *error)
2804 : : {
2805 : : int ret;
2806 : : struct rte_eth_dev *dev;
2807 : : const struct rte_flow_ops *ops;
2808 : :
2809 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2810 : 0 : ops = rte_flow_ops_get(port_id, error);
2811 [ # # # # ]: 0 : if (!ops || !ops->flow_template_table_resize_complete)
2812 : 0 : return rte_flow_error_set(error, ENOTSUP,
2813 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2814 : : "flow_template_table_transfer_complete not supported");
2815 : 0 : dev = &rte_eth_devices[port_id];
2816 : 0 : ret = ops->flow_template_table_resize_complete(dev, table, error);
2817 : 0 : ret = flow_err(port_id, ret, error);
2818 : : rte_flow_trace_table_resize_complete(port_id, table, ret);
2819 : 0 : return ret;
2820 : : }
2821 : :
2822 : : static struct rte_flow *
2823 : 0 : rte_flow_dummy_async_create(struct rte_eth_dev *dev __rte_unused,
2824 : : uint32_t queue __rte_unused,
2825 : : const struct rte_flow_op_attr *attr __rte_unused,
2826 : : struct rte_flow_template_table *table __rte_unused,
2827 : : const struct rte_flow_item items[] __rte_unused,
2828 : : uint8_t pattern_template_index __rte_unused,
2829 : : const struct rte_flow_action actions[] __rte_unused,
2830 : : uint8_t action_template_index __rte_unused,
2831 : : void *user_data __rte_unused,
2832 : : struct rte_flow_error *error)
2833 : : {
2834 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2835 : : rte_strerror(ENOSYS));
2836 : 0 : return NULL;
2837 : : }
2838 : :
2839 : : static struct rte_flow *
2840 : 0 : rte_flow_dummy_async_create_by_index(struct rte_eth_dev *dev __rte_unused,
2841 : : uint32_t queue __rte_unused,
2842 : : const struct rte_flow_op_attr *attr __rte_unused,
2843 : : struct rte_flow_template_table *table __rte_unused,
2844 : : uint32_t rule_index __rte_unused,
2845 : : const struct rte_flow_action actions[] __rte_unused,
2846 : : uint8_t action_template_index __rte_unused,
2847 : : void *user_data __rte_unused,
2848 : : struct rte_flow_error *error)
2849 : : {
2850 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2851 : : rte_strerror(ENOSYS));
2852 : 0 : return NULL;
2853 : : }
2854 : :
2855 : : static struct rte_flow *
2856 : 0 : rte_flow_dummy_async_create_by_index_with_pattern(struct rte_eth_dev *dev __rte_unused,
2857 : : uint32_t queue __rte_unused,
2858 : : const struct rte_flow_op_attr *attr __rte_unused,
2859 : : struct rte_flow_template_table *table __rte_unused,
2860 : : uint32_t rule_index __rte_unused,
2861 : : const struct rte_flow_item items[] __rte_unused,
2862 : : uint8_t pattern_template_index __rte_unused,
2863 : : const struct rte_flow_action actions[] __rte_unused,
2864 : : uint8_t action_template_index __rte_unused,
2865 : : void *user_data __rte_unused,
2866 : : struct rte_flow_error *error)
2867 : : {
2868 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2869 : : rte_strerror(ENOSYS));
2870 : 0 : return NULL;
2871 : : }
2872 : :
2873 : : static int
2874 : 0 : rte_flow_dummy_async_actions_update(struct rte_eth_dev *dev __rte_unused,
2875 : : uint32_t queue_id __rte_unused,
2876 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2877 : : struct rte_flow *flow __rte_unused,
2878 : : const struct rte_flow_action actions[] __rte_unused,
2879 : : uint8_t actions_template_index __rte_unused,
2880 : : void *user_data __rte_unused,
2881 : : struct rte_flow_error *error)
2882 : : {
2883 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2884 : : rte_strerror(ENOSYS));
2885 : : }
2886 : :
2887 : : static int
2888 : 0 : rte_flow_dummy_async_destroy(struct rte_eth_dev *dev __rte_unused,
2889 : : uint32_t queue_id __rte_unused,
2890 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2891 : : struct rte_flow *flow __rte_unused,
2892 : : void *user_data __rte_unused,
2893 : : struct rte_flow_error *error)
2894 : : {
2895 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2896 : : rte_strerror(ENOSYS));
2897 : : }
2898 : :
2899 : : static int
2900 : 0 : rte_flow_dummy_push(struct rte_eth_dev *dev __rte_unused,
2901 : : uint32_t queue_id __rte_unused,
2902 : : struct rte_flow_error *error)
2903 : : {
2904 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2905 : : rte_strerror(ENOSYS));
2906 : : }
2907 : :
2908 : : static int
2909 : 0 : rte_flow_dummy_pull(struct rte_eth_dev *dev __rte_unused,
2910 : : uint32_t queue_id __rte_unused,
2911 : : struct rte_flow_op_result res[] __rte_unused,
2912 : : uint16_t n_res __rte_unused,
2913 : : struct rte_flow_error *error)
2914 : : {
2915 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2916 : : rte_strerror(ENOSYS));
2917 : : }
2918 : :
2919 : : static struct rte_flow_action_handle *
2920 : 0 : rte_flow_dummy_async_action_handle_create(
2921 : : struct rte_eth_dev *dev __rte_unused,
2922 : : uint32_t queue_id __rte_unused,
2923 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2924 : : const struct rte_flow_indir_action_conf *indir_action_conf __rte_unused,
2925 : : const struct rte_flow_action *action __rte_unused,
2926 : : void *user_data __rte_unused,
2927 : : struct rte_flow_error *error)
2928 : : {
2929 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2930 : : rte_strerror(ENOSYS));
2931 : 0 : return NULL;
2932 : : }
2933 : :
2934 : : static int
2935 : 0 : rte_flow_dummy_async_action_handle_destroy(
2936 : : struct rte_eth_dev *dev __rte_unused,
2937 : : uint32_t queue_id __rte_unused,
2938 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2939 : : struct rte_flow_action_handle *action_handle __rte_unused,
2940 : : void *user_data __rte_unused,
2941 : : struct rte_flow_error *error)
2942 : : {
2943 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2944 : : rte_strerror(ENOSYS));
2945 : : }
2946 : :
2947 : : static int
2948 : 0 : rte_flow_dummy_async_action_handle_update(
2949 : : struct rte_eth_dev *dev __rte_unused,
2950 : : uint32_t queue_id __rte_unused,
2951 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2952 : : struct rte_flow_action_handle *action_handle __rte_unused,
2953 : : const void *update __rte_unused,
2954 : : void *user_data __rte_unused,
2955 : : struct rte_flow_error *error)
2956 : : {
2957 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2958 : : rte_strerror(ENOSYS));
2959 : : }
2960 : :
2961 : : static int
2962 : 0 : rte_flow_dummy_async_action_handle_query(
2963 : : struct rte_eth_dev *dev __rte_unused,
2964 : : uint32_t queue_id __rte_unused,
2965 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2966 : : const struct rte_flow_action_handle *action_handle __rte_unused,
2967 : : void *data __rte_unused,
2968 : : void *user_data __rte_unused,
2969 : : struct rte_flow_error *error)
2970 : : {
2971 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2972 : : rte_strerror(ENOSYS));
2973 : : }
2974 : :
2975 : : static int
2976 : 0 : rte_flow_dummy_async_action_handle_query_update(
2977 : : struct rte_eth_dev *dev __rte_unused,
2978 : : uint32_t queue_id __rte_unused,
2979 : : const struct rte_flow_op_attr *attr __rte_unused,
2980 : : struct rte_flow_action_handle *handle __rte_unused,
2981 : : const void *update __rte_unused,
2982 : : void *query __rte_unused,
2983 : : enum rte_flow_query_update_mode mode __rte_unused,
2984 : : void *user_data __rte_unused,
2985 : : struct rte_flow_error *error)
2986 : : {
2987 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2988 : : rte_strerror(ENOSYS));
2989 : : }
2990 : :
2991 : : static struct rte_flow_action_list_handle *
2992 : 0 : rte_flow_dummy_async_action_list_handle_create(
2993 : : struct rte_eth_dev *dev __rte_unused,
2994 : : uint32_t queue_id __rte_unused,
2995 : : const struct rte_flow_op_attr *attr __rte_unused,
2996 : : const struct rte_flow_indir_action_conf *conf __rte_unused,
2997 : : const struct rte_flow_action *actions __rte_unused,
2998 : : void *user_data __rte_unused,
2999 : : struct rte_flow_error *error)
3000 : : {
3001 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
3002 : : rte_strerror(ENOSYS));
3003 : 0 : return NULL;
3004 : : }
3005 : :
3006 : : static int
3007 : 0 : rte_flow_dummy_async_action_list_handle_destroy(
3008 : : struct rte_eth_dev *dev __rte_unused,
3009 : : uint32_t queue_id __rte_unused,
3010 : : const struct rte_flow_op_attr *op_attr __rte_unused,
3011 : : struct rte_flow_action_list_handle *handle __rte_unused,
3012 : : void *user_data __rte_unused,
3013 : : struct rte_flow_error *error)
3014 : : {
3015 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
3016 : : rte_strerror(ENOSYS));
3017 : : }
3018 : :
3019 : : static int
3020 : 0 : rte_flow_dummy_async_action_list_handle_query_update(
3021 : : struct rte_eth_dev *dev __rte_unused,
3022 : : uint32_t queue_id __rte_unused,
3023 : : const struct rte_flow_op_attr *attr __rte_unused,
3024 : : const struct rte_flow_action_list_handle *handle __rte_unused,
3025 : : const void **update __rte_unused,
3026 : : void **query __rte_unused,
3027 : : enum rte_flow_query_update_mode mode __rte_unused,
3028 : : void *user_data __rte_unused,
3029 : : struct rte_flow_error *error)
3030 : : {
3031 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
3032 : : rte_strerror(ENOSYS));
3033 : : }
3034 : :
3035 : : RTE_EXPORT_INTERNAL_SYMBOL(rte_flow_fp_default_ops)
3036 : : struct rte_flow_fp_ops rte_flow_fp_default_ops = {
3037 : : .async_create = rte_flow_dummy_async_create,
3038 : : .async_create_by_index = rte_flow_dummy_async_create_by_index,
3039 : : .async_actions_update = rte_flow_dummy_async_actions_update,
3040 : : .async_create_by_index_with_pattern = rte_flow_dummy_async_create_by_index_with_pattern,
3041 : : .async_destroy = rte_flow_dummy_async_destroy,
3042 : : .push = rte_flow_dummy_push,
3043 : : .pull = rte_flow_dummy_pull,
3044 : : .async_action_handle_create = rte_flow_dummy_async_action_handle_create,
3045 : : .async_action_handle_destroy = rte_flow_dummy_async_action_handle_destroy,
3046 : : .async_action_handle_update = rte_flow_dummy_async_action_handle_update,
3047 : : .async_action_handle_query = rte_flow_dummy_async_action_handle_query,
3048 : : .async_action_handle_query_update = rte_flow_dummy_async_action_handle_query_update,
3049 : : .async_action_list_handle_create = rte_flow_dummy_async_action_list_handle_create,
3050 : : .async_action_list_handle_destroy = rte_flow_dummy_async_action_list_handle_destroy,
3051 : : .async_action_list_handle_query_update =
3052 : : rte_flow_dummy_async_action_list_handle_query_update,
3053 : : };
|