Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright (c) 2022 NVIDIA Corporation & Affiliates
3 : : */
4 : :
5 : : #include <rte_bitops.h>
6 : :
7 : : #include "mlx5dr_internal.h"
8 : :
9 : : #define GTP_PDU_SC 0x85
10 : : #define BAD_PORT 0xBAD
11 : : #define BAD_SQN 0xBAD
12 : : #define ETH_TYPE_IPV4_VXLAN 0x0800
13 : : #define ETH_TYPE_IPV6_VXLAN 0x86DD
14 : : #define UDP_VXLAN_PORT 4789
15 : : #define UDP_VXLAN_GPE_PORT 4790
16 : : #define UDP_GTPU_PORT 2152
17 : : #define UDP_ESP_PORT 4500
18 : : #define UDP_PORT_MPLS 6635
19 : : #define UDP_GENEVE_PORT 6081
20 : : #define UDP_ROCEV2_PORT 4791
21 : : #define DR_FLOW_LAYER_TUNNEL_NO_MPLS (MLX5_FLOW_LAYER_TUNNEL & ~MLX5_FLOW_LAYER_MPLS)
22 : : #define NVGRE_PORT 0x6558
23 : : #define NVGRE_C_RSVD0_VER 0x2000
24 : : #define NVGRE_C_RSVD0_VER_MASK 0xB000
25 : :
26 : : #define STE_NO_VLAN 0x0
27 : : #define STE_SVLAN 0x1
28 : : #define STE_CVLAN 0x2
29 : : #define STE_NO_L3 0x0
30 : : #define STE_IPV4 0x1
31 : : #define STE_IPV6 0x2
32 : : #define STE_NO_L4 0x0
33 : : #define STE_TCP 0x1
34 : : #define STE_UDP 0x2
35 : : #define STE_ICMP 0x3
36 : : #define STE_NO_TUN 0x0
37 : : #define STE_ESP 0x3
38 : :
39 : : #define MLX5DR_DEFINER_QUOTA_BLOCK 0
40 : : #define MLX5DR_DEFINER_QUOTA_PASS 2
41 : : #define MLX5DR_DEFINER_MAX_ROW_LOG 32
42 : : #define MLX5DR_DEFINER_HL_OPT_MAX 2
43 : :
44 : : /* Setter function based on bit offset and mask, for 32bit DW*/
45 : : #define _DR_SET_32(p, v, byte_off, bit_off, mask) \
46 : : do { \
47 : : u32 _v = v; \
48 : : *((rte_be32_t *)(p) + ((byte_off) / 4)) = \
49 : : rte_cpu_to_be_32((rte_be_to_cpu_32(*((u32 *)(p) + \
50 : : ((byte_off) / 4))) & \
51 : : (~((mask) << (bit_off)))) | \
52 : : (((_v) & (mask)) << \
53 : : (bit_off))); \
54 : : } while (0)
55 : :
56 : : /* Getter function based on bit offset and mask, for 32bit DW*/
57 : : #define DR_GET_32(p, byte_off, bit_off, mask) \
58 : : ((rte_be_to_cpu_32(*((const rte_be32_t *)(p) + ((byte_off) / 4))) >> (bit_off)) & (mask))
59 : :
60 : : /* Setter function based on bit offset and mask */
61 : : #define DR_SET(p, v, byte_off, bit_off, mask) \
62 : : do { \
63 : : if (unlikely((bit_off) < 0)) { \
64 : : u32 _bit_off = -1 * (bit_off); \
65 : : u32 second_dw_mask = (mask) & ((1 << _bit_off) - 1); \
66 : : _DR_SET_32(p, (v) >> _bit_off, byte_off, 0, (mask) >> _bit_off); \
67 : : _DR_SET_32(p, (v) & second_dw_mask, (byte_off) + DW_SIZE, \
68 : : (bit_off) % BITS_IN_DW, second_dw_mask); \
69 : : } else { \
70 : : _DR_SET_32(p, v, byte_off, (bit_off), (mask)); \
71 : : } \
72 : : } while (0)
73 : :
74 : : /* Setter function based on byte offset to directly set FULL BE32 value */
75 : : #define DR_SET_BE32(p, v, byte_off, bit_off, mask) \
76 : : (*((rte_be32_t *)((uint8_t *)(p) + (byte_off))) = (v))
77 : :
78 : : /* Setter function based on byte offset to directly set FULL BE32 value from ptr */
79 : : #define DR_SET_BE32P(p, v_ptr, byte_off, bit_off, mask) \
80 : : memcpy((uint8_t *)(p) + (byte_off), v_ptr, 4)
81 : :
82 : : /* Setter function based on byte offset to directly set FULL BE16 value */
83 : : #define DR_SET_BE16(p, v, byte_off, bit_off, mask) \
84 : : (*((rte_be16_t *)((uint8_t *)(p) + (byte_off))) = (v))
85 : :
86 : : /* Setter function based on byte offset to directly set FULL BE16 value from ptr */
87 : : #define DR_SET_BE16P(p, v_ptr, byte_off, bit_off, mask) \
88 : : memcpy((uint8_t *)(p) + (byte_off), v_ptr, 2)
89 : :
90 : : #define DR_CALC_FNAME(field, inner) \
91 : : ((inner) ? MLX5DR_DEFINER_FNAME_##field##_I : \
92 : : MLX5DR_DEFINER_FNAME_##field##_O)
93 : :
94 : : #define DR_CALC_SET_HDR(fc, hdr, field) \
95 : : do { \
96 : : (fc)->bit_mask = __mlx5_mask(definer_hl, hdr.field); \
97 : : (fc)->bit_off = __mlx5_dw_bit_off(definer_hl, hdr.field); \
98 : : (fc)->byte_off = MLX5_BYTE_OFF(definer_hl, hdr.field); \
99 : : } while (0)
100 : :
101 : : /* Helper to calculate data used by DR_SET */
102 : : #define DR_CALC_SET(fc, hdr, field, is_inner) \
103 : : do { \
104 : : if (is_inner) { \
105 : : DR_CALC_SET_HDR(fc, hdr##_inner, field); \
106 : : } else { \
107 : : DR_CALC_SET_HDR(fc, hdr##_outer, field); \
108 : : } \
109 : : } while (0)
110 : :
111 : : #define DR_GET(typ, p, fld) \
112 : : ((rte_be_to_cpu_32(*((const rte_be32_t *)(p) + \
113 : : __mlx5_dw_off(typ, fld))) >> __mlx5_dw_bit_off(typ, fld)) & \
114 : : __mlx5_mask(typ, fld))
115 : :
116 : : /* Each row (i) indicates a different matcher size, and each column (j)
117 : : * represents {DW5, DW4, DW3, DW2, DW1, DW0}.
118 : : * For values 0,..,2^i, and j (DW) 0,..,5: mlx5dr_optimal_dist_dw[i][j] is 1 if the
119 : : * number of different hash results on these values equals 2^i, meaning this
120 : : * DW hash distribution is complete.
121 : : */
122 : : int mlx5dr_optimal_dist_dw[MLX5DR_DEFINER_MAX_ROW_LOG][DW_SELECTORS_MATCH] = {
123 : : {1, 1, 1, 1, 1, 1}, {0, 1, 1, 0, 1, 0}, {0, 1, 1, 0, 1, 0},
124 : : {1, 0, 1, 0, 1, 0}, {0, 0, 0, 1, 1, 0}, {0, 1, 1, 0, 1, 0},
125 : : {0, 0, 0, 0, 1, 0}, {0, 1, 1, 0, 1, 0}, {0, 0, 0, 0, 0, 0},
126 : : {1, 0, 1, 0, 0, 0}, {0, 0, 0, 0, 0, 0}, {0, 1, 0, 1, 0, 0},
127 : : {1, 0, 0, 0, 0, 0}, {0, 0, 1, 0, 0, 1}, {1, 1, 1, 0, 0, 0},
128 : : {1, 1, 1, 0, 1, 0}, {0, 0, 1, 1, 0, 0}, {0, 1, 1, 0, 0, 1},
129 : : {0, 0, 1, 0, 0, 1}, {0, 0, 1, 0, 0, 0}, {1, 0, 1, 1, 0, 0},
130 : : {1, 0, 1, 0, 0, 1}, {0, 0, 1, 1, 0, 1}, {1, 1, 1, 0, 0, 0},
131 : : {0, 1, 0, 1, 0, 1}, {0, 0, 0, 0, 0, 1}, {0, 0, 0, 1, 1, 1},
132 : : {0, 0, 1, 0, 0, 1}, {1, 1, 0, 1, 1, 0}, {0, 0, 0, 0, 1, 0},
133 : : {0, 0, 0, 1, 1, 0}};
134 : :
135 : : struct mlx5dr_definer_sel_ctrl {
136 : : uint8_t allowed_full_dw; /* Full DW selectors cover all offsets */
137 : : uint8_t allowed_lim_dw; /* Limited DW selectors cover offset < 64 */
138 : : uint8_t allowed_bytes; /* Bytes selectors, up to offset 255 */
139 : : uint8_t used_full_dw;
140 : : uint8_t used_lim_dw;
141 : : uint8_t used_bytes;
142 : : uint8_t full_dw_selector[DW_SELECTORS];
143 : : uint8_t lim_dw_selector[DW_SELECTORS_LIMITED];
144 : : uint8_t byte_selector[BYTE_SELECTORS];
145 : : };
146 : :
147 : : struct mlx5dr_definer_conv_data {
148 : : struct mlx5dr_context *ctx;
149 : : struct mlx5dr_definer_fc *fc;
150 : : uint8_t relaxed;
151 : : uint8_t tunnel;
152 : : uint8_t mpls_idx;
153 : : uint8_t geneve_opt_ok_idx;
154 : : uint8_t geneve_opt_data_idx;
155 : : enum rte_flow_item_type last_item;
156 : : enum mlx5dr_table_type table_type;
157 : : };
158 : :
159 : : /* Xmacro used to create generic item setter from items */
160 : : #define LIST_OF_FIELDS_INFO \
161 : : X(SET_BE16, eth_type, v->hdr.ether_type, rte_flow_item_eth) \
162 : : X(SET_BE32P, eth_smac_47_16, &v->hdr.src_addr.addr_bytes[0], rte_flow_item_eth) \
163 : : X(SET_BE16P, eth_smac_15_0, &v->hdr.src_addr.addr_bytes[4], rte_flow_item_eth) \
164 : : X(SET_BE32P, eth_dmac_47_16, &v->hdr.dst_addr.addr_bytes[0], rte_flow_item_eth) \
165 : : X(SET_BE16P, eth_dmac_15_0, &v->hdr.dst_addr.addr_bytes[4], rte_flow_item_eth) \
166 : : X(SET_BE16, tci, v->hdr.vlan_tci, rte_flow_item_vlan) \
167 : : X(SET, ipv4_ihl, v->ihl, rte_ipv4_hdr) \
168 : : X(SET, ipv4_tos, v->type_of_service, rte_ipv4_hdr) \
169 : : X(SET, ipv4_time_to_live, v->time_to_live, rte_ipv4_hdr) \
170 : : X(SET_BE32, ipv4_dst_addr, v->dst_addr, rte_ipv4_hdr) \
171 : : X(SET_BE32, ipv4_src_addr, v->src_addr, rte_ipv4_hdr) \
172 : : X(SET, ipv4_next_proto, v->next_proto_id, rte_ipv4_hdr) \
173 : : X(SET, ipv4_version, STE_IPV4, rte_ipv4_hdr) \
174 : : X(SET_BE16, ipv4_frag, v->fragment_offset, rte_ipv4_hdr) \
175 : : X(SET_BE16, ipv4_len, v->total_length, rte_ipv4_hdr) \
176 : : X(SET_BE16, ipv4_identification, v->packet_id, rte_ipv4_hdr) \
177 : : X(SET, ip_fragmented, !!v->fragment_offset, rte_ipv4_hdr) \
178 : : X(SET_BE16, ipv6_payload_len, v->hdr.payload_len, rte_flow_item_ipv6) \
179 : : X(SET, ipv6_proto, v->hdr.proto, rte_flow_item_ipv6) \
180 : : X(SET, ipv6_frag_proto, v->hdr.next_header, rte_flow_item_ipv6_frag_ext) \
181 : : X(SET, ipv6_routing_hdr, IPPROTO_ROUTING, rte_flow_item_ipv6) \
182 : : X(SET, ipv6_hop_limits, v->hdr.hop_limits, rte_flow_item_ipv6) \
183 : : X(SET_BE32P, ipv6_src_addr_127_96, &v->hdr.src_addr.a[0], rte_flow_item_ipv6) \
184 : : X(SET_BE32P, ipv6_src_addr_95_64, &v->hdr.src_addr.a[4], rte_flow_item_ipv6) \
185 : : X(SET_BE32P, ipv6_src_addr_63_32, &v->hdr.src_addr.a[8], rte_flow_item_ipv6) \
186 : : X(SET_BE32P, ipv6_src_addr_31_0, &v->hdr.src_addr.a[12], rte_flow_item_ipv6) \
187 : : X(SET_BE32P, ipv6_dst_addr_127_96, &v->hdr.dst_addr.a[0], rte_flow_item_ipv6) \
188 : : X(SET_BE32P, ipv6_dst_addr_95_64, &v->hdr.dst_addr.a[4], rte_flow_item_ipv6) \
189 : : X(SET_BE32P, ipv6_dst_addr_63_32, &v->hdr.dst_addr.a[8], rte_flow_item_ipv6) \
190 : : X(SET_BE32P, ipv6_dst_addr_31_0, &v->hdr.dst_addr.a[12], rte_flow_item_ipv6) \
191 : : X(SET, ipv6_version, STE_IPV6, rte_flow_item_ipv6) \
192 : : X(SET, ipv6_frag, v->has_frag_ext, rte_flow_item_ipv6) \
193 : : X(SET, icmp_protocol, STE_ICMP, rte_flow_item_icmp) \
194 : : X(SET, udp_protocol, STE_UDP, rte_flow_item_udp) \
195 : : X(SET_BE16, udp_src_port, v->hdr.src_port, rte_flow_item_udp) \
196 : : X(SET_BE16, udp_dst_port, v->hdr.dst_port, rte_flow_item_udp) \
197 : : X(SET, tcp_flags, v->hdr.tcp_flags, rte_flow_item_tcp) \
198 : : X(SET, tcp_protocol, STE_TCP, rte_flow_item_tcp) \
199 : : X(SET_BE16, tcp_src_port, v->hdr.src_port, rte_flow_item_tcp) \
200 : : X(SET_BE16, tcp_dst_port, v->hdr.dst_port, rte_flow_item_tcp) \
201 : : X(SET, gtp_udp_port, UDP_GTPU_PORT, rte_flow_item_gtp) \
202 : : X(SET_BE32, gtp_teid, v->hdr.teid, rte_flow_item_gtp) \
203 : : X(SET, gtp_msg_type, v->hdr.msg_type, rte_flow_item_gtp) \
204 : : X(SET, gtp_flags, v->hdr.gtp_hdr_info, rte_flow_item_gtp) \
205 : : X(SET, gtp_next_ext_hdr, GTP_PDU_SC, rte_flow_item_gtp_psc) \
206 : : X(SET, gtp_ext_hdr_pdu, v->hdr.type, rte_flow_item_gtp_psc) \
207 : : X(SET, gtp_ext_hdr_qfi, v->hdr.qfi, rte_flow_item_gtp_psc) \
208 : : X(SET_BE32, vxlan_vx_flags, v->hdr.vx_flags, rte_flow_item_vxlan) \
209 : : X(SET_BE32, vxlan_vx_vni, v->hdr.vx_vni, rte_flow_item_vxlan) \
210 : : X(SET, vxlan_udp_port, UDP_VXLAN_PORT, rte_flow_item_vxlan) \
211 : : X(SET, vxlan_gpe_udp_port, UDP_VXLAN_GPE_PORT, rte_flow_item_vxlan_gpe) \
212 : : X(SET, vxlan_gpe_flags, v->flags, rte_flow_item_vxlan_gpe) \
213 : : X(SET, vxlan_gpe_protocol, v->protocol, rte_flow_item_vxlan_gpe) \
214 : : X(SET, vxlan_gpe_rsvd1, v->rsvd1, rte_flow_item_vxlan_gpe) \
215 : : X(SET, mpls_udp_port, UDP_PORT_MPLS, rte_flow_item_mpls) \
216 : : X(SET, source_qp, v->queue, mlx5_rte_flow_item_sq) \
217 : : X(SET, tag, v->data, rte_flow_item_tag) \
218 : : X(SET, metadata, v->data, rte_flow_item_meta) \
219 : : X(SET_BE16, geneve_protocol, v->protocol, rte_flow_item_geneve) \
220 : : X(SET, geneve_udp_port, UDP_GENEVE_PORT, rte_flow_item_geneve) \
221 : : X(SET_BE16, geneve_ctrl, v->ver_opt_len_o_c_rsvd0, rte_flow_item_geneve) \
222 : : X(SET_BE16, gre_c_ver, v->c_rsvd0_ver, rte_flow_item_gre) \
223 : : X(SET_BE16, gre_protocol_type, v->protocol, rte_flow_item_gre) \
224 : : X(SET, ipv4_protocol_gre, IPPROTO_GRE, rte_flow_item_gre) \
225 : : X(SET_BE32, gre_opt_key, v->key.key, rte_flow_item_gre_opt) \
226 : : X(SET_BE32, gre_opt_seq, v->sequence.sequence, rte_flow_item_gre_opt) \
227 : : X(SET_BE16, gre_opt_checksum, v->checksum_rsvd.checksum, rte_flow_item_gre_opt) \
228 : : X(SET, nvgre_def_c_rsvd0_ver, NVGRE_C_RSVD0_VER, rte_flow_item_nvgre) \
229 : : X(SET, nvgre_def_c_rsvd0_ver_mask, NVGRE_C_RSVD0_VER_MASK, rte_flow_item_nvgre) \
230 : : X(SET, nvgre_def_protocol, NVGRE_PORT, rte_flow_item_nvgre) \
231 : : X(SET_BE16, nvgre_c_rsvd0_ver, v->c_k_s_rsvd0_ver, rte_flow_item_nvgre) \
232 : : X(SET_BE16, nvgre_protocol, v->protocol, rte_flow_item_nvgre) \
233 : : X(SET_BE32P, nvgre_dw1, &v->tni[0], rte_flow_item_nvgre) \
234 : : X(SET, meter_color, rte_col_2_mlx5_col(v->color), rte_flow_item_meter_color) \
235 : : X(SET, ipsec_protocol, IPPROTO_ESP, rte_flow_item_esp) \
236 : : X(SET, ipsec_udp_port, UDP_ESP_PORT, rte_flow_item_esp) \
237 : : X(SET_BE32, ipsec_spi, v->hdr.spi, rte_flow_item_esp) \
238 : : X(SET_BE32, ipsec_sequence_number, v->hdr.seq, rte_flow_item_esp) \
239 : : X(SET, ib_l4_udp_port, UDP_ROCEV2_PORT, rte_flow_item_ib_bth) \
240 : : X(SET, ib_l4_opcode, v->hdr.opcode, rte_flow_item_ib_bth) \
241 : : X(SET, random_number, v->value, rte_flow_item_random) \
242 : : X(SET, ib_l4_bth_a, v->hdr.a, rte_flow_item_ib_bth) \
243 : : X(SET, cvlan, STE_CVLAN, rte_flow_item_vlan) \
244 : : X(SET_BE16, inner_type, v->inner_type, rte_flow_item_vlan) \
245 : :
246 : : /* Item set function format */
247 : : #define X(set_type, func_name, value, item_type) \
248 : : static void mlx5dr_definer_##func_name##_set( \
249 : : struct mlx5dr_definer_fc *fc, \
250 : : const void *item_spec, \
251 : : uint8_t *tag) \
252 : : { \
253 : : __rte_unused const struct item_type *v = item_spec; \
254 : : DR_##set_type(tag, value, fc->byte_off, fc->bit_off, fc->bit_mask); \
255 : : }
256 [ # # # # : 0 : LIST_OF_FIELDS_INFO
# # # # #
# # # #
# ]
257 : : #undef X
258 : :
259 : : static void
260 : 0 : mlx5dr_definer_ones_set(struct mlx5dr_definer_fc *fc,
261 : : __rte_unused const void *item_spec,
262 : : __rte_unused uint8_t *tag)
263 : : {
264 [ # # # # : 0 : DR_SET(tag, -1, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
265 : 0 : }
266 : :
267 : : static void
268 : 0 : mlx5dr_definer_eth_first_vlan_q_set(struct mlx5dr_definer_fc *fc,
269 : : const void *item_spec,
270 : : uint8_t *tag)
271 : : {
272 : : const struct rte_flow_item_eth *v = item_spec;
273 : : uint8_t vlan_type;
274 : :
275 : 0 : vlan_type = v->has_vlan ? STE_CVLAN : STE_NO_VLAN;
276 : :
277 [ # # # # : 0 : DR_SET(tag, vlan_type, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
278 : 0 : }
279 : :
280 : : static void
281 : 0 : mlx5dr_definer_first_vlan_q_set(struct mlx5dr_definer_fc *fc,
282 : : const void *item_spec,
283 : : uint8_t *tag)
284 : : {
285 : : const struct rte_flow_item_vlan *v = item_spec;
286 : : uint8_t vlan_type;
287 : :
288 [ # # ]: 0 : vlan_type = v->has_more_vlan ? STE_SVLAN : STE_CVLAN;
289 : :
290 [ # # # # : 0 : DR_SET(tag, vlan_type, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
291 : 0 : }
292 : :
293 : : static void
294 : 0 : mlx5dr_definer_conntrack_mask(struct mlx5dr_definer_fc *fc,
295 : : const void *item_spec,
296 : : uint8_t *tag)
297 : : {
298 : : const struct rte_flow_item_conntrack *m = item_spec;
299 : : uint32_t reg_mask = 0;
300 : :
301 [ # # ]: 0 : if (m->flags & (RTE_FLOW_CONNTRACK_PKT_STATE_VALID |
302 : : RTE_FLOW_CONNTRACK_PKT_STATE_INVALID |
303 : : RTE_FLOW_CONNTRACK_PKT_STATE_DISABLED))
304 : : reg_mask |= (MLX5_CT_SYNDROME_VALID | MLX5_CT_SYNDROME_INVALID |
305 : : MLX5_CT_SYNDROME_TRAP);
306 : :
307 [ # # ]: 0 : if (m->flags & RTE_FLOW_CONNTRACK_PKT_STATE_CHANGED)
308 : 0 : reg_mask |= MLX5_CT_SYNDROME_STATE_CHANGE;
309 : :
310 [ # # ]: 0 : if (m->flags & RTE_FLOW_CONNTRACK_PKT_STATE_BAD)
311 : 0 : reg_mask |= MLX5_CT_SYNDROME_BAD_PACKET;
312 : :
313 [ # # # # : 0 : DR_SET(tag, reg_mask, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
314 : 0 : }
315 : :
316 : : static void
317 : 0 : mlx5dr_definer_conntrack_tag(struct mlx5dr_definer_fc *fc,
318 : : const void *item_spec,
319 : : uint8_t *tag)
320 : : {
321 : : const struct rte_flow_item_conntrack *v = item_spec;
322 : : uint32_t reg_value = 0;
323 : :
324 : : /* The conflict should be checked in the validation. */
325 : 0 : if (v->flags & RTE_FLOW_CONNTRACK_PKT_STATE_VALID)
326 : : reg_value |= MLX5_CT_SYNDROME_VALID;
327 : :
328 [ # # ]: 0 : if (v->flags & RTE_FLOW_CONNTRACK_PKT_STATE_CHANGED)
329 : : reg_value |= MLX5_CT_SYNDROME_STATE_CHANGE;
330 : :
331 [ # # ]: 0 : if (v->flags & RTE_FLOW_CONNTRACK_PKT_STATE_INVALID)
332 : 0 : reg_value |= MLX5_CT_SYNDROME_INVALID;
333 : :
334 [ # # ]: 0 : if (v->flags & RTE_FLOW_CONNTRACK_PKT_STATE_DISABLED)
335 : 0 : reg_value |= MLX5_CT_SYNDROME_TRAP;
336 : :
337 [ # # ]: 0 : if (v->flags & RTE_FLOW_CONNTRACK_PKT_STATE_BAD)
338 : 0 : reg_value |= MLX5_CT_SYNDROME_BAD_PACKET;
339 : :
340 [ # # # # : 0 : DR_SET(tag, reg_value, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
341 : 0 : }
342 : :
343 : : static void
344 : 0 : mlx5dr_definer_ptype_l2_set(struct mlx5dr_definer_fc *fc,
345 : : const void *item_spec,
346 : : uint8_t *tag)
347 : : {
348 : 0 : bool inner = (fc->fname == MLX5DR_DEFINER_FNAME_PTYPE_L2_I);
349 : : const struct rte_flow_item_ptype *v = item_spec;
350 : 0 : uint32_t packet_type = v->packet_type &
351 [ # # ]: 0 : (inner ? RTE_PTYPE_INNER_L2_MASK : RTE_PTYPE_L2_MASK);
352 : : uint8_t l2_type = STE_NO_VLAN;
353 : :
354 [ # # # # ]: 0 : if (packet_type == (inner ? RTE_PTYPE_INNER_L2_ETHER : RTE_PTYPE_L2_ETHER))
355 : : l2_type = STE_NO_VLAN;
356 [ # # # # ]: 0 : else if (packet_type == (inner ? RTE_PTYPE_INNER_L2_ETHER_VLAN : RTE_PTYPE_L2_ETHER_VLAN))
357 : : l2_type = STE_CVLAN;
358 [ # # # # ]: 0 : else if (packet_type == (inner ? RTE_PTYPE_INNER_L2_ETHER_QINQ : RTE_PTYPE_L2_ETHER_QINQ))
359 : : l2_type = STE_SVLAN;
360 : :
361 [ # # # # : 0 : DR_SET(tag, l2_type, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
362 : 0 : }
363 : :
364 : : static void
365 : 0 : mlx5dr_definer_ptype_l3_set(struct mlx5dr_definer_fc *fc,
366 : : const void *item_spec,
367 : : uint8_t *tag)
368 : : {
369 : 0 : bool inner = (fc->fname == MLX5DR_DEFINER_FNAME_PTYPE_L3_I);
370 : : const struct rte_flow_item_ptype *v = item_spec;
371 : 0 : uint32_t packet_type = v->packet_type &
372 [ # # ]: 0 : (inner ? RTE_PTYPE_INNER_L3_MASK : RTE_PTYPE_L3_MASK);
373 : : uint8_t l3_type = STE_NO_L3;
374 : :
375 [ # # # # ]: 0 : if (packet_type == (inner ? RTE_PTYPE_INNER_L3_IPV4 : RTE_PTYPE_L3_IPV4))
376 : : l3_type = STE_IPV4;
377 [ # # # # ]: 0 : else if (packet_type == (inner ? RTE_PTYPE_INNER_L3_IPV6 : RTE_PTYPE_L3_IPV6))
378 : : l3_type = STE_IPV6;
379 : :
380 [ # # # # : 0 : DR_SET(tag, l3_type, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
381 : 0 : }
382 : :
383 : : static void
384 : 0 : mlx5dr_definer_ptype_l4_set(struct mlx5dr_definer_fc *fc,
385 : : const void *item_spec,
386 : : uint8_t *tag)
387 : : {
388 : 0 : bool inner = (fc->fname == MLX5DR_DEFINER_FNAME_PTYPE_L4_I);
389 : : const struct rte_flow_item_ptype *v = item_spec;
390 : 0 : uint32_t packet_type = v->packet_type &
391 [ # # ]: 0 : (inner ? RTE_PTYPE_INNER_L4_MASK : RTE_PTYPE_L4_MASK);
392 : : uint8_t l4_type = STE_NO_L4;
393 : :
394 [ # # # # ]: 0 : if (packet_type == (inner ? RTE_PTYPE_INNER_L4_TCP : RTE_PTYPE_L4_TCP))
395 : : l4_type = STE_TCP;
396 [ # # # # ]: 0 : else if (packet_type == (inner ? RTE_PTYPE_INNER_L4_UDP : RTE_PTYPE_L4_UDP))
397 : : l4_type = STE_UDP;
398 [ # # # # ]: 0 : else if (packet_type == (inner ? RTE_PTYPE_INNER_L4_ESP : RTE_PTYPE_L4_ESP))
399 : : l4_type = STE_ESP;
400 : :
401 [ # # # # : 0 : DR_SET(tag, l4_type, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
402 : 0 : }
403 : :
404 : : static void
405 : 0 : mlx5dr_definer_ptype_l4_ext_set(struct mlx5dr_definer_fc *fc,
406 : : const void *item_spec,
407 : : uint8_t *tag)
408 : : {
409 : 0 : bool inner = (fc->fname == MLX5DR_DEFINER_FNAME_PTYPE_L4_EXT_I);
410 : : const struct rte_flow_item_ptype *v = item_spec;
411 : 0 : uint32_t packet_type = v->packet_type &
412 [ # # ]: 0 : (inner ? RTE_PTYPE_INNER_L4_MASK : RTE_PTYPE_L4_MASK);
413 : : uint8_t l4_type = STE_NO_L4;
414 : :
415 [ # # # # ]: 0 : if (packet_type == (inner ? RTE_PTYPE_INNER_L4_TCP : RTE_PTYPE_L4_TCP))
416 : : l4_type = STE_TCP;
417 [ # # # # ]: 0 : else if (packet_type == (inner ? RTE_PTYPE_INNER_L4_UDP : RTE_PTYPE_L4_UDP))
418 : : l4_type = STE_UDP;
419 [ # # # # ]: 0 : else if (packet_type == (inner ? RTE_PTYPE_INNER_L4_ICMP : RTE_PTYPE_L4_ICMP))
420 : : l4_type = STE_ICMP;
421 : : else if (packet_type == RTE_PTYPE_TUNNEL_ESP)
422 : : l4_type = STE_ESP;
423 : :
424 [ # # # # : 0 : DR_SET(tag, l4_type, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
425 : 0 : }
426 : :
427 : : static void
428 : 0 : mlx5dr_definer_ptype_tunnel_set(struct mlx5dr_definer_fc *fc,
429 : : const void *item_spec,
430 : : uint8_t *tag)
431 : : {
432 : : const struct rte_flow_item_ptype *v = item_spec;
433 : 0 : uint32_t packet_type = v->packet_type & RTE_PTYPE_TUNNEL_MASK;
434 : : uint8_t tun_type = STE_NO_TUN;
435 : :
436 [ # # ]: 0 : if (packet_type == RTE_PTYPE_TUNNEL_ESP)
437 : : tun_type = STE_ESP;
438 : :
439 [ # # # # : 0 : DR_SET(tag, tun_type, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
440 : 0 : }
441 : :
442 : : static void
443 : 0 : mlx5dr_definer_ptype_frag_set(struct mlx5dr_definer_fc *fc,
444 : : const void *item_spec,
445 : : uint8_t *tag)
446 : : {
447 : 0 : bool inner = (fc->fname == MLX5DR_DEFINER_FNAME_PTYPE_FRAG_I);
448 : : const struct rte_flow_item_ptype *v = item_spec;
449 : 0 : uint32_t packet_type = v->packet_type &
450 [ # # ]: 0 : (inner ? RTE_PTYPE_INNER_L4_FRAG : RTE_PTYPE_L4_FRAG);
451 : :
452 [ # # # # : 0 : DR_SET(tag, !!packet_type, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
453 : 0 : }
454 : :
455 : : static void
456 : 0 : mlx5dr_definer_compare_base_value_set(const void *item_spec,
457 : : uint8_t *tag)
458 : : {
459 : : uint32_t *ctrl = &(((uint32_t *)tag)[MLX5DR_DEFINER_COMPARE_STE_ARGUMENT_1]);
460 : : uint32_t *base = &(((uint32_t *)tag)[MLX5DR_DEFINER_COMPARE_STE_BASE_0]);
461 : : const struct rte_flow_item_compare *v = item_spec;
462 : : const struct rte_flow_field_data *a = &v->a;
463 : : const struct rte_flow_field_data *b = &v->b;
464 : : const uint32_t *value;
465 : :
466 : : value = (const uint32_t *)&b->value[0];
467 : :
468 [ # # # # ]: 0 : switch (a->field) {
469 : 0 : case RTE_FLOW_FIELD_RANDOM:
470 : 0 : *base = htobe32(*value << 16);
471 : 0 : break;
472 : 0 : case RTE_FLOW_FIELD_TAG:
473 : : case RTE_FLOW_FIELD_META:
474 : 0 : *base = htobe32(*value);
475 : 0 : break;
476 : 0 : case RTE_FLOW_FIELD_ESP_SEQ_NUM:
477 : 0 : *base = *value;
478 : 0 : break;
479 : : default:
480 : : break;
481 : : }
482 : :
483 [ # # ]: 0 : MLX5_SET(ste_match_4dw_range_ctrl_dw, ctrl, base0, 1);
484 : 0 : }
485 : :
486 : : static void
487 [ # # ]: 0 : mlx5dr_definer_compare_op_translate(enum rte_flow_item_compare_op op,
488 : : uint8_t *tag)
489 : : {
490 : : uint32_t *ctrl = &(((uint32_t *)tag)[MLX5DR_DEFINER_COMPARE_STE_ARGUMENT_1]);
491 : : uint8_t operator = 0;
492 : : uint8_t inverse = 0;
493 : :
494 : : switch (op) {
495 : : case RTE_FLOW_ITEM_COMPARE_EQ:
496 : : operator = 2;
497 : : break;
498 : : case RTE_FLOW_ITEM_COMPARE_NE:
499 : : operator = 2;
500 : : inverse = 1;
501 : : break;
502 : : case RTE_FLOW_ITEM_COMPARE_LT:
503 : : inverse = 1;
504 : : break;
505 : : case RTE_FLOW_ITEM_COMPARE_LE:
506 : : operator = 1;
507 : : break;
508 : : case RTE_FLOW_ITEM_COMPARE_GT:
509 : : operator = 1;
510 : : inverse = 1;
511 : : break;
512 : : case RTE_FLOW_ITEM_COMPARE_GE:
513 : : break;
514 : 0 : default:
515 : 0 : DR_LOG(ERR, "Invalid operation type %d", op);
516 : 0 : assert(false);
517 : : }
518 : :
519 [ # # ]: 0 : MLX5_SET(ste_match_4dw_range_ctrl_dw, ctrl, inverse0, inverse);
520 [ # # ]: 0 : MLX5_SET(ste_match_4dw_range_ctrl_dw, ctrl, operator0, operator);
521 : 0 : }
522 : :
523 : : static void
524 : : mlx5dr_definer_compare_arg_set(const void *item_spec,
525 : : uint8_t *tag)
526 : : {
527 : : const struct rte_flow_item_compare *v = item_spec;
528 : 0 : enum rte_flow_item_compare_op op = v->operation;
529 : :
530 : 0 : mlx5dr_definer_compare_op_translate(op, tag);
531 : : }
532 : :
533 : : static void
534 : 0 : mlx5dr_definer_compare_set(struct mlx5dr_definer_fc *fc,
535 : : const void *item_spec,
536 : : uint8_t *tag)
537 : : {
538 [ # # ]: 0 : if (fc->compare_idx == MLX5DR_DEFINER_COMPARE_ARGUMENT_0) {
539 : : mlx5dr_definer_compare_arg_set(item_spec, tag);
540 [ # # ]: 0 : if (fc->compare_set_base)
541 : 0 : mlx5dr_definer_compare_base_value_set(item_spec, tag);
542 : : }
543 : 0 : }
544 : :
545 : : static void
546 : 0 : mlx5dr_definer_integrity_set(struct mlx5dr_definer_fc *fc,
547 : : const void *item_spec,
548 : : uint8_t *tag)
549 : : {
550 : 0 : bool inner = (fc->fname == MLX5DR_DEFINER_FNAME_INTEGRITY_I);
551 : : const struct rte_flow_item_integrity *v = item_spec;
552 [ # # ]: 0 : uint32_t ok1_bits = DR_GET_32(tag, fc->byte_off, fc->bit_off, fc->bit_mask);
553 : :
554 [ # # ]: 0 : if (v->l3_ok)
555 [ # # ]: 0 : ok1_bits |= inner ? BIT(MLX5DR_DEFINER_OKS1_SECOND_L3_OK) :
556 : : BIT(MLX5DR_DEFINER_OKS1_FIRST_L3_OK);
557 : :
558 [ # # ]: 0 : if (v->ipv4_csum_ok)
559 [ # # ]: 0 : ok1_bits |= inner ? BIT(MLX5DR_DEFINER_OKS1_SECOND_IPV4_CSUM_OK) :
560 : : BIT(MLX5DR_DEFINER_OKS1_FIRST_IPV4_CSUM_OK);
561 : :
562 [ # # ]: 0 : if (v->l4_ok)
563 [ # # ]: 0 : ok1_bits |= inner ? BIT(MLX5DR_DEFINER_OKS1_SECOND_L4_OK) |
564 : : BIT(MLX5DR_DEFINER_OKS1_SECOND_L4_CSUM_OK) :
565 : : BIT(MLX5DR_DEFINER_OKS1_FIRST_L4_OK) |
566 : : BIT(MLX5DR_DEFINER_OKS1_FIRST_L4_CSUM_OK);
567 : :
568 [ # # ]: 0 : if (v->l4_csum_ok)
569 [ # # ]: 0 : ok1_bits |= inner ? BIT(MLX5DR_DEFINER_OKS1_SECOND_L4_CSUM_OK) :
570 : : BIT(MLX5DR_DEFINER_OKS1_FIRST_L4_CSUM_OK);
571 : :
572 [ # # # # : 0 : DR_SET(tag, ok1_bits, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
573 : 0 : }
574 : :
575 : : static void
576 : 0 : mlx5dr_definer_ipv6_routing_ext_set(struct mlx5dr_definer_fc *fc,
577 : : const void *item,
578 : : uint8_t *tag)
579 : : {
580 : : const struct rte_flow_item_ipv6_routing_ext *v = item;
581 : : uint32_t val;
582 : :
583 : 0 : val = v->hdr.next_hdr << __mlx5_dw_bit_off(header_ipv6_routing_ext, next_hdr);
584 : 0 : val |= v->hdr.type << __mlx5_dw_bit_off(header_ipv6_routing_ext, type);
585 : 0 : val |= v->hdr.segments_left <<
586 : : __mlx5_dw_bit_off(header_ipv6_routing_ext, segments_left);
587 [ # # ]: 0 : DR_SET(tag, val, fc->byte_off, 0, fc->bit_mask);
588 : 0 : }
589 : :
590 : : static void
591 : 0 : mlx5dr_definer_ecpri_common_set(struct mlx5dr_definer_fc *fc,
592 : : const void *item,
593 : : uint8_t *tag)
594 : : {
595 : : const struct rte_flow_item_ecpri *ec = item;
596 : : uint32_t val;
597 : :
598 : 0 : val = ec->hdr.common.u32;
599 : :
600 : 0 : DR_SET_BE32(tag, val, fc->byte_off, 0, fc->bit_mask);
601 : 0 : }
602 : :
603 : : static void
604 : 0 : mlx5dr_definer_ecpri_body_set(struct mlx5dr_definer_fc *fc,
605 : : const void *item,
606 : : uint8_t *tag)
607 : : {
608 : : const struct rte_flow_item_ecpri *ec = item;
609 : : uint32_t val, idx;
610 : :
611 : :
612 : 0 : idx = fc->fname - MLX5DR_DEFINER_FNAME_FLEX_PARSER_0;
613 : : /* The 1st DW is used for common field, indeed, there are only 2 DWs. */
614 : 0 : val = ec->hdr.dummy[idx - 1];
615 : :
616 : 0 : DR_SET_BE32(tag, val, fc->byte_off, 0, fc->bit_mask);
617 : 0 : }
618 : :
619 : : static void
620 : 0 : mlx5dr_definer_flex_parser_set(struct mlx5dr_definer_fc *fc,
621 : : const void *item,
622 : : uint8_t *tag, bool is_inner)
623 : : {
624 : : const struct rte_flow_item_flex *flex = item;
625 : : uint32_t byte_off, val, idx;
626 : : int ret;
627 : :
628 : 0 : val = 0;
629 : : byte_off = MLX5_BYTE_OFF(definer_hl, flex_parser.flex_parser_0);
630 : 0 : idx = fc->fname - MLX5DR_DEFINER_FNAME_FLEX_PARSER_0;
631 : 0 : byte_off -= idx * sizeof(uint32_t);
632 : 0 : ret = mlx5_flex_get_parser_value_per_byte_off(flex, flex->handle, byte_off,
633 : : is_inner, &val);
634 [ # # # # ]: 0 : if (ret == -1 || !val)
635 : 0 : return;
636 : :
637 [ # # ]: 0 : DR_SET(tag, val, fc->byte_off, 0, fc->bit_mask);
638 : : }
639 : :
640 : : static void
641 : 0 : mlx5dr_definer_flex_parser_inner_set(struct mlx5dr_definer_fc *fc,
642 : : const void *item,
643 : : uint8_t *tag)
644 : : {
645 : 0 : mlx5dr_definer_flex_parser_set(fc, item, tag, true);
646 : 0 : }
647 : :
648 : : static void
649 : 0 : mlx5dr_definer_flex_parser_outer_set(struct mlx5dr_definer_fc *fc,
650 : : const void *item,
651 : : uint8_t *tag)
652 : : {
653 : 0 : mlx5dr_definer_flex_parser_set(fc, item, tag, false);
654 : 0 : }
655 : :
656 : : static void
657 : 0 : mlx5dr_definer_gre_key_set(struct mlx5dr_definer_fc *fc,
658 : : const void *item_spec,
659 : : uint8_t *tag)
660 : : {
661 : : const rte_be32_t *v = item_spec;
662 : :
663 : 0 : DR_SET_BE32(tag, *v, fc->byte_off, fc->bit_off, fc->bit_mask);
664 : 0 : }
665 : :
666 : : static void
667 : 0 : mlx5dr_definer_ipv6_tos_set(struct mlx5dr_definer_fc *fc,
668 : : const void *item_spec,
669 : : uint8_t *tag)
670 : : {
671 : : const struct rte_flow_item_ipv6 *v = item_spec;
672 [ # # ]: 0 : uint8_t tos = DR_GET(header_ipv6_vtc, &v->hdr.vtc_flow, tos);
673 : :
674 [ # # # # : 0 : DR_SET(tag, tos, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
675 : 0 : }
676 : :
677 : : static void
678 : 0 : mlx5dr_definer_icmp_dw1_set(struct mlx5dr_definer_fc *fc,
679 : : const void *item_spec,
680 : : uint8_t *tag)
681 : : {
682 : : const struct rte_flow_item_icmp *v = item_spec;
683 : : rte_be32_t icmp_dw1;
684 : :
685 : 0 : icmp_dw1 = (v->hdr.icmp_type << __mlx5_dw_bit_off(header_icmp, type)) |
686 : 0 : (v->hdr.icmp_code << __mlx5_dw_bit_off(header_icmp, code)) |
687 [ # # ]: 0 : (rte_be_to_cpu_16(v->hdr.icmp_cksum) << __mlx5_dw_bit_off(header_icmp, cksum));
688 : :
689 [ # # # # : 0 : DR_SET(tag, icmp_dw1, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
690 : 0 : }
691 : :
692 : : static void
693 : 0 : mlx5dr_definer_icmp_dw2_set(struct mlx5dr_definer_fc *fc,
694 : : const void *item_spec,
695 : : uint8_t *tag)
696 : : {
697 : : const struct rte_flow_item_icmp *v = item_spec;
698 : : rte_be32_t icmp_dw2;
699 : :
700 [ # # ]: 0 : icmp_dw2 = (rte_be_to_cpu_16(v->hdr.icmp_ident) << __mlx5_dw_bit_off(header_icmp, ident)) |
701 [ # # ]: 0 : (rte_be_to_cpu_16(v->hdr.icmp_seq_nb) << __mlx5_dw_bit_off(header_icmp, seq_nb));
702 : :
703 [ # # # # : 0 : DR_SET(tag, icmp_dw2, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
704 : 0 : }
705 : :
706 : : static void
707 : 0 : mlx5dr_definer_icmp6_dw1_set(struct mlx5dr_definer_fc *fc,
708 : : const void *item_spec,
709 : : uint8_t *tag)
710 : : {
711 : : const struct rte_flow_item_icmp6 *v = item_spec;
712 : : rte_be32_t icmp_dw1;
713 : :
714 : 0 : icmp_dw1 = (v->type << __mlx5_dw_bit_off(header_icmp, type)) |
715 : 0 : (v->code << __mlx5_dw_bit_off(header_icmp, code)) |
716 [ # # ]: 0 : (rte_be_to_cpu_16(v->checksum) << __mlx5_dw_bit_off(header_icmp, cksum));
717 : :
718 [ # # # # : 0 : DR_SET(tag, icmp_dw1, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
719 : 0 : }
720 : :
721 : : static void
722 : 0 : mlx5dr_definer_icmp6_echo_dw1_mask_set(struct mlx5dr_definer_fc *fc,
723 : : __rte_unused const void *item_spec,
724 : : uint8_t *tag)
725 : : {
726 : 0 : const struct rte_flow_item_icmp6 spec = {0xFF, 0xFF, 0x0};
727 : 0 : mlx5dr_definer_icmp6_dw1_set(fc, &spec, tag);
728 : 0 : }
729 : :
730 : : static void
731 : 0 : mlx5dr_definer_icmp6_echo_request_dw1_set(struct mlx5dr_definer_fc *fc,
732 : : __rte_unused const void *item_spec,
733 : : uint8_t *tag)
734 : : {
735 : 0 : const struct rte_flow_item_icmp6 spec = {RTE_ICMP6_ECHO_REQUEST, 0, 0};
736 : 0 : mlx5dr_definer_icmp6_dw1_set(fc, &spec, tag);
737 : 0 : }
738 : :
739 : : static void
740 : 0 : mlx5dr_definer_icmp6_echo_reply_dw1_set(struct mlx5dr_definer_fc *fc,
741 : : __rte_unused const void *item_spec,
742 : : uint8_t *tag)
743 : : {
744 : 0 : const struct rte_flow_item_icmp6 spec = {RTE_ICMP6_ECHO_REPLY, 0, 0};
745 : 0 : mlx5dr_definer_icmp6_dw1_set(fc, &spec, tag);
746 : 0 : }
747 : :
748 : : static void
749 : 0 : mlx5dr_definer_icmp6_echo_dw2_set(struct mlx5dr_definer_fc *fc,
750 : : const void *item_spec,
751 : : uint8_t *tag)
752 : : {
753 : : const struct rte_flow_item_icmp6_echo *v = item_spec;
754 : : rte_be32_t dw2;
755 : :
756 [ # # ]: 0 : dw2 = (rte_be_to_cpu_16(v->hdr.identifier) << __mlx5_dw_bit_off(header_icmp, ident)) |
757 [ # # ]: 0 : (rte_be_to_cpu_16(v->hdr.sequence) << __mlx5_dw_bit_off(header_icmp, seq_nb));
758 : :
759 [ # # # # : 0 : DR_SET(tag, dw2, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
760 : 0 : }
761 : :
762 : : static void
763 : 0 : mlx5dr_definer_ipv6_flow_label_set(struct mlx5dr_definer_fc *fc,
764 : : const void *item_spec,
765 : : uint8_t *tag)
766 : : {
767 : : const struct rte_flow_item_ipv6 *v = item_spec;
768 [ # # ]: 0 : uint32_t flow_label = DR_GET(header_ipv6_vtc, &v->hdr.vtc_flow, flow_label);
769 : :
770 [ # # # # : 0 : DR_SET(tag, flow_label, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
771 : 0 : }
772 : :
773 : : static void
774 : 0 : mlx5dr_definer_vport_set(struct mlx5dr_definer_fc *fc,
775 : : const void *item_spec,
776 : : uint8_t *tag)
777 : : {
778 : : const struct rte_flow_item_ethdev *v = item_spec;
779 : : const struct flow_hw_port_info *port_info = NULL;
780 : : uint32_t regc_value;
781 : :
782 [ # # ]: 0 : if (v)
783 [ # # ]: 0 : port_info = flow_hw_conv_port_id(fc->dr_ctx, v->port_id);
784 [ # # ]: 0 : if (unlikely(!port_info))
785 : : regc_value = BAD_PORT;
786 : : else
787 : 0 : regc_value = port_info->regc_value >> fc->bit_off;
788 : :
789 : : /* Bit offset is set to 0 to since regc value is 32bit */
790 [ # # # # : 0 : DR_SET(tag, regc_value, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
791 : 0 : }
792 : :
793 : : static struct mlx5dr_definer_fc *
794 : 0 : mlx5dr_definer_get_mpls_fc(struct mlx5dr_definer_conv_data *cd, bool inner)
795 : : {
796 : 0 : uint8_t mpls_idx = cd->mpls_idx;
797 : : struct mlx5dr_definer_fc *fc;
798 : :
799 [ # # # # : 0 : switch (mpls_idx) {
# # ]
800 : 0 : case 0:
801 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(MPLS0, inner)];
802 : 0 : DR_CALC_SET_HDR(fc, mpls_inner, mpls0_label);
803 : 0 : break;
804 : 0 : case 1:
805 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(MPLS1, inner)];
806 : 0 : DR_CALC_SET_HDR(fc, mpls_inner, mpls1_label);
807 : 0 : break;
808 : 0 : case 2:
809 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(MPLS2, inner)];
810 : 0 : DR_CALC_SET_HDR(fc, mpls_inner, mpls2_label);
811 : 0 : break;
812 : 0 : case 3:
813 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(MPLS3, inner)];
814 : 0 : DR_CALC_SET_HDR(fc, mpls_inner, mpls3_label);
815 : 0 : break;
816 : 0 : case 4:
817 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(MPLS4, inner)];
818 : 0 : DR_CALC_SET_HDR(fc, mpls_inner, mpls4_label);
819 : 0 : break;
820 : 0 : default:
821 : 0 : rte_errno = ENOTSUP;
822 : 0 : DR_LOG(ERR, "MPLS index %d is not supported", mpls_idx);
823 : 0 : return NULL;
824 : : }
825 : :
826 : : return fc;
827 : : }
828 : :
829 : : static struct mlx5dr_definer_fc *
830 : 0 : mlx5dr_definer_get_mpls_oks_fc(struct mlx5dr_definer_conv_data *cd, bool inner)
831 : : {
832 : 0 : uint8_t mpls_idx = cd->mpls_idx;
833 : : struct mlx5dr_definer_fc *fc;
834 : :
835 [ # # # # : 0 : switch (mpls_idx) {
# # ]
836 : 0 : case 0:
837 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(OKS2_MPLS0, inner)];
838 : 0 : DR_CALC_SET_HDR(fc, oks2, second_mpls0_qualifier);
839 : 0 : break;
840 : 0 : case 1:
841 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(OKS2_MPLS1, inner)];
842 : 0 : DR_CALC_SET_HDR(fc, oks2, second_mpls1_qualifier);
843 : 0 : break;
844 : 0 : case 2:
845 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(OKS2_MPLS2, inner)];
846 : 0 : DR_CALC_SET_HDR(fc, oks2, second_mpls2_qualifier);
847 : 0 : break;
848 : 0 : case 3:
849 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(OKS2_MPLS3, inner)];
850 : 0 : DR_CALC_SET_HDR(fc, oks2, second_mpls3_qualifier);
851 : 0 : break;
852 : 0 : case 4:
853 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(OKS2_MPLS4, inner)];
854 : 0 : DR_CALC_SET_HDR(fc, oks2, second_mpls4_qualifier);
855 : 0 : break;
856 : 0 : default:
857 : 0 : rte_errno = ENOTSUP;
858 : 0 : DR_LOG(ERR, "MPLS index %d is not supported", mpls_idx);
859 : 0 : return NULL;
860 : : }
861 : :
862 : : return fc;
863 : : }
864 : :
865 : : static void
866 : 0 : mlx5dr_definer_mpls_label_set(struct mlx5dr_definer_fc *fc,
867 : : const void *item_spec,
868 : : uint8_t *tag)
869 : : {
870 : : const struct rte_flow_item_mpls *v = item_spec;
871 : :
872 : 0 : memcpy(tag + fc->byte_off, v->label_tc_s, sizeof(v->label_tc_s));
873 : 0 : memcpy(tag + fc->byte_off + sizeof(v->label_tc_s), &v->ttl, sizeof(v->ttl));
874 : 0 : }
875 : :
876 : : static void
877 : 0 : mlx5dr_definer_geneve_vni_set(struct mlx5dr_definer_fc *fc,
878 : : const void *item_spec,
879 : : uint8_t *tag)
880 : : {
881 : : const struct rte_flow_item_geneve *v = item_spec;
882 : :
883 : 0 : memcpy(tag + fc->byte_off, v->vni, sizeof(v->vni));
884 : 0 : }
885 : :
886 : : static void
887 : 0 : mlx5dr_definer_geneve_opt_ctrl_set(struct mlx5dr_definer_fc *fc,
888 : : const void *item_spec,
889 : : uint8_t *tag)
890 : : {
891 : : const struct rte_flow_item_geneve_opt *v = item_spec;
892 : : uint32_t dw0 = 0;
893 : :
894 : 0 : dw0 |= v->option_type << __mlx5_dw_bit_off(header_geneve_opt, type);
895 [ # # ]: 0 : dw0 |= rte_cpu_to_be_16(v->option_class) << __mlx5_dw_bit_off(header_geneve_opt, class);
896 [ # # # # : 0 : DR_SET(tag, dw0, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
897 : 0 : }
898 : :
899 : : static void
900 : 0 : mlx5dr_definer_geneve_opt_data_set(struct mlx5dr_definer_fc *fc,
901 : : const void *item_spec,
902 : : uint8_t *tag)
903 : : {
904 : : const struct rte_flow_item_geneve_opt *v = item_spec;
905 : :
906 : 0 : DR_SET_BE32(tag, v->data[fc->extra_data], fc->byte_off, fc->bit_off, fc->bit_mask);
907 : 0 : }
908 : :
909 : : static void
910 : 0 : mlx5dr_definer_ib_l4_qp_set(struct mlx5dr_definer_fc *fc,
911 : : const void *item_spec,
912 : : uint8_t *tag)
913 : : {
914 : : const struct rte_flow_item_ib_bth *v = item_spec;
915 : :
916 : 0 : memcpy(tag + fc->byte_off, &v->hdr.dst_qp, sizeof(v->hdr.dst_qp));
917 : 0 : }
918 : :
919 : : static void
920 : 0 : mlx5dr_definer_vxlan_gpe_vni_set(struct mlx5dr_definer_fc *fc,
921 : : const void *item_spec,
922 : : uint8_t *tag)
923 : : {
924 : : const struct rte_flow_item_vxlan_gpe *v = item_spec;
925 : :
926 : 0 : memcpy(tag + fc->byte_off, v->vni, sizeof(v->vni));
927 : 0 : }
928 : :
929 : : static void
930 : 0 : mlx5dr_definer_vxlan_gpe_rsvd0_set(struct mlx5dr_definer_fc *fc,
931 : : const void *item_spec,
932 : : uint8_t *tag)
933 : : {
934 : : const struct rte_flow_item_vxlan_gpe *v = item_spec;
935 : : uint16_t rsvd0;
936 : :
937 : 0 : rsvd0 = (v->rsvd0[0] << 8 | v->rsvd0[1]);
938 [ # # # # : 0 : DR_SET(tag, rsvd0, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
939 : 0 : }
940 : :
941 : : static void
942 : 0 : mlx5dr_definer_tx_queue_set(struct mlx5dr_definer_fc *fc,
943 : : const void *item_spec,
944 : : uint8_t *tag)
945 : : {
946 : : const struct rte_flow_item_tx_queue *v = item_spec;
947 : : uint32_t sqn = 0;
948 : : int ret;
949 : :
950 [ # # ]: 0 : ret = flow_hw_conv_sqn(fc->extra_data, v->tx_queue, &sqn);
951 [ # # ]: 0 : if (unlikely(ret))
952 : : sqn = BAD_SQN;
953 : :
954 [ # # # # : 0 : DR_SET(tag, sqn, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
955 : 0 : }
956 : :
957 : : static int
958 : 0 : mlx5dr_definer_conv_item_eth(struct mlx5dr_definer_conv_data *cd,
959 : : struct rte_flow_item *item,
960 : : int item_idx)
961 : : {
962 : 0 : const struct rte_flow_item_eth *m = item->mask;
963 : 0 : uint8_t empty_mac[RTE_ETHER_ADDR_LEN] = {0};
964 : : struct mlx5dr_definer_fc *fc;
965 : 0 : bool inner = cd->tunnel;
966 : :
967 [ # # ]: 0 : if (!m)
968 : : return 0;
969 : :
970 [ # # ]: 0 : if (m->reserved) {
971 : 0 : rte_errno = ENOTSUP;
972 : 0 : return rte_errno;
973 : : }
974 : :
975 [ # # ]: 0 : if (m->hdr.ether_type) {
976 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(ETH_TYPE, inner)];
977 : 0 : fc->item_idx = item_idx;
978 : 0 : fc->tag_set = &mlx5dr_definer_eth_type_set;
979 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l3_ethertype, inner);
980 : : }
981 : :
982 : : /* Check SMAC 47_16 */
983 [ # # ]: 0 : if (memcmp(m->hdr.src_addr.addr_bytes, empty_mac, 4)) {
984 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(ETH_SMAC_48_16, inner)];
985 : 0 : fc->item_idx = item_idx;
986 : 0 : fc->tag_set = &mlx5dr_definer_eth_smac_47_16_set;
987 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2_src, smac_47_16, inner);
988 : : }
989 : :
990 : : /* Check SMAC 15_0 */
991 [ # # ]: 0 : if (memcmp(m->hdr.src_addr.addr_bytes + 4, empty_mac + 4, 2)) {
992 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(ETH_SMAC_15_0, inner)];
993 : 0 : fc->item_idx = item_idx;
994 : 0 : fc->tag_set = &mlx5dr_definer_eth_smac_15_0_set;
995 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2_src, smac_15_0, inner);
996 : : }
997 : :
998 : : /* Check DMAC 47_16 */
999 [ # # ]: 0 : if (memcmp(m->hdr.dst_addr.addr_bytes, empty_mac, 4)) {
1000 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(ETH_DMAC_48_16, inner)];
1001 : 0 : fc->item_idx = item_idx;
1002 : 0 : fc->tag_set = &mlx5dr_definer_eth_dmac_47_16_set;
1003 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, dmac_47_16, inner);
1004 : : }
1005 : :
1006 : : /* Check DMAC 15_0 */
1007 [ # # ]: 0 : if (memcmp(m->hdr.dst_addr.addr_bytes + 4, empty_mac + 4, 2)) {
1008 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(ETH_DMAC_15_0, inner)];
1009 : 0 : fc->item_idx = item_idx;
1010 : 0 : fc->tag_set = &mlx5dr_definer_eth_dmac_15_0_set;
1011 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, dmac_15_0, inner);
1012 : : }
1013 : :
1014 [ # # ]: 0 : if (m->has_vlan) {
1015 : : /* Mark packet as tagged (CVLAN) */
1016 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(VLAN_TYPE, inner)];
1017 : 0 : fc->item_idx = item_idx;
1018 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1019 : 0 : fc->tag_set = &mlx5dr_definer_eth_first_vlan_q_set;
1020 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, first_vlan_qualifier, inner);
1021 : : }
1022 : :
1023 : : return 0;
1024 : : }
1025 : :
1026 : : static int
1027 : 0 : mlx5dr_definer_conv_item_vlan(struct mlx5dr_definer_conv_data *cd,
1028 : : struct rte_flow_item *item,
1029 : : int item_idx)
1030 : : {
1031 : 0 : const struct rte_flow_item_vlan *m = item->mask;
1032 : : struct mlx5dr_definer_fc *fc;
1033 : 0 : bool inner = cd->tunnel;
1034 : :
1035 [ # # ]: 0 : if (!cd->relaxed) {
1036 : : /* Mark packet as tagged (CVLAN) */
1037 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(VLAN_TYPE, inner)];
1038 : 0 : fc->item_idx = item_idx;
1039 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1040 : 0 : fc->tag_set = &mlx5dr_definer_cvlan_set;
1041 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, first_vlan_qualifier, inner);
1042 : : }
1043 : :
1044 [ # # ]: 0 : if (!m)
1045 : : return 0;
1046 : :
1047 [ # # ]: 0 : if (m->reserved) {
1048 : 0 : rte_errno = ENOTSUP;
1049 : 0 : return rte_errno;
1050 : : }
1051 : :
1052 [ # # ]: 0 : if (m->has_more_vlan) {
1053 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(VLAN_TYPE, inner)];
1054 : 0 : fc->item_idx = item_idx;
1055 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1056 : 0 : fc->tag_set = &mlx5dr_definer_first_vlan_q_set;
1057 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, first_vlan_qualifier, inner);
1058 : : }
1059 : :
1060 [ # # ]: 0 : if (m->hdr.vlan_tci) {
1061 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(VLAN_TCI, inner)];
1062 : 0 : fc->item_idx = item_idx;
1063 : 0 : fc->tag_set = &mlx5dr_definer_tci_set;
1064 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, tci, inner);
1065 : : }
1066 : :
1067 [ # # ]: 0 : if (m->hdr.eth_proto) {
1068 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(ETH_TYPE, inner)];
1069 : 0 : fc->item_idx = item_idx;
1070 : 0 : fc->tag_set = &mlx5dr_definer_inner_type_set;
1071 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l3_ethertype, inner);
1072 : : }
1073 : :
1074 : : return 0;
1075 : : }
1076 : :
1077 : : static int
1078 : 0 : mlx5dr_definer_conv_item_ipv4(struct mlx5dr_definer_conv_data *cd,
1079 : : struct rte_flow_item *item,
1080 : : int item_idx)
1081 : : {
1082 : 0 : const struct rte_ipv4_hdr *m = item->mask;
1083 : 0 : const struct rte_ipv4_hdr *l = item->last;
1084 : : struct mlx5dr_definer_fc *fc;
1085 : 0 : bool inner = cd->tunnel;
1086 : :
1087 [ # # ]: 0 : if (!cd->relaxed) {
1088 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_VERSION, inner)];
1089 : 0 : fc->item_idx = item_idx;
1090 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_version_set;
1091 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1092 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l3_type, inner);
1093 : :
1094 : : /* Overwrite - Unset ethertype if present */
1095 [ # # ]: 0 : memset(&cd->fc[DR_CALC_FNAME(ETH_TYPE, inner)], 0, sizeof(*fc));
1096 : : }
1097 : :
1098 [ # # ]: 0 : if (!m)
1099 : : return 0;
1100 : :
1101 [ # # # # ]: 0 : if (m->hdr_checksum ||
1102 [ # # # # ]: 0 : (l && (l->next_proto_id || l->type_of_service))) {
1103 : 0 : rte_errno = ENOTSUP;
1104 : 0 : return rte_errno;
1105 : : }
1106 : :
1107 [ # # ]: 0 : if (m->version) {
1108 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_VERSION, inner)];
1109 : 0 : fc->item_idx = item_idx;
1110 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_version_set;
1111 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1112 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l3_type, inner);
1113 : : }
1114 : :
1115 [ # # ]: 0 : if (m->fragment_offset) {
1116 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_FRAG, inner)];
1117 : 0 : fc->item_idx = item_idx;
1118 [ # # # # ]: 0 : if (rte_be_to_cpu_16(m->fragment_offset) == 0x3fff) {
1119 : 0 : fc->tag_set = &mlx5dr_definer_ip_fragmented_set;
1120 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, ip_fragmented, inner);
1121 : : } else {
1122 [ # # # # ]: 0 : fc->is_range = l && l->fragment_offset;
1123 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_frag_set;
1124 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, ipv4_frag, inner);
1125 : : }
1126 : : }
1127 : :
1128 [ # # ]: 0 : if (m->next_proto_id) {
1129 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
1130 : 0 : fc->item_idx = item_idx;
1131 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_next_proto_set;
1132 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, protocol_next_header, inner);
1133 : : }
1134 : :
1135 [ # # ]: 0 : if (m->packet_id) {
1136 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_ID, inner)];
1137 : 0 : fc->item_idx = item_idx;
1138 [ # # # # ]: 0 : fc->is_range = l && l->packet_id;
1139 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_identification_set;
1140 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, identification, inner);
1141 : : }
1142 : :
1143 [ # # ]: 0 : if (m->total_length) {
1144 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_LEN, inner)];
1145 : 0 : fc->item_idx = item_idx;
1146 [ # # # # ]: 0 : fc->is_range = l && l->total_length;
1147 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_len_set;
1148 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, ipv4_total_length, inner);
1149 : : }
1150 : :
1151 [ # # ]: 0 : if (m->dst_addr) {
1152 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV4_DST, inner)];
1153 : 0 : fc->item_idx = item_idx;
1154 [ # # # # ]: 0 : fc->is_range = l && l->dst_addr;
1155 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_dst_addr_set;
1156 [ # # ]: 0 : DR_CALC_SET(fc, ipv4_src_dest, destination_address, inner);
1157 : : }
1158 : :
1159 [ # # ]: 0 : if (m->src_addr) {
1160 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV4_SRC, inner)];
1161 : 0 : fc->item_idx = item_idx;
1162 [ # # # # ]: 0 : fc->is_range = l && l->src_addr;
1163 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_src_addr_set;
1164 [ # # ]: 0 : DR_CALC_SET(fc, ipv4_src_dest, source_address, inner);
1165 : : }
1166 : :
1167 [ # # ]: 0 : if (m->ihl) {
1168 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV4_IHL, inner)];
1169 : 0 : fc->item_idx = item_idx;
1170 [ # # # # ]: 0 : fc->is_range = l && l->ihl;
1171 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_ihl_set;
1172 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, ihl, inner);
1173 : : }
1174 : :
1175 [ # # ]: 0 : if (m->time_to_live) {
1176 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_TTL, inner)];
1177 : 0 : fc->item_idx = item_idx;
1178 [ # # # # ]: 0 : fc->is_range = l && l->time_to_live;
1179 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_time_to_live_set;
1180 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, time_to_live_hop_limit, inner);
1181 : : }
1182 : :
1183 [ # # ]: 0 : if (m->type_of_service) {
1184 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_TOS, inner)];
1185 : 0 : fc->item_idx = item_idx;
1186 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_tos_set;
1187 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, tos, inner);
1188 : : }
1189 : :
1190 : : return 0;
1191 : : }
1192 : :
1193 : : static int
1194 : 0 : mlx5dr_definer_conv_item_ipv6(struct mlx5dr_definer_conv_data *cd,
1195 : : struct rte_flow_item *item,
1196 : : int item_idx)
1197 : : {
1198 : 0 : const struct rte_flow_item_ipv6 *m = item->mask;
1199 : 0 : const struct rte_flow_item_ipv6 *l = item->last;
1200 : : struct mlx5dr_definer_fc *fc;
1201 : 0 : bool inner = cd->tunnel;
1202 : :
1203 [ # # ]: 0 : if (!cd->relaxed) {
1204 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_VERSION, inner)];
1205 : 0 : fc->item_idx = item_idx;
1206 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_version_set;
1207 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1208 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l3_type, inner);
1209 : :
1210 : : /* Overwrite - Unset ethertype if present */
1211 [ # # ]: 0 : memset(&cd->fc[DR_CALC_FNAME(ETH_TYPE, inner)], 0, sizeof(*fc));
1212 : : }
1213 : :
1214 [ # # ]: 0 : if (!m)
1215 : : return 0;
1216 : :
1217 : 0 : if (m->has_hop_ext || m->has_route_ext || m->has_auth_ext ||
1218 : : m->has_esp_ext || m->has_dest_ext || m->has_mobil_ext ||
1219 [ # # # # ]: 0 : m->has_hip_ext || m->has_shim6_ext ||
1220 [ # # # # : 0 : (l && (l->has_frag_ext || l->hdr.vtc_flow || l->hdr.proto ||
# # # # ]
1221 [ # # ]: 0 : !is_mem_zero(l->hdr.src_addr.a, 16) ||
1222 : 0 : !is_mem_zero(l->hdr.dst_addr.a, 16)))) {
1223 : 0 : rte_errno = ENOTSUP;
1224 : 0 : return rte_errno;
1225 : : }
1226 : :
1227 [ # # ]: 0 : if (m->has_frag_ext) {
1228 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_FRAG, inner)];
1229 : 0 : fc->item_idx = item_idx;
1230 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_frag_set;
1231 [ # # ]: 0 : DR_CALC_SET(fc, eth_l4, ip_fragmented, inner);
1232 : : }
1233 : :
1234 [ # # # # ]: 0 : if (DR_GET(header_ipv6_vtc, &m->hdr.vtc_flow, version)) {
1235 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_VERSION, inner)];
1236 : 0 : fc->item_idx = item_idx;
1237 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_version_set;
1238 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1239 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l3_type, inner);
1240 : : }
1241 : :
1242 [ # # # # ]: 0 : if (DR_GET(header_ipv6_vtc, &m->hdr.vtc_flow, tos)) {
1243 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_TOS, inner)];
1244 : 0 : fc->item_idx = item_idx;
1245 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_tos_set;
1246 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, tos, inner);
1247 : : }
1248 : :
1249 [ # # # # ]: 0 : if (DR_GET(header_ipv6_vtc, &m->hdr.vtc_flow, flow_label)) {
1250 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV6_FLOW_LABEL, inner)];
1251 : 0 : fc->item_idx = item_idx;
1252 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_flow_label_set;
1253 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, flow_label, inner);
1254 : : }
1255 : :
1256 [ # # ]: 0 : if (m->hdr.payload_len) {
1257 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_LEN, inner)];
1258 : 0 : fc->item_idx = item_idx;
1259 [ # # # # ]: 0 : fc->is_range = l && l->hdr.payload_len;
1260 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_payload_len_set;
1261 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, ipv6_payload_length, inner);
1262 : : }
1263 : :
1264 [ # # ]: 0 : if (m->hdr.proto) {
1265 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
1266 : 0 : fc->item_idx = item_idx;
1267 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_proto_set;
1268 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, protocol_next_header, inner);
1269 : : }
1270 : :
1271 [ # # ]: 0 : if (m->hdr.hop_limits) {
1272 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_TTL, inner)];
1273 : 0 : fc->item_idx = item_idx;
1274 [ # # # # ]: 0 : fc->is_range = l && l->hdr.hop_limits;
1275 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_hop_limits_set;
1276 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, time_to_live_hop_limit, inner);
1277 : : }
1278 : :
1279 [ # # ]: 0 : if (!is_mem_zero(m->hdr.src_addr.a, 4)) {
1280 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV6_SRC_127_96, inner)];
1281 : 0 : fc->item_idx = item_idx;
1282 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_src_addr_127_96_set;
1283 [ # # ]: 0 : DR_CALC_SET(fc, ipv6_src, ipv6_address_127_96, inner);
1284 : : }
1285 : :
1286 [ # # ]: 0 : if (!is_mem_zero(m->hdr.src_addr.a + 4, 4)) {
1287 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV6_SRC_95_64, inner)];
1288 : 0 : fc->item_idx = item_idx;
1289 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_src_addr_95_64_set;
1290 [ # # ]: 0 : DR_CALC_SET(fc, ipv6_src, ipv6_address_95_64, inner);
1291 : : }
1292 : :
1293 [ # # ]: 0 : if (!is_mem_zero(m->hdr.src_addr.a + 8, 4)) {
1294 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV6_SRC_63_32, inner)];
1295 : 0 : fc->item_idx = item_idx;
1296 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_src_addr_63_32_set;
1297 [ # # ]: 0 : DR_CALC_SET(fc, ipv6_src, ipv6_address_63_32, inner);
1298 : : }
1299 : :
1300 [ # # ]: 0 : if (!is_mem_zero(m->hdr.src_addr.a + 12, 4)) {
1301 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV6_SRC_31_0, inner)];
1302 : 0 : fc->item_idx = item_idx;
1303 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_src_addr_31_0_set;
1304 [ # # ]: 0 : DR_CALC_SET(fc, ipv6_src, ipv6_address_31_0, inner);
1305 : : }
1306 : :
1307 [ # # ]: 0 : if (!is_mem_zero(m->hdr.dst_addr.a, 4)) {
1308 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV6_DST_127_96, inner)];
1309 : 0 : fc->item_idx = item_idx;
1310 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_dst_addr_127_96_set;
1311 [ # # ]: 0 : DR_CALC_SET(fc, ipv6_dst, ipv6_address_127_96, inner);
1312 : : }
1313 : :
1314 [ # # ]: 0 : if (!is_mem_zero(m->hdr.dst_addr.a + 4, 4)) {
1315 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV6_DST_95_64, inner)];
1316 : 0 : fc->item_idx = item_idx;
1317 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_dst_addr_95_64_set;
1318 [ # # ]: 0 : DR_CALC_SET(fc, ipv6_dst, ipv6_address_95_64, inner);
1319 : : }
1320 : :
1321 [ # # ]: 0 : if (!is_mem_zero(m->hdr.dst_addr.a + 8, 4)) {
1322 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV6_DST_63_32, inner)];
1323 : 0 : fc->item_idx = item_idx;
1324 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_dst_addr_63_32_set;
1325 [ # # ]: 0 : DR_CALC_SET(fc, ipv6_dst, ipv6_address_63_32, inner);
1326 : : }
1327 : :
1328 [ # # ]: 0 : if (!is_mem_zero(m->hdr.dst_addr.a + 12, 4)) {
1329 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IPV6_DST_31_0, inner)];
1330 : 0 : fc->item_idx = item_idx;
1331 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_dst_addr_31_0_set;
1332 [ # # ]: 0 : DR_CALC_SET(fc, ipv6_dst, ipv6_address_31_0, inner);
1333 : : }
1334 : :
1335 : : return 0;
1336 : : }
1337 : :
1338 : : static int
1339 : 0 : mlx5dr_definer_conv_item_udp(struct mlx5dr_definer_conv_data *cd,
1340 : : struct rte_flow_item *item,
1341 : : int item_idx)
1342 : : {
1343 : 0 : const struct rte_flow_item_udp *m = item->mask;
1344 : 0 : const struct rte_flow_item_udp *l = item->last;
1345 : : struct mlx5dr_definer_fc *fc;
1346 : 0 : bool inner = cd->tunnel;
1347 : :
1348 : : /* Set match on L4 type UDP */
1349 [ # # ]: 0 : if (!cd->relaxed) {
1350 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
1351 [ # # ]: 0 : if (!fc->not_overwrite) {
1352 : 0 : fc->item_idx = item_idx;
1353 : 0 : fc->tag_set = &mlx5dr_definer_udp_protocol_set;
1354 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1355 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l4_type_bwc, inner);
1356 : : }
1357 : : }
1358 : :
1359 [ # # ]: 0 : if (!m)
1360 : : return 0;
1361 : :
1362 [ # # # # ]: 0 : if (m->hdr.dgram_cksum || m->hdr.dgram_len) {
1363 : 0 : rte_errno = ENOTSUP;
1364 : 0 : return rte_errno;
1365 : : }
1366 : :
1367 [ # # ]: 0 : if (m->hdr.src_port) {
1368 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(L4_SPORT, inner)];
1369 : 0 : fc->item_idx = item_idx;
1370 [ # # # # ]: 0 : fc->is_range = l && l->hdr.src_port;
1371 : 0 : fc->tag_set = &mlx5dr_definer_udp_src_port_set;
1372 [ # # ]: 0 : DR_CALC_SET(fc, eth_l4, source_port, inner);
1373 : : }
1374 : :
1375 [ # # ]: 0 : if (m->hdr.dst_port) {
1376 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(L4_DPORT, inner)];
1377 : 0 : fc->item_idx = item_idx;
1378 [ # # # # ]: 0 : fc->is_range = l && l->hdr.dst_port;
1379 : 0 : fc->tag_set = &mlx5dr_definer_udp_dst_port_set;
1380 [ # # ]: 0 : DR_CALC_SET(fc, eth_l4, destination_port, inner);
1381 : : }
1382 : :
1383 : : return 0;
1384 : : }
1385 : :
1386 : : static int
1387 : 0 : mlx5dr_definer_conv_item_tcp(struct mlx5dr_definer_conv_data *cd,
1388 : : struct rte_flow_item *item,
1389 : : int item_idx)
1390 : : {
1391 : 0 : const struct rte_flow_item_tcp *m = item->mask;
1392 : 0 : const struct rte_flow_item_tcp *l = item->last;
1393 : : struct mlx5dr_definer_fc *fc;
1394 : 0 : bool inner = cd->tunnel;
1395 : :
1396 : : /* Overwrite match on L4 type TCP */
1397 [ # # ]: 0 : if (!cd->relaxed) {
1398 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
1399 [ # # ]: 0 : if (!fc->not_overwrite) {
1400 : 0 : fc->item_idx = item_idx;
1401 : 0 : fc->tag_set = &mlx5dr_definer_tcp_protocol_set;
1402 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1403 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l4_type_bwc, inner);
1404 : : }
1405 : : }
1406 : :
1407 [ # # ]: 0 : if (!m)
1408 : : return 0;
1409 : :
1410 [ # # # # : 0 : if (m->hdr.sent_seq || m->hdr.recv_ack || m->hdr.data_off ||
# # ]
1411 [ # # # # : 0 : m->hdr.rx_win || m->hdr.cksum || m->hdr.tcp_urp) {
# # ]
1412 : 0 : rte_errno = ENOTSUP;
1413 : 0 : return rte_errno;
1414 : : }
1415 : :
1416 [ # # ]: 0 : if (m->hdr.tcp_flags) {
1417 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(TCP_FLAGS, inner)];
1418 : 0 : fc->item_idx = item_idx;
1419 [ # # # # ]: 0 : fc->is_range = l && l->hdr.tcp_flags;
1420 : 0 : fc->tag_set = &mlx5dr_definer_tcp_flags_set;
1421 [ # # ]: 0 : DR_CALC_SET(fc, eth_l4, tcp_flags, inner);
1422 : : }
1423 : :
1424 [ # # ]: 0 : if (m->hdr.src_port) {
1425 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(L4_SPORT, inner)];
1426 : 0 : fc->item_idx = item_idx;
1427 [ # # # # ]: 0 : fc->is_range = l && l->hdr.src_port;
1428 : 0 : fc->tag_set = &mlx5dr_definer_tcp_src_port_set;
1429 [ # # ]: 0 : DR_CALC_SET(fc, eth_l4, source_port, inner);
1430 : : }
1431 : :
1432 [ # # ]: 0 : if (m->hdr.dst_port) {
1433 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(L4_DPORT, inner)];
1434 : 0 : fc->item_idx = item_idx;
1435 [ # # # # ]: 0 : fc->is_range = l && l->hdr.dst_port;
1436 : 0 : fc->tag_set = &mlx5dr_definer_tcp_dst_port_set;
1437 [ # # ]: 0 : DR_CALC_SET(fc, eth_l4, destination_port, inner);
1438 : : }
1439 : :
1440 : : return 0;
1441 : : }
1442 : :
1443 : : static int
1444 : 0 : mlx5dr_definer_conv_item_gtp(struct mlx5dr_definer_conv_data *cd,
1445 : : struct rte_flow_item *item,
1446 : : int item_idx)
1447 : : {
1448 : 0 : struct mlx5dr_cmd_query_caps *caps = cd->ctx->caps;
1449 : 0 : const struct rte_flow_item_gtp *m = item->mask;
1450 : : struct mlx5dr_definer_fc *fc;
1451 : :
1452 [ # # ]: 0 : if (cd->tunnel) {
1453 : 0 : DR_LOG(ERR, "Inner GTPU item not supported");
1454 : 0 : rte_errno = ENOTSUP;
1455 : 0 : return rte_errno;
1456 : : }
1457 : :
1458 : : /* Overwrite GTPU dest port if not present */
1459 : 0 : fc = &cd->fc[DR_CALC_FNAME(L4_DPORT, false)];
1460 [ # # # # ]: 0 : if (!fc->tag_set && !cd->relaxed) {
1461 : 0 : fc->item_idx = item_idx;
1462 : 0 : fc->tag_set = &mlx5dr_definer_gtp_udp_port_set;
1463 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1464 : 0 : DR_CALC_SET(fc, eth_l4, destination_port, false);
1465 : : }
1466 : :
1467 [ # # ]: 0 : if (!m)
1468 : : return 0;
1469 : :
1470 [ # # ]: 0 : if (m->msg_len) {
1471 : 0 : rte_errno = ENOTSUP;
1472 : 0 : return rte_errno;
1473 : : }
1474 : :
1475 [ # # ]: 0 : if (m->hdr.teid) {
1476 [ # # ]: 0 : if (!(caps->flex_protocols & MLX5_HCA_FLEX_GTPU_TEID_ENABLED)) {
1477 : 0 : rte_errno = ENOTSUP;
1478 : 0 : return rte_errno;
1479 : : }
1480 : : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GTP_TEID];
1481 : 0 : fc->item_idx = item_idx;
1482 : 0 : fc->tag_set = &mlx5dr_definer_gtp_teid_set;
1483 : 0 : fc->bit_mask = __mlx5_mask(header_gtp, teid);
1484 : 0 : fc->byte_off = caps->format_select_gtpu_dw_1 * DW_SIZE;
1485 : : }
1486 : :
1487 [ # # ]: 0 : if (m->hdr.gtp_hdr_info) {
1488 [ # # ]: 0 : if (!(caps->flex_protocols & MLX5_HCA_FLEX_GTPU_DW_0_ENABLED)) {
1489 : 0 : rte_errno = ENOTSUP;
1490 : 0 : return rte_errno;
1491 : : }
1492 : : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GTP_FLAGS];
1493 : 0 : fc->item_idx = item_idx;
1494 : 0 : fc->tag_set = &mlx5dr_definer_gtp_flags_set;
1495 : 0 : fc->bit_mask = __mlx5_mask(header_gtp, v_pt_rsv_flags);
1496 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_gtp, v_pt_rsv_flags);
1497 : 0 : fc->byte_off = caps->format_select_gtpu_dw_0 * DW_SIZE;
1498 : : }
1499 : :
1500 : :
1501 [ # # ]: 0 : if (m->hdr.msg_type) {
1502 [ # # ]: 0 : if (!(caps->flex_protocols & MLX5_HCA_FLEX_GTPU_DW_0_ENABLED)) {
1503 : 0 : rte_errno = ENOTSUP;
1504 : 0 : return rte_errno;
1505 : : }
1506 : : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GTP_MSG_TYPE];
1507 : 0 : fc->item_idx = item_idx;
1508 : 0 : fc->tag_set = &mlx5dr_definer_gtp_msg_type_set;
1509 : 0 : fc->bit_mask = __mlx5_mask(header_gtp, msg_type);
1510 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_gtp, msg_type);
1511 : 0 : fc->byte_off = caps->format_select_gtpu_dw_0 * DW_SIZE;
1512 : : }
1513 : :
1514 : : return 0;
1515 : : }
1516 : :
1517 : : static int
1518 : 0 : mlx5dr_definer_conv_item_gtp_psc(struct mlx5dr_definer_conv_data *cd,
1519 : : struct rte_flow_item *item,
1520 : : int item_idx)
1521 : : {
1522 : 0 : struct mlx5dr_cmd_query_caps *caps = cd->ctx->caps;
1523 : 0 : const struct rte_flow_item_gtp_psc *m = item->mask;
1524 : : struct mlx5dr_definer_fc *fc;
1525 : :
1526 : : /* Overwrite GTP extension flag to be 1 */
1527 [ # # ]: 0 : if (!cd->relaxed) {
1528 [ # # ]: 0 : if (!(caps->flex_protocols & MLX5_HCA_FLEX_GTPU_DW_0_ENABLED)) {
1529 : 0 : rte_errno = ENOTSUP;
1530 : 0 : return rte_errno;
1531 : : }
1532 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GTP_EXT_FLAG];
1533 : 0 : fc->item_idx = item_idx;
1534 : 0 : fc->tag_set = &mlx5dr_definer_ones_set;
1535 : 0 : fc->bit_mask = __mlx5_mask(header_gtp, ext_hdr_flag);
1536 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_gtp, ext_hdr_flag);
1537 : 0 : fc->byte_off = caps->format_select_gtpu_dw_0 * DW_SIZE;
1538 : : }
1539 : :
1540 : : /* Overwrite next extension header type */
1541 [ # # ]: 0 : if (!cd->relaxed) {
1542 [ # # ]: 0 : if (!(caps->flex_protocols & MLX5_HCA_FLEX_GTPU_DW_2_ENABLED)) {
1543 : 0 : rte_errno = ENOTSUP;
1544 : 0 : return rte_errno;
1545 : : }
1546 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GTP_NEXT_EXT_HDR];
1547 : 0 : fc->item_idx = item_idx;
1548 : 0 : fc->tag_set = &mlx5dr_definer_gtp_next_ext_hdr_set;
1549 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1550 : 0 : fc->bit_mask = __mlx5_mask(header_opt_gtp, next_ext_hdr_type);
1551 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_opt_gtp, next_ext_hdr_type);
1552 : 0 : fc->byte_off = caps->format_select_gtpu_dw_2 * DW_SIZE;
1553 : : }
1554 : :
1555 [ # # ]: 0 : if (!m)
1556 : : return 0;
1557 : :
1558 [ # # ]: 0 : if (m->hdr.type) {
1559 [ # # ]: 0 : if (!(caps->flex_protocols & MLX5_HCA_FLEX_GTPU_FIRST_EXT_DW_0_ENABLED)) {
1560 : 0 : rte_errno = ENOTSUP;
1561 : 0 : return rte_errno;
1562 : : }
1563 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GTP_EXT_HDR_PDU];
1564 : 0 : fc->item_idx = item_idx;
1565 : 0 : fc->tag_set = &mlx5dr_definer_gtp_ext_hdr_pdu_set;
1566 : 0 : fc->bit_mask = __mlx5_mask(header_gtp_psc, pdu_type);
1567 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_gtp_psc, pdu_type);
1568 : 0 : fc->byte_off = caps->format_select_gtpu_ext_dw_0 * DW_SIZE;
1569 : : }
1570 : :
1571 [ # # ]: 0 : if (m->hdr.qfi) {
1572 [ # # ]: 0 : if (!(caps->flex_protocols & MLX5_HCA_FLEX_GTPU_FIRST_EXT_DW_0_ENABLED)) {
1573 : 0 : rte_errno = ENOTSUP;
1574 : 0 : return rte_errno;
1575 : : }
1576 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GTP_EXT_HDR_QFI];
1577 : 0 : fc->item_idx = item_idx;
1578 : 0 : fc->tag_set = &mlx5dr_definer_gtp_ext_hdr_qfi_set;
1579 : 0 : fc->bit_mask = __mlx5_mask(header_gtp_psc, qfi);
1580 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_gtp_psc, qfi);
1581 : 0 : fc->byte_off = caps->format_select_gtpu_ext_dw_0 * DW_SIZE;
1582 : : }
1583 : :
1584 : : return 0;
1585 : : }
1586 : :
1587 : : static int
1588 : 0 : mlx5dr_definer_conv_item_port(struct mlx5dr_definer_conv_data *cd,
1589 : : struct rte_flow_item *item,
1590 : : int item_idx)
1591 : : {
1592 : 0 : struct mlx5dr_cmd_query_caps *caps = cd->ctx->caps;
1593 [ # # ]: 0 : uint16_t port_id = item->mask ?
1594 : : ((const struct rte_flow_item_ethdev *)(item->mask))->port_id : 0;
1595 : : struct mlx5dr_definer_fc *fc;
1596 : :
1597 [ # # ]: 0 : if (port_id) {
1598 [ # # ]: 0 : if (!caps->wire_regc_mask) {
1599 : 0 : DR_LOG(ERR, "Port ID item not supported, missing wire REGC mask");
1600 : 0 : rte_errno = ENOTSUP;
1601 : 0 : return rte_errno;
1602 : : }
1603 : :
1604 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_VPORT_REG_C_0];
1605 : 0 : fc->item_idx = item_idx;
1606 : 0 : fc->tag_set = &mlx5dr_definer_vport_set;
1607 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1608 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_0);
1609 : 0 : fc->bit_off = rte_ctz32(caps->wire_regc_mask);
1610 : 0 : fc->bit_mask = caps->wire_regc_mask >> fc->bit_off;
1611 : 0 : fc->dr_ctx = cd->ctx;
1612 : : }
1613 : :
1614 : : return 0;
1615 : : }
1616 : :
1617 : : static int
1618 : 0 : mlx5dr_definer_conv_item_vxlan(struct mlx5dr_definer_conv_data *cd,
1619 : : struct rte_flow_item *item,
1620 : : int item_idx)
1621 : : {
1622 : 0 : const struct rte_flow_item_vxlan *m = item->mask;
1623 : : struct mlx5dr_definer_fc *fc;
1624 : 0 : bool inner = cd->tunnel;
1625 : :
1626 [ # # ]: 0 : if (inner) {
1627 : 0 : DR_LOG(ERR, "Inner VXLAN item not supported");
1628 : 0 : rte_errno = ENOTSUP;
1629 : 0 : return rte_errno;
1630 : : }
1631 : :
1632 : : /* In order to match on VXLAN we must match on ip_protocol and l4_dport */
1633 [ # # ]: 0 : if (!cd->relaxed) {
1634 : 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
1635 [ # # ]: 0 : if (!fc->tag_set) {
1636 : 0 : fc->item_idx = item_idx;
1637 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1638 : 0 : fc->tag_set = &mlx5dr_definer_udp_protocol_set;
1639 : 0 : DR_CALC_SET(fc, eth_l2, l4_type_bwc, inner);
1640 : : }
1641 : :
1642 : 0 : fc = &cd->fc[DR_CALC_FNAME(L4_DPORT, inner)];
1643 [ # # ]: 0 : if (!fc->tag_set) {
1644 : 0 : fc->item_idx = item_idx;
1645 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1646 : 0 : fc->tag_set = &mlx5dr_definer_vxlan_udp_port_set;
1647 : 0 : DR_CALC_SET(fc, eth_l4, destination_port, inner);
1648 : : }
1649 : : }
1650 : :
1651 [ # # ]: 0 : if (!m)
1652 : : return 0;
1653 : :
1654 [ # # ]: 0 : if (m->hdr.vx_flags) {
1655 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_VXLAN_DW0];
1656 : 0 : fc->item_idx = item_idx;
1657 : 0 : fc->tag_set = &mlx5dr_definer_vxlan_vx_flags_set;
1658 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
1659 : : }
1660 : :
1661 [ # # ]: 0 : if (m->hdr.vx_vni) {
1662 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_VXLAN_DW1];
1663 : 0 : fc->item_idx = item_idx;
1664 : 0 : fc->tag_set = &mlx5dr_definer_vxlan_vx_vni_set;
1665 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_1);
1666 : : }
1667 : :
1668 : : return 0;
1669 : : }
1670 : :
1671 : : static int
1672 : 0 : mlx5dr_definer_conv_item_mpls(struct mlx5dr_definer_conv_data *cd,
1673 : : struct rte_flow_item *item,
1674 : : int item_idx)
1675 : : {
1676 : 0 : const struct rte_flow_item_mpls *m = item->mask;
1677 : : struct mlx5dr_definer_fc *fc;
1678 : : bool is_udp;
1679 : :
1680 : : /* If no protocol is set - assume MPLSoUDP */
1681 [ # # ]: 0 : if (!cd->relaxed) {
1682 : : /* In order to match on MPLS we must match on ip_protocol and l4_dport. */
1683 : 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, false)];
1684 [ # # ]: 0 : if (!fc->tag_set) {
1685 : 0 : fc->item_idx = item_idx;
1686 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1687 : 0 : fc->tag_set = &mlx5dr_definer_udp_protocol_set;
1688 : 0 : DR_CALC_SET(fc, eth_l2, l4_type_bwc, false);
1689 : : }
1690 : 0 : is_udp = (fc->tag_set == &mlx5dr_definer_udp_protocol_set);
1691 : :
1692 [ # # ]: 0 : if (is_udp) {
1693 : : /* Set UDP dest port to MPLS. */
1694 : : fc = &cd->fc[DR_CALC_FNAME(L4_DPORT, false)];
1695 [ # # ]: 0 : if (!fc->tag_set) {
1696 : 0 : fc->item_idx = item_idx;
1697 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1698 : 0 : fc->tag_set = &mlx5dr_definer_mpls_udp_port_set;
1699 : 0 : DR_CALC_SET(fc, eth_l4, destination_port, false);
1700 : : }
1701 : : }
1702 : : }
1703 : :
1704 [ # # # # : 0 : if (m && (!is_mem_zero(m->label_tc_s, 3) || m->ttl)) {
# # ]
1705 : : /* According to HW MPLSoUDP is handled as inner */
1706 : 0 : fc = mlx5dr_definer_get_mpls_fc(cd, true);
1707 [ # # ]: 0 : if (!fc)
1708 : 0 : return rte_errno;
1709 : :
1710 : 0 : fc->item_idx = item_idx;
1711 : 0 : fc->tag_set = &mlx5dr_definer_mpls_label_set;
1712 : : } else { /* Mask relevant oks2 bit, indicates MPLS label exists.
1713 : : * According to HW MPLSoUDP is handled as inner
1714 : : */
1715 : 0 : fc = mlx5dr_definer_get_mpls_oks_fc(cd, true);
1716 [ # # ]: 0 : if (!fc)
1717 : 0 : return rte_errno;
1718 : :
1719 : 0 : fc->item_idx = item_idx;
1720 : 0 : fc->tag_set = mlx5dr_definer_ones_set;
1721 : : }
1722 : :
1723 : : return 0;
1724 : : }
1725 : :
1726 : : static struct mlx5dr_definer_fc *
1727 : 0 : mlx5dr_definer_get_register_fc(struct mlx5dr_definer_conv_data *cd, int reg)
1728 : : {
1729 : : struct mlx5dr_definer_fc *fc;
1730 : :
1731 [ # # # # : 0 : switch (reg) {
# # # # #
# # # # #
# ]
1732 : 0 : case REG_C_0:
1733 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_0];
1734 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_0);
1735 : 0 : break;
1736 : 0 : case REG_C_1:
1737 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_1];
1738 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_1);
1739 : 0 : break;
1740 : 0 : case REG_C_2:
1741 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_2];
1742 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_2);
1743 : 0 : break;
1744 : 0 : case REG_C_3:
1745 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_3];
1746 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_3);
1747 : 0 : break;
1748 : 0 : case REG_C_4:
1749 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_4];
1750 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_4);
1751 : 0 : break;
1752 : 0 : case REG_C_5:
1753 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_5];
1754 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_5);
1755 : 0 : break;
1756 : 0 : case REG_C_6:
1757 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_6];
1758 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_6);
1759 : 0 : break;
1760 : 0 : case REG_C_7:
1761 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_7];
1762 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_7);
1763 : 0 : break;
1764 : 0 : case REG_C_8:
1765 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_8];
1766 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_8);
1767 : 0 : break;
1768 : 0 : case REG_C_9:
1769 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_9];
1770 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_9);
1771 : 0 : break;
1772 : 0 : case REG_C_10:
1773 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_10];
1774 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_10);
1775 : 0 : break;
1776 : 0 : case REG_C_11:
1777 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_11];
1778 : 0 : DR_CALC_SET_HDR(fc, registers, register_c_11);
1779 : 0 : break;
1780 : 0 : case REG_A:
1781 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_A];
1782 : 0 : DR_CALC_SET_HDR(fc, metadata, general_purpose);
1783 : 0 : break;
1784 : 0 : case REG_B:
1785 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_REG_B];
1786 : 0 : DR_CALC_SET_HDR(fc, metadata, metadata_to_cqe);
1787 : 0 : break;
1788 : 0 : default:
1789 : 0 : rte_errno = ENOTSUP;
1790 : 0 : return NULL;
1791 : : }
1792 : :
1793 : : return fc;
1794 : : }
1795 : :
1796 : : static int
1797 : 0 : mlx5dr_definer_conv_item_tag(struct mlx5dr_definer_conv_data *cd,
1798 : : struct rte_flow_item *item,
1799 : : int item_idx)
1800 : : {
1801 : 0 : const struct rte_flow_item_tag *m = item->mask;
1802 : 0 : const struct rte_flow_item_tag *v = item->spec;
1803 : 0 : const struct rte_flow_item_tag *l = item->last;
1804 : : struct mlx5dr_definer_fc *fc;
1805 : : int reg;
1806 : :
1807 [ # # ]: 0 : if (!m || !v)
1808 : : return 0;
1809 : :
1810 [ # # ]: 0 : if (item->type == RTE_FLOW_ITEM_TYPE_TAG)
1811 : 0 : reg = flow_hw_get_reg_id_from_ctx(cd->ctx,
1812 : : RTE_FLOW_ITEM_TYPE_TAG,
1813 : : cd->table_type,
1814 : 0 : v->index);
1815 : : else
1816 : 0 : reg = (int)v->index;
1817 : :
1818 [ # # ]: 0 : if (reg <= 0) {
1819 : 0 : DR_LOG(ERR, "Invalid register for item tag");
1820 : 0 : rte_errno = EINVAL;
1821 : 0 : return rte_errno;
1822 : : }
1823 : :
1824 : 0 : fc = mlx5dr_definer_get_register_fc(cd, reg);
1825 [ # # ]: 0 : if (!fc)
1826 : 0 : return rte_errno;
1827 : :
1828 : 0 : fc->item_idx = item_idx;
1829 [ # # # # ]: 0 : fc->is_range = l && l->index;
1830 : 0 : fc->tag_set = &mlx5dr_definer_tag_set;
1831 : :
1832 : 0 : return 0;
1833 : : }
1834 : :
1835 : : static void
1836 : 0 : mlx5dr_definer_quota_set(struct mlx5dr_definer_fc *fc,
1837 : : const void *item_data, uint8_t *tag)
1838 : : {
1839 : : /**
1840 : : * MLX5 PMD implements QUOTA with Meter object.
1841 : : * PMD Quota action translation implicitly increments
1842 : : * Meter register value after HW assigns it.
1843 : : * Meter register values are:
1844 : : * HW QUOTA(HW+1) QUOTA state
1845 : : * RED 0 1 (01b) BLOCK
1846 : : * YELLOW 1 2 (10b) PASS
1847 : : * GREEN 2 3 (11b) PASS
1848 : : *
1849 : : * Quota item checks Meter register bit 1 value to determine state:
1850 : : * SPEC MASK
1851 : : * PASS 2 (10b) 2 (10b)
1852 : : * BLOCK 0 (00b) 2 (10b)
1853 : : *
1854 : : * item_data is NULL when template quota item is non-masked:
1855 : : * .. / quota / ..
1856 : : */
1857 : :
1858 : : const struct rte_flow_item_quota *quota = item_data;
1859 : : uint32_t val;
1860 : :
1861 [ # # # # ]: 0 : if (quota && quota->state == RTE_FLOW_QUOTA_STATE_BLOCK)
1862 : : val = MLX5DR_DEFINER_QUOTA_BLOCK;
1863 : : else
1864 : : val = MLX5DR_DEFINER_QUOTA_PASS;
1865 : :
1866 [ # # # # : 0 : DR_SET(tag, val, fc->byte_off, fc->bit_off, fc->bit_mask);
# # # # ]
1867 : 0 : }
1868 : :
1869 : : static int
1870 : 0 : mlx5dr_definer_conv_item_quota(struct mlx5dr_definer_conv_data *cd,
1871 : : __rte_unused struct rte_flow_item *item,
1872 : : int item_idx)
1873 : : {
1874 : 0 : int mtr_reg = flow_hw_get_reg_id_from_ctx(cd->ctx,
1875 : : RTE_FLOW_ITEM_TYPE_METER_COLOR,
1876 : : cd->table_type, 0);
1877 : : struct mlx5dr_definer_fc *fc;
1878 : :
1879 [ # # ]: 0 : if (mtr_reg < 0) {
1880 : 0 : rte_errno = EINVAL;
1881 : 0 : return rte_errno;
1882 : : }
1883 : :
1884 : 0 : fc = mlx5dr_definer_get_register_fc(cd, mtr_reg);
1885 [ # # ]: 0 : if (!fc)
1886 : 0 : return rte_errno;
1887 : :
1888 : 0 : fc->tag_set = &mlx5dr_definer_quota_set;
1889 : 0 : fc->item_idx = item_idx;
1890 : 0 : return 0;
1891 : : }
1892 : :
1893 : : static int
1894 : 0 : mlx5dr_definer_conv_item_metadata(struct mlx5dr_definer_conv_data *cd,
1895 : : struct rte_flow_item *item,
1896 : : int item_idx)
1897 : : {
1898 : 0 : const struct rte_flow_item_meta *m = item->mask;
1899 : 0 : const struct rte_flow_item_meta *l = item->last;
1900 : : struct mlx5dr_definer_fc *fc;
1901 : : int reg;
1902 : :
1903 [ # # ]: 0 : if (!m)
1904 : : return 0;
1905 : :
1906 : 0 : reg = flow_hw_get_reg_id_from_ctx(cd->ctx, RTE_FLOW_ITEM_TYPE_META,
1907 : : cd->table_type, -1);
1908 : : if (reg <= 0) {
1909 : 0 : DR_LOG(ERR, "Invalid register for item metadata");
1910 : 0 : rte_errno = EINVAL;
1911 : 0 : return rte_errno;
1912 : : }
1913 : :
1914 : 0 : fc = mlx5dr_definer_get_register_fc(cd, reg);
1915 [ # # ]: 0 : if (!fc)
1916 : 0 : return rte_errno;
1917 : :
1918 : 0 : fc->item_idx = item_idx;
1919 [ # # # # ]: 0 : fc->is_range = l && l->data;
1920 : 0 : fc->tag_set = &mlx5dr_definer_metadata_set;
1921 : :
1922 : 0 : return 0;
1923 : : }
1924 : :
1925 : : static int
1926 : 0 : mlx5dr_definer_conv_item_tx_queue(struct mlx5dr_definer_conv_data *cd,
1927 : : struct rte_flow_item *item,
1928 : : int item_idx)
1929 : : {
1930 : 0 : const struct rte_flow_item_tx_queue *m = item->mask;
1931 : : struct mlx5dr_definer_fc *fc;
1932 : :
1933 [ # # ]: 0 : if (!m)
1934 : : return 0;
1935 : :
1936 [ # # ]: 0 : if (m->tx_queue) {
1937 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_SOURCE_QP];
1938 : 0 : fc->item_idx = item_idx;
1939 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1940 : 0 : fc->tag_set = &mlx5dr_definer_tx_queue_set;
1941 : : /* User extra_data to save DPDK port_id. */
1942 : 0 : fc->extra_data = flow_hw_get_port_id(cd->ctx);
1943 [ # # ]: 0 : if (fc->extra_data == UINT16_MAX) {
1944 : 0 : DR_LOG(ERR, "Invalid port for item tx_queue");
1945 : 0 : rte_errno = EINVAL;
1946 : 0 : return rte_errno;
1947 : : }
1948 : 0 : DR_CALC_SET_HDR(fc, source_qp_gvmi, source_qp);
1949 : : }
1950 : :
1951 : : return 0;
1952 : : }
1953 : :
1954 : : static int
1955 : : mlx5dr_definer_conv_item_sq(struct mlx5dr_definer_conv_data *cd,
1956 : : struct rte_flow_item *item,
1957 : : int item_idx)
1958 : : {
1959 : 0 : const struct mlx5_rte_flow_item_sq *m = item->mask;
1960 : : struct mlx5dr_definer_fc *fc;
1961 : :
1962 [ # # ]: 0 : if (!m)
1963 : : return 0;
1964 : :
1965 [ # # ]: 0 : if (m->queue) {
1966 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_SOURCE_QP];
1967 : 0 : fc->item_idx = item_idx;
1968 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1969 : 0 : fc->tag_set = &mlx5dr_definer_source_qp_set;
1970 : 0 : DR_CALC_SET_HDR(fc, source_qp_gvmi, source_qp);
1971 : : }
1972 : :
1973 : : return 0;
1974 : : }
1975 : :
1976 : : static int
1977 : 0 : mlx5dr_definer_conv_item_gre(struct mlx5dr_definer_conv_data *cd,
1978 : : struct rte_flow_item *item,
1979 : : int item_idx)
1980 : : {
1981 : 0 : const struct rte_flow_item_gre *m = item->mask;
1982 : : struct mlx5dr_definer_fc *fc;
1983 : 0 : bool inner = cd->tunnel;
1984 : :
1985 [ # # ]: 0 : if (inner) {
1986 : 0 : DR_LOG(ERR, "Inner GRE item not supported");
1987 : 0 : rte_errno = ENOTSUP;
1988 : 0 : return rte_errno;
1989 : : }
1990 : :
1991 [ # # ]: 0 : if (!cd->relaxed) {
1992 : 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
1993 : 0 : fc->item_idx = item_idx;
1994 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
1995 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_protocol_gre_set;
1996 : 0 : DR_CALC_SET(fc, eth_l3, protocol_next_header, inner);
1997 : : }
1998 : :
1999 [ # # ]: 0 : if (!m)
2000 : : return 0;
2001 : :
2002 [ # # ]: 0 : if (m->c_rsvd0_ver) {
2003 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GRE_C_VER];
2004 : 0 : fc->item_idx = item_idx;
2005 : 0 : fc->tag_set = &mlx5dr_definer_gre_c_ver_set;
2006 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
2007 : 0 : fc->bit_mask = __mlx5_mask(header_gre, c_rsvd0_ver);
2008 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_gre, c_rsvd0_ver);
2009 : : }
2010 : :
2011 [ # # ]: 0 : if (m->protocol) {
2012 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GRE_PROTOCOL];
2013 : 0 : fc->item_idx = item_idx;
2014 : 0 : fc->tag_set = &mlx5dr_definer_gre_protocol_type_set;
2015 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
2016 : 0 : fc->byte_off += MLX5_BYTE_OFF(header_gre, gre_protocol);
2017 : 0 : fc->bit_mask = __mlx5_mask(header_gre, gre_protocol);
2018 : : fc->bit_off = __mlx5_dw_bit_off(header_gre, gre_protocol);
2019 : : }
2020 : :
2021 : : return 0;
2022 : : }
2023 : :
2024 : : static int
2025 : 0 : mlx5dr_definer_conv_item_gre_opt(struct mlx5dr_definer_conv_data *cd,
2026 : : struct rte_flow_item *item,
2027 : : int item_idx)
2028 : : {
2029 : 0 : const struct rte_flow_item_gre_opt *m = item->mask;
2030 : : struct mlx5dr_definer_fc *fc;
2031 : :
2032 [ # # ]: 0 : if (!cd->relaxed) {
2033 : 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, false)];
2034 [ # # ]: 0 : if (!fc->tag_set) {
2035 : 0 : fc->item_idx = item_idx;
2036 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2037 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_protocol_gre_set;
2038 : 0 : DR_CALC_SET(fc, eth_l3, protocol_next_header, false);
2039 : : }
2040 : : }
2041 : :
2042 [ # # ]: 0 : if (!m)
2043 : : return 0;
2044 : :
2045 [ # # ]: 0 : if (m->checksum_rsvd.checksum) {
2046 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GRE_OPT_CHECKSUM];
2047 : 0 : fc->item_idx = item_idx;
2048 : 0 : fc->tag_set = &mlx5dr_definer_gre_opt_checksum_set;
2049 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_1);
2050 : : }
2051 : :
2052 [ # # ]: 0 : if (m->key.key) {
2053 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GRE_OPT_KEY];
2054 : 0 : fc->item_idx = item_idx;
2055 : 0 : fc->tag_set = &mlx5dr_definer_gre_opt_key_set;
2056 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_2);
2057 : : }
2058 : :
2059 [ # # ]: 0 : if (m->sequence.sequence) {
2060 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GRE_OPT_SEQ];
2061 : 0 : fc->item_idx = item_idx;
2062 : 0 : fc->tag_set = &mlx5dr_definer_gre_opt_seq_set;
2063 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_3);
2064 : : }
2065 : :
2066 : : return 0;
2067 : : }
2068 : :
2069 : : static int
2070 : 0 : mlx5dr_definer_conv_item_gre_key(struct mlx5dr_definer_conv_data *cd,
2071 : : struct rte_flow_item *item,
2072 : : int item_idx)
2073 : : {
2074 : 0 : const rte_be32_t *m = item->mask;
2075 : : struct mlx5dr_definer_fc *fc;
2076 : :
2077 [ # # ]: 0 : if (!cd->relaxed) {
2078 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GRE_KEY_PRESENT];
2079 : 0 : fc->item_idx = item_idx;
2080 : 0 : fc->tag_set = &mlx5dr_definer_ones_set;
2081 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
2082 : 0 : fc->bit_mask = __mlx5_mask(header_gre, gre_k_present);
2083 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_gre, gre_k_present);
2084 : :
2085 : : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, false)];
2086 [ # # ]: 0 : if (!fc->tag_set) {
2087 : 0 : fc->item_idx = item_idx;
2088 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2089 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_protocol_gre_set;
2090 : 0 : DR_CALC_SET(fc, eth_l3, protocol_next_header, false);
2091 : : }
2092 : : }
2093 : :
2094 [ # # ]: 0 : if (!m)
2095 : : return 0;
2096 : :
2097 [ # # ]: 0 : if (*m) {
2098 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GRE_OPT_KEY];
2099 : 0 : fc->item_idx = item_idx;
2100 : 0 : fc->tag_set = &mlx5dr_definer_gre_key_set;
2101 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_2);
2102 : : }
2103 : :
2104 : : return 0;
2105 : : }
2106 : :
2107 : : static int
2108 : 0 : mlx5dr_definer_conv_item_nvgre(struct mlx5dr_definer_conv_data *cd,
2109 : : struct rte_flow_item *item,
2110 : : int item_idx)
2111 : : {
2112 : 0 : const struct rte_flow_item_nvgre *m = item->mask;
2113 : : struct mlx5dr_definer_fc *fc;
2114 : 0 : bool inner = cd->tunnel;
2115 : :
2116 [ # # ]: 0 : if (inner) {
2117 : 0 : DR_LOG(ERR, "Inner gre item not supported");
2118 : 0 : rte_errno = ENOTSUP;
2119 : 0 : return rte_errno;
2120 : : }
2121 : :
2122 [ # # ]: 0 : if (!cd->relaxed) {
2123 : 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
2124 [ # # ]: 0 : if (!fc->tag_set) {
2125 : : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
2126 : 0 : fc->item_idx = item_idx;
2127 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2128 : 0 : fc->tag_set = &mlx5dr_definer_ipv4_protocol_gre_set;
2129 : 0 : DR_CALC_SET(fc, eth_l3, protocol_next_header, inner);
2130 : : }
2131 : :
2132 : : fc = &cd->fc[MLX5DR_DEFINER_FNAME_NVGRE_C_K_S];
2133 : 0 : fc->item_idx = item_idx;
2134 : 0 : fc->tag_set = &mlx5dr_definer_nvgre_def_c_rsvd0_ver_set;
2135 : 0 : fc->tag_mask_set = &mlx5dr_definer_nvgre_def_c_rsvd0_ver_mask_set;
2136 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
2137 : 0 : fc->bit_mask = __mlx5_mask(header_gre, c_rsvd0_ver);
2138 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_gre, c_rsvd0_ver);
2139 : :
2140 : : fc = &cd->fc[MLX5DR_DEFINER_FNAME_NVGRE_PROTOCOL];
2141 : 0 : fc->item_idx = item_idx;
2142 : 0 : fc->tag_set = &mlx5dr_definer_nvgre_def_protocol_set;
2143 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2144 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
2145 : 0 : fc->byte_off += MLX5_BYTE_OFF(header_gre, gre_protocol);
2146 : 0 : fc->bit_mask = __mlx5_mask(header_gre, gre_protocol);
2147 : : fc->bit_off = __mlx5_dw_bit_off(header_gre, gre_protocol);
2148 : : }
2149 : :
2150 [ # # ]: 0 : if (!m)
2151 : : return 0;
2152 : :
2153 [ # # ]: 0 : if (m->c_k_s_rsvd0_ver) {
2154 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_NVGRE_C_K_S];
2155 : 0 : fc->item_idx = item_idx;
2156 : 0 : fc->tag_set = &mlx5dr_definer_nvgre_c_rsvd0_ver_set;
2157 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
2158 : 0 : fc->bit_mask = __mlx5_mask(header_gre, c_rsvd0_ver);
2159 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_gre, c_rsvd0_ver);
2160 : : }
2161 : :
2162 [ # # ]: 0 : if (m->protocol) {
2163 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_NVGRE_PROTOCOL];
2164 : 0 : fc->item_idx = item_idx;
2165 : 0 : fc->tag_set = &mlx5dr_definer_nvgre_protocol_set;
2166 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
2167 : 0 : fc->byte_off += MLX5_BYTE_OFF(header_gre, gre_protocol);
2168 : 0 : fc->bit_mask = __mlx5_mask(header_gre, gre_protocol);
2169 : : fc->bit_off = __mlx5_dw_bit_off(header_gre, gre_protocol);
2170 : : }
2171 : :
2172 [ # # ]: 0 : if (!is_mem_zero(m->tni, 4)) {
2173 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_NVGRE_DW1];
2174 : 0 : fc->item_idx = item_idx;
2175 : 0 : fc->tag_set = &mlx5dr_definer_nvgre_dw1_set;
2176 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_2);
2177 : : }
2178 : : return 0;
2179 : : }
2180 : :
2181 : : static int
2182 : 0 : mlx5dr_definer_conv_item_ptype(struct mlx5dr_definer_conv_data *cd,
2183 : : struct rte_flow_item *item,
2184 : : int item_idx)
2185 : : {
2186 : 0 : const struct rte_flow_item_ptype *m = item->mask;
2187 : : struct mlx5dr_definer_fc *fc;
2188 : :
2189 [ # # ]: 0 : if (!m)
2190 : : return 0;
2191 : :
2192 [ # # ]: 0 : if (!(m->packet_type &
2193 : : (RTE_PTYPE_L2_MASK | RTE_PTYPE_L3_MASK | RTE_PTYPE_L4_MASK | RTE_PTYPE_TUNNEL_MASK |
2194 : : RTE_PTYPE_INNER_L2_MASK | RTE_PTYPE_INNER_L3_MASK | RTE_PTYPE_INNER_L4_MASK))) {
2195 : 0 : rte_errno = ENOTSUP;
2196 : 0 : return rte_errno;
2197 : : }
2198 : :
2199 [ # # ]: 0 : if (m->packet_type & RTE_PTYPE_L2_MASK) {
2200 : 0 : fc = &cd->fc[DR_CALC_FNAME(PTYPE_L2, false)];
2201 : 0 : fc->item_idx = item_idx;
2202 : 0 : fc->tag_set = &mlx5dr_definer_ptype_l2_set;
2203 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2204 : 0 : DR_CALC_SET(fc, eth_l2, first_vlan_qualifier, false);
2205 : : }
2206 : :
2207 [ # # ]: 0 : if (m->packet_type & RTE_PTYPE_INNER_L2_MASK) {
2208 : 0 : fc = &cd->fc[DR_CALC_FNAME(PTYPE_L2, true)];
2209 : 0 : fc->item_idx = item_idx;
2210 : 0 : fc->tag_set = &mlx5dr_definer_ptype_l2_set;
2211 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2212 : 0 : DR_CALC_SET(fc, eth_l2, first_vlan_qualifier, true);
2213 : : }
2214 : :
2215 [ # # ]: 0 : if (m->packet_type & RTE_PTYPE_L3_MASK) {
2216 : 0 : fc = &cd->fc[DR_CALC_FNAME(PTYPE_L3, false)];
2217 : 0 : fc->item_idx = item_idx;
2218 : 0 : fc->tag_set = &mlx5dr_definer_ptype_l3_set;
2219 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2220 : 0 : DR_CALC_SET(fc, eth_l2, l3_type, false);
2221 : : }
2222 : :
2223 [ # # ]: 0 : if (m->packet_type & RTE_PTYPE_INNER_L3_MASK) {
2224 : 0 : fc = &cd->fc[DR_CALC_FNAME(PTYPE_L3, true)];
2225 : 0 : fc->item_idx = item_idx;
2226 : 0 : fc->tag_set = &mlx5dr_definer_ptype_l3_set;
2227 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2228 : 0 : DR_CALC_SET(fc, eth_l2, l3_type, true);
2229 : : }
2230 : :
2231 [ # # ]: 0 : if (m->packet_type & RTE_PTYPE_L4_MASK) {
2232 : : /*
2233 : : * Fragmented IP (Internet Protocol) packet type.
2234 : : * Cannot be combined with Layer 4 Types (TCP/UDP).
2235 : : * The exact value must be specified in the mask.
2236 : : */
2237 [ # # ]: 0 : if ((m->packet_type & RTE_PTYPE_L4_MASK) == RTE_PTYPE_L4_FRAG) {
2238 : 0 : fc = &cd->fc[DR_CALC_FNAME(PTYPE_FRAG, false)];
2239 : 0 : fc->item_idx = item_idx;
2240 : 0 : fc->tag_set = &mlx5dr_definer_ptype_frag_set;
2241 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2242 : 0 : DR_CALC_SET(fc, eth_l2, ip_fragmented, false);
2243 : : } else {
2244 : 0 : fc = &cd->fc[DR_CALC_FNAME(PTYPE_L4, false)];
2245 : 0 : fc->item_idx = item_idx;
2246 : 0 : fc->tag_set = &mlx5dr_definer_ptype_l4_set;
2247 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2248 : 0 : DR_CALC_SET(fc, eth_l2, l4_type_bwc, false);
2249 : :
2250 : : fc = &cd->fc[DR_CALC_FNAME(PTYPE_L4_EXT, false)];
2251 : 0 : fc->item_idx = item_idx;
2252 : 0 : fc->tag_set = &mlx5dr_definer_ptype_l4_ext_set;
2253 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2254 : 0 : DR_CALC_SET(fc, eth_l2, l4_type, false);
2255 : : }
2256 : : }
2257 : :
2258 [ # # ]: 0 : if (m->packet_type & RTE_PTYPE_INNER_L4_MASK) {
2259 [ # # ]: 0 : if ((m->packet_type & RTE_PTYPE_INNER_L4_MASK) == RTE_PTYPE_INNER_L4_FRAG) {
2260 : 0 : fc = &cd->fc[DR_CALC_FNAME(PTYPE_FRAG, true)];
2261 : 0 : fc->item_idx = item_idx;
2262 : 0 : fc->tag_set = &mlx5dr_definer_ptype_frag_set;
2263 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2264 : 0 : DR_CALC_SET(fc, eth_l2, ip_fragmented, true);
2265 : : } else {
2266 : 0 : fc = &cd->fc[DR_CALC_FNAME(PTYPE_L4, true)];
2267 : 0 : fc->item_idx = item_idx;
2268 : 0 : fc->tag_set = &mlx5dr_definer_ptype_l4_set;
2269 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2270 : 0 : DR_CALC_SET(fc, eth_l2, l4_type_bwc, true);
2271 : :
2272 : : fc = &cd->fc[DR_CALC_FNAME(PTYPE_L4_EXT, true)];
2273 : 0 : fc->item_idx = item_idx;
2274 : 0 : fc->tag_set = &mlx5dr_definer_ptype_l4_ext_set;
2275 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2276 : 0 : DR_CALC_SET(fc, eth_l2, l4_type, true);
2277 : : }
2278 : : }
2279 : :
2280 [ # # ]: 0 : if (m->packet_type & RTE_PTYPE_TUNNEL_MASK) {
2281 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_PTYPE_TUNNEL];
2282 : 0 : fc->item_idx = item_idx;
2283 : 0 : fc->tag_set = &mlx5dr_definer_ptype_tunnel_set;
2284 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2285 : 0 : DR_CALC_SET(fc, eth_l2, l4_type_bwc, false);
2286 : : }
2287 : :
2288 : : return 0;
2289 : : }
2290 : :
2291 : : static int
2292 : 0 : mlx5dr_definer_conv_item_integrity(struct mlx5dr_definer_conv_data *cd,
2293 : : struct rte_flow_item *item,
2294 : : int item_idx)
2295 : : {
2296 : 0 : const struct rte_flow_item_integrity *m = item->mask;
2297 : : struct mlx5dr_definer_fc *fc;
2298 : :
2299 [ # # ]: 0 : if (!m)
2300 : : return 0;
2301 : :
2302 [ # # ]: 0 : if (m->packet_ok || m->l2_ok || m->l2_crc_ok || m->l3_len_ok) {
2303 : 0 : rte_errno = ENOTSUP;
2304 : 0 : return rte_errno;
2305 : : }
2306 : :
2307 [ # # ]: 0 : if (m->l3_ok || m->ipv4_csum_ok || m->l4_ok || m->l4_csum_ok) {
2308 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(INTEGRITY, m->level)];
2309 : 0 : fc->item_idx = item_idx;
2310 : 0 : fc->tag_set = &mlx5dr_definer_integrity_set;
2311 : 0 : DR_CALC_SET_HDR(fc, oks1, oks1_bits);
2312 : : }
2313 : :
2314 : : return 0;
2315 : : }
2316 : :
2317 : : static int
2318 : 0 : mlx5dr_definer_conv_item_conntrack(struct mlx5dr_definer_conv_data *cd,
2319 : : struct rte_flow_item *item,
2320 : : int item_idx)
2321 : : {
2322 : 0 : const struct rte_flow_item_conntrack *m = item->mask;
2323 : : struct mlx5dr_definer_fc *fc;
2324 : : int reg;
2325 : :
2326 [ # # ]: 0 : if (!m)
2327 : : return 0;
2328 : :
2329 : 0 : reg = flow_hw_get_reg_id_from_ctx(cd->ctx,
2330 : : RTE_FLOW_ITEM_TYPE_CONNTRACK,
2331 : : cd->table_type, -1);
2332 [ # # ]: 0 : if (reg <= 0) {
2333 : 0 : DR_LOG(ERR, "Invalid register for item conntrack");
2334 : 0 : rte_errno = EINVAL;
2335 : 0 : return rte_errno;
2336 : : }
2337 : :
2338 : 0 : fc = mlx5dr_definer_get_register_fc(cd, reg);
2339 [ # # ]: 0 : if (!fc)
2340 : 0 : return rte_errno;
2341 : :
2342 : 0 : fc->item_idx = item_idx;
2343 : 0 : fc->tag_mask_set = &mlx5dr_definer_conntrack_mask;
2344 : 0 : fc->tag_set = &mlx5dr_definer_conntrack_tag;
2345 : :
2346 : 0 : return 0;
2347 : : }
2348 : :
2349 : : static int
2350 : 0 : mlx5dr_definer_conv_item_icmp(struct mlx5dr_definer_conv_data *cd,
2351 : : struct rte_flow_item *item,
2352 : : int item_idx)
2353 : : {
2354 : 0 : const struct rte_flow_item_icmp *m = item->mask;
2355 : : struct mlx5dr_definer_fc *fc;
2356 : 0 : bool inner = cd->tunnel;
2357 : :
2358 : : /* Overwrite match on L4 type ICMP */
2359 [ # # ]: 0 : if (!cd->relaxed) {
2360 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
2361 : 0 : fc->item_idx = item_idx;
2362 : 0 : fc->tag_set = &mlx5dr_definer_icmp_protocol_set;
2363 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2364 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l4_type, inner);
2365 : : }
2366 : :
2367 [ # # ]: 0 : if (!m)
2368 : : return 0;
2369 : :
2370 [ # # # # : 0 : if (m->hdr.icmp_type || m->hdr.icmp_code || m->hdr.icmp_cksum) {
# # ]
2371 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_ICMP_DW1];
2372 : 0 : fc->item_idx = item_idx;
2373 : 0 : fc->tag_set = &mlx5dr_definer_icmp_dw1_set;
2374 : 0 : DR_CALC_SET_HDR(fc, tcp_icmp, icmp_dw1);
2375 : : }
2376 : :
2377 [ # # # # ]: 0 : if (m->hdr.icmp_ident || m->hdr.icmp_seq_nb) {
2378 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_ICMP_DW2];
2379 : 0 : fc->item_idx = item_idx;
2380 : 0 : fc->tag_set = &mlx5dr_definer_icmp_dw2_set;
2381 : 0 : DR_CALC_SET_HDR(fc, tcp_icmp, icmp_dw2);
2382 : : }
2383 : :
2384 : : return 0;
2385 : : }
2386 : :
2387 : : static int
2388 : 0 : mlx5dr_definer_conv_item_icmp6(struct mlx5dr_definer_conv_data *cd,
2389 : : struct rte_flow_item *item,
2390 : : int item_idx)
2391 : : {
2392 : 0 : const struct rte_flow_item_icmp6 *m = item->mask;
2393 : : struct mlx5dr_definer_fc *fc;
2394 : 0 : bool inner = cd->tunnel;
2395 : :
2396 : : /* Overwrite match on L4 type ICMP6 */
2397 [ # # ]: 0 : if (!cd->relaxed) {
2398 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
2399 : 0 : fc->item_idx = item_idx;
2400 : 0 : fc->tag_set = &mlx5dr_definer_icmp_protocol_set;
2401 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2402 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l4_type, inner);
2403 : : }
2404 : :
2405 [ # # ]: 0 : if (!m)
2406 : : return 0;
2407 : :
2408 [ # # # # ]: 0 : if (m->type || m->code || m->checksum) {
2409 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_ICMP_DW1];
2410 : 0 : fc->item_idx = item_idx;
2411 : 0 : fc->tag_set = &mlx5dr_definer_icmp6_dw1_set;
2412 : 0 : DR_CALC_SET_HDR(fc, tcp_icmp, icmp_dw1);
2413 : : }
2414 : :
2415 : : return 0;
2416 : : }
2417 : :
2418 : : static int
2419 : 0 : mlx5dr_definer_conv_item_icmp6_echo(struct mlx5dr_definer_conv_data *cd,
2420 : : struct rte_flow_item *item,
2421 : : int item_idx)
2422 : : {
2423 : 0 : const struct rte_flow_item_icmp6_echo *m = item->mask;
2424 : : struct mlx5dr_definer_fc *fc;
2425 : 0 : bool inner = cd->tunnel;
2426 : :
2427 [ # # ]: 0 : if (!cd->relaxed) {
2428 : : /* Overwrite match on L4 type ICMP6 */
2429 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
2430 : 0 : fc->item_idx = item_idx;
2431 : 0 : fc->tag_set = &mlx5dr_definer_icmp_protocol_set;
2432 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2433 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l4_type, inner);
2434 : :
2435 : : /* Set fixed type and code for icmp6 echo request/reply */
2436 : : fc = &cd->fc[MLX5DR_DEFINER_FNAME_ICMP_DW1];
2437 : 0 : fc->item_idx = item_idx;
2438 : 0 : fc->tag_mask_set = &mlx5dr_definer_icmp6_echo_dw1_mask_set;
2439 [ # # ]: 0 : if (item->type == RTE_FLOW_ITEM_TYPE_ICMP6_ECHO_REQUEST)
2440 : 0 : fc->tag_set = &mlx5dr_definer_icmp6_echo_request_dw1_set;
2441 : : else /* RTE_FLOW_ITEM_TYPE_ICMP6_ECHO_REPLY */
2442 : 0 : fc->tag_set = &mlx5dr_definer_icmp6_echo_reply_dw1_set;
2443 : 0 : DR_CALC_SET_HDR(fc, tcp_icmp, icmp_dw1);
2444 : : }
2445 : :
2446 [ # # ]: 0 : if (!m)
2447 : : return 0;
2448 : :
2449 : : /* Set identifier & sequence into icmp_dw2 */
2450 [ # # # # ]: 0 : if (m->hdr.identifier || m->hdr.sequence) {
2451 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_ICMP_DW2];
2452 : 0 : fc->item_idx = item_idx;
2453 : 0 : fc->tag_set = &mlx5dr_definer_icmp6_echo_dw2_set;
2454 : 0 : DR_CALC_SET_HDR(fc, tcp_icmp, icmp_dw2);
2455 : : }
2456 : :
2457 : : return 0;
2458 : : }
2459 : :
2460 : : static int
2461 : 0 : mlx5dr_definer_conv_item_meter_color(struct mlx5dr_definer_conv_data *cd,
2462 : : struct rte_flow_item *item,
2463 : : int item_idx)
2464 : : {
2465 : 0 : const struct rte_flow_item_meter_color *m = item->mask;
2466 : : struct mlx5dr_definer_fc *fc;
2467 : : int reg;
2468 : :
2469 [ # # ]: 0 : if (!m)
2470 : : return 0;
2471 : :
2472 : 0 : reg = flow_hw_get_reg_id_from_ctx(cd->ctx,
2473 : : RTE_FLOW_ITEM_TYPE_METER_COLOR,
2474 : : cd->table_type, 0);
2475 : : MLX5_ASSERT(reg > 0);
2476 : :
2477 : 0 : fc = mlx5dr_definer_get_register_fc(cd, reg);
2478 [ # # ]: 0 : if (!fc)
2479 : 0 : return rte_errno;
2480 : :
2481 : 0 : fc->item_idx = item_idx;
2482 : 0 : fc->tag_set = &mlx5dr_definer_meter_color_set;
2483 : 0 : return 0;
2484 : : }
2485 : :
2486 : : static struct mlx5dr_definer_fc *
2487 : 0 : mlx5dr_definer_get_flex_parser_fc(struct mlx5dr_definer_conv_data *cd,
2488 : : uint32_t byte_off,
2489 : : int item_idx)
2490 : : {
2491 : : uint32_t byte_off_fp7 = MLX5_BYTE_OFF(definer_hl, flex_parser.flex_parser_7);
2492 : : uint32_t byte_off_fp0 = MLX5_BYTE_OFF(definer_hl, flex_parser.flex_parser_0);
2493 : : enum mlx5dr_definer_fname fname = MLX5DR_DEFINER_FNAME_FLEX_PARSER_0;
2494 : : struct mlx5dr_definer_fc *fc;
2495 : : uint32_t idx;
2496 : :
2497 [ # # ]: 0 : if (byte_off < byte_off_fp7 || byte_off > byte_off_fp0) {
2498 : 0 : rte_errno = EINVAL;
2499 : 0 : return NULL;
2500 : : }
2501 : :
2502 : : /* To match on ESP we must match on ip_protocol and optionally on l4_dport */
2503 [ # # ]: 0 : if (!cd->relaxed) {
2504 : : bool over_udp;
2505 : :
2506 : 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, false)];
2507 : 0 : over_udp = fc->tag_set == &mlx5dr_definer_udp_protocol_set;
2508 : :
2509 [ # # ]: 0 : if (over_udp) {
2510 : : fc = &cd->fc[DR_CALC_FNAME(L4_DPORT, false)];
2511 [ # # ]: 0 : if (!fc->tag_set) {
2512 : 0 : fc->item_idx = item_idx;
2513 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2514 : 0 : fc->tag_set = &mlx5dr_definer_ipsec_udp_port_set;
2515 : 0 : DR_CALC_SET(fc, eth_l4, destination_port, false);
2516 : : }
2517 : : } else {
2518 : : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, false)];
2519 [ # # ]: 0 : if (!fc->tag_set) {
2520 : 0 : fc->item_idx = item_idx;
2521 : 0 : fc->tag_set = &mlx5dr_definer_ipsec_protocol_set;
2522 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2523 : 0 : DR_CALC_SET(fc, eth_l3, protocol_next_header, false);
2524 : : }
2525 : : }
2526 : : }
2527 : :
2528 : 0 : idx = (byte_off_fp0 - byte_off) / (sizeof(uint32_t));
2529 : 0 : fname += (enum mlx5dr_definer_fname)idx;
2530 : 0 : fc = &cd->fc[fname];
2531 : 0 : fc->byte_off = byte_off;
2532 : 0 : fc->bit_mask = UINT32_MAX;
2533 : 0 : return fc;
2534 : : }
2535 : :
2536 : : static int
2537 : 0 : mlx5dr_definer_conv_item_ipv6_routing_ext(struct mlx5dr_definer_conv_data *cd,
2538 : : struct rte_flow_item *item,
2539 : : int item_idx)
2540 : : {
2541 : 0 : const struct rte_flow_item_ipv6_routing_ext *m = item->mask;
2542 : : struct mlx5dr_definer_fc *fc;
2543 : 0 : bool inner = cd->tunnel;
2544 : : uint32_t byte_off;
2545 : :
2546 [ # # ]: 0 : if (!cd->relaxed) {
2547 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_VERSION, inner)];
2548 : 0 : fc->item_idx = item_idx;
2549 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_version_set;
2550 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2551 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l3_type, inner);
2552 : :
2553 : : /* Overwrite - Unset ethertype if present */
2554 [ # # # # ]: 0 : memset(&cd->fc[DR_CALC_FNAME(ETH_TYPE, inner)], 0, sizeof(*fc));
2555 : :
2556 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
2557 [ # # ]: 0 : if (!fc->tag_set) {
2558 : 0 : fc->item_idx = item_idx;
2559 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_routing_hdr_set;
2560 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2561 : 0 : fc->not_overwrite = 1;
2562 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, protocol_next_header, inner);
2563 : : }
2564 : : } else {
2565 : 0 : rte_errno = ENOTSUP;
2566 : 0 : return rte_errno;
2567 : : }
2568 : :
2569 [ # # ]: 0 : if (!m)
2570 : : return 0;
2571 : :
2572 [ # # # # ]: 0 : if (m->hdr.hdr_len || m->hdr.flags) {
2573 : 0 : rte_errno = ENOTSUP;
2574 : 0 : return rte_errno;
2575 : : }
2576 : :
2577 [ # # # # ]: 0 : if (m->hdr.next_hdr || m->hdr.type || m->hdr.segments_left) {
2578 : 0 : byte_off = flow_hw_get_srh_flex_parser_byte_off_from_ctx(cd->ctx);
2579 : 0 : fc = mlx5dr_definer_get_flex_parser_fc(cd, byte_off, item_idx);
2580 [ # # ]: 0 : if (!fc)
2581 : 0 : return rte_errno;
2582 : :
2583 : 0 : fc->item_idx = item_idx;
2584 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_routing_ext_set;
2585 : : }
2586 : : return 0;
2587 : : }
2588 : :
2589 : : static int
2590 : 0 : mlx5dr_definer_conv_item_ipv6_frag_ext(struct mlx5dr_definer_conv_data *cd,
2591 : : struct rte_flow_item *item,
2592 : : int item_idx)
2593 : : {
2594 : 0 : const struct rte_flow_item_ipv6_frag_ext *m = item->mask;
2595 : : struct mlx5dr_definer_fc *fc;
2596 : 0 : bool inner = cd->tunnel;
2597 : :
2598 [ # # ]: 0 : if (!cd->relaxed) {
2599 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_VERSION, inner)];
2600 : 0 : fc->item_idx = item_idx;
2601 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_version_set;
2602 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2603 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l3_type, inner);
2604 : :
2605 : : /* Overwrite - Unset ethertype if present */
2606 [ # # # # ]: 0 : memset(&cd->fc[DR_CALC_FNAME(ETH_TYPE, inner)], 0, sizeof(*fc));
2607 : :
2608 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_FRAG, inner)];
2609 [ # # ]: 0 : if (!fc->tag_set) {
2610 : 0 : fc->item_idx = item_idx;
2611 : 0 : fc->tag_set = &mlx5dr_definer_ones_set;
2612 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2613 [ # # ]: 0 : DR_CALC_SET(fc, eth_l4, ip_fragmented, inner);
2614 : : }
2615 : : }
2616 : :
2617 [ # # ]: 0 : if (!m)
2618 : : return 0;
2619 : :
2620 [ # # # # : 0 : if (m->hdr.frag_data || m->hdr.id || m->hdr.reserved) {
# # ]
2621 : 0 : rte_errno = ENOTSUP;
2622 : 0 : return rte_errno;
2623 : : }
2624 : :
2625 [ # # ]: 0 : if (m->hdr.next_header) {
2626 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
2627 : 0 : fc->item_idx = item_idx;
2628 : 0 : fc->tag_set = &mlx5dr_definer_ipv6_frag_proto_set;
2629 [ # # ]: 0 : DR_CALC_SET(fc, eth_l3, protocol_next_header, inner);
2630 : : }
2631 : : return 0;
2632 : : }
2633 : :
2634 : : static int
2635 : 0 : mlx5dr_definer_conv_item_random(struct mlx5dr_definer_conv_data *cd,
2636 : : struct rte_flow_item *item,
2637 : : int item_idx)
2638 : : {
2639 : 0 : const struct rte_flow_item_random *m = item->mask;
2640 : 0 : const struct rte_flow_item_random *l = item->last;
2641 : : struct mlx5dr_definer_fc *fc;
2642 : :
2643 [ # # ]: 0 : if (!m)
2644 : : return 0;
2645 : :
2646 [ # # ]: 0 : if (m->value != (m->value & UINT16_MAX)) {
2647 : 0 : DR_LOG(ERR, "Random value is 16 bits only");
2648 : 0 : rte_errno = EINVAL;
2649 : 0 : return rte_errno;
2650 : : }
2651 : :
2652 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_RANDOM_NUM];
2653 : 0 : fc->item_idx = item_idx;
2654 : 0 : fc->tag_set = &mlx5dr_definer_random_number_set;
2655 [ # # # # ]: 0 : fc->is_range = l && l->value;
2656 : 0 : DR_CALC_SET_HDR(fc, random_number, random_number);
2657 : :
2658 : 0 : return 0;
2659 : : }
2660 : :
2661 : : static uint32_t
2662 : 0 : mlx5dr_definer_get_ecpri_parser_byte_off_from_ctx(void *dr_ctx, uint32_t *byte_off)
2663 : : {
2664 : : uint32_t base_off = MLX5_BYTE_OFF(definer_hl, flex_parser.flex_parser_0);
2665 : : struct mlx5_ecpri_parser_profile *ecp;
2666 : : uint32_t i;
2667 : :
2668 : 0 : ecp = flow_hw_get_ecpri_parser_profile(dr_ctx);
2669 [ # # ]: 0 : if (!ecp)
2670 : : return UINT32_MAX;
2671 [ # # ]: 0 : for (i = 0; i < ecp->num; i++)
2672 : 0 : byte_off[i] = base_off - ecp->ids[i] * sizeof(uint32_t);
2673 : : return i;
2674 : : }
2675 : :
2676 : : static int
2677 : 0 : mlx5dr_definer_conv_item_ecpri(struct mlx5dr_definer_conv_data *cd,
2678 : : struct rte_flow_item *item,
2679 : : int item_idx)
2680 : : {
2681 : : const struct rte_flow_item_ecpri *m;
2682 : 0 : uint32_t i, mask, byte_off[8] = {0};
2683 : : struct mlx5dr_definer_fc *fc;
2684 : : uint32_t num_dws;
2685 : :
2686 : 0 : num_dws = mlx5dr_definer_get_ecpri_parser_byte_off_from_ctx(cd->ctx, byte_off);
2687 [ # # ]: 0 : if (num_dws == UINT32_MAX) {
2688 : 0 : DR_LOG(ERR, "failed to get eCPRI samples %d", -rte_errno);
2689 : 0 : return rte_errno;
2690 : : }
2691 : :
2692 : 0 : m = item->mask;
2693 [ # # ]: 0 : if (!m)
2694 : : return 0;
2695 : :
2696 [ # # ]: 0 : for (i = 0; i < num_dws; i++) {
2697 [ # # ]: 0 : mask = i == 0 ? m->hdr.common.u32 : m->hdr.dummy[i - 1];
2698 [ # # ]: 0 : if (!mask)
2699 : 0 : continue;
2700 : : mask = htobe32(mask);
2701 : 0 : fc = mlx5dr_definer_get_flex_parser_fc(cd, byte_off[i], item_idx);
2702 [ # # ]: 0 : if (!fc)
2703 : 0 : return rte_errno;
2704 : :
2705 : 0 : fc->item_idx = item_idx;
2706 [ # # ]: 0 : fc->tag_set = i == 0 ? &mlx5dr_definer_ecpri_common_set :
2707 : : &mlx5dr_definer_ecpri_body_set;
2708 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2709 : 0 : fc->bit_mask = mask;
2710 : : }
2711 : : return 0;
2712 : : }
2713 : :
2714 : : static int
2715 : 0 : mlx5dr_definer_conv_item_geneve(struct mlx5dr_definer_conv_data *cd,
2716 : : struct rte_flow_item *item,
2717 : : int item_idx)
2718 : : {
2719 : 0 : const struct rte_flow_item_geneve *m = item->mask;
2720 : : struct mlx5dr_definer_fc *fc;
2721 : 0 : bool inner = cd->tunnel;
2722 : :
2723 [ # # ]: 0 : if (inner) {
2724 : 0 : DR_LOG(ERR, "Inner GENEVE item not supported");
2725 : 0 : rte_errno = ENOTSUP;
2726 : 0 : return rte_errno;
2727 : : }
2728 : :
2729 : : /* In order to match on Geneve we must match on ip_protocol and l4_dport */
2730 [ # # ]: 0 : if (!cd->relaxed) {
2731 : 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
2732 [ # # ]: 0 : if (!fc->tag_set) {
2733 : 0 : fc->item_idx = item_idx;
2734 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2735 : 0 : fc->tag_set = &mlx5dr_definer_udp_protocol_set;
2736 : 0 : DR_CALC_SET(fc, eth_l2, l4_type_bwc, inner);
2737 : : }
2738 : :
2739 : 0 : fc = &cd->fc[DR_CALC_FNAME(L4_DPORT, inner)];
2740 [ # # ]: 0 : if (!fc->tag_set) {
2741 : 0 : fc->item_idx = item_idx;
2742 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2743 : 0 : fc->tag_set = &mlx5dr_definer_geneve_udp_port_set;
2744 : 0 : DR_CALC_SET(fc, eth_l4, destination_port, inner);
2745 : : }
2746 : : }
2747 : :
2748 [ # # ]: 0 : if (!m)
2749 : : return 0;
2750 : :
2751 [ # # ]: 0 : if (m->rsvd1) {
2752 : 0 : rte_errno = ENOTSUP;
2753 : 0 : return rte_errno;
2754 : : }
2755 : :
2756 [ # # ]: 0 : if (m->ver_opt_len_o_c_rsvd0) {
2757 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GENEVE_CTRL];
2758 : 0 : fc->item_idx = item_idx;
2759 : 0 : fc->tag_set = &mlx5dr_definer_geneve_ctrl_set;
2760 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
2761 : 0 : fc->bit_mask = __mlx5_mask(header_geneve, ver_opt_len_o_c_rsvd);
2762 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_geneve, ver_opt_len_o_c_rsvd);
2763 : : }
2764 : :
2765 [ # # ]: 0 : if (m->protocol) {
2766 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GENEVE_PROTO];
2767 : 0 : fc->item_idx = item_idx;
2768 : 0 : fc->tag_set = &mlx5dr_definer_geneve_protocol_set;
2769 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
2770 : 0 : fc->byte_off += MLX5_BYTE_OFF(header_geneve, protocol_type);
2771 : 0 : fc->bit_mask = __mlx5_mask(header_geneve, protocol_type);
2772 : : fc->bit_off = __mlx5_dw_bit_off(header_geneve, protocol_type);
2773 : : }
2774 : :
2775 [ # # ]: 0 : if (!is_mem_zero(m->vni, 3)) {
2776 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GENEVE_VNI];
2777 : 0 : fc->item_idx = item_idx;
2778 : 0 : fc->tag_set = &mlx5dr_definer_geneve_vni_set;
2779 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_1);
2780 : 0 : fc->bit_mask = __mlx5_mask(header_geneve, vni);
2781 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_geneve, vni);
2782 : : }
2783 : :
2784 : : return 0;
2785 : : }
2786 : :
2787 : : static int
2788 : 0 : mlx5dr_definer_conv_item_geneve_opt(struct mlx5dr_definer_conv_data *cd,
2789 : : struct rte_flow_item *item,
2790 : : int item_idx)
2791 : : {
2792 : 0 : const struct rte_flow_item_geneve_opt *m = item->mask;
2793 : 0 : const struct rte_flow_item_geneve_opt *v = item->spec;
2794 : : struct mlx5_hl_data *hl_ok_bit, *hl_dws;
2795 : : struct mlx5dr_definer_fc *fc;
2796 : : uint8_t num_of_dws, i;
2797 : : bool ok_bit_on_class;
2798 : : int ret;
2799 : :
2800 [ # # # # : 0 : if (!m || !(m->option_class || m->option_type || m->data))
# # ]
2801 : : return 0;
2802 : :
2803 [ # # # # ]: 0 : if (!v || m->option_type != 0xff) {
2804 : 0 : DR_LOG(ERR, "Cannot match geneve opt without valid opt type");
2805 : 0 : goto out_not_supp;
2806 : : }
2807 : :
2808 : 0 : ret = mlx5_get_geneve_hl_data(cd->ctx,
2809 : 0 : v->option_type,
2810 : 0 : v->option_class,
2811 : : &hl_ok_bit,
2812 : : &num_of_dws,
2813 : : &hl_dws,
2814 : : &ok_bit_on_class);
2815 [ # # ]: 0 : if (ret) {
2816 : 0 : DR_LOG(ERR, "Geneve opt type and class %d not supported", v->option_type);
2817 : 0 : goto out_not_supp;
2818 : : }
2819 : :
2820 [ # # # # ]: 0 : if (ok_bit_on_class && m->option_class != RTE_BE16(UINT16_MAX)) {
2821 : 0 : DR_LOG(ERR, "Geneve option class has invalid mask");
2822 : 0 : goto out_not_supp;
2823 : : }
2824 : :
2825 [ # # # # ]: 0 : if (!ok_bit_on_class && m->option_class) {
2826 : : /* DW0 is used, we will match type, class */
2827 [ # # # # ]: 0 : if (!num_of_dws || hl_dws[0].dw_mask != UINT32_MAX) {
2828 : 0 : DR_LOG(ERR, "Geneve opt type %d DW0 not supported", v->option_type);
2829 : 0 : goto out_not_supp;
2830 : : }
2831 : :
2832 [ # # ]: 0 : if (MLX5DR_DEFINER_FNAME_GENEVE_OPT_DW_0 + cd->geneve_opt_data_idx >
2833 : : MLX5DR_DEFINER_FNAME_GENEVE_OPT_DW_7) {
2834 : 0 : DR_LOG(ERR, "Max match geneve opt DWs reached");
2835 : 0 : goto out_not_supp;
2836 : : }
2837 : :
2838 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GENEVE_OPT_DW_0 + cd->geneve_opt_data_idx++];
2839 : 0 : fc->item_idx = item_idx;
2840 : 0 : fc->tag_set = &mlx5dr_definer_geneve_opt_ctrl_set;
2841 : 0 : fc->byte_off = hl_dws[0].dw_offset * DW_SIZE;
2842 : 0 : fc->bit_mask = UINT32_MAX;
2843 : : } else {
2844 : : /* DW0 is not used, we must verify geneve opt type exists in packet */
2845 [ # # ]: 0 : if (!hl_ok_bit->dw_mask) {
2846 : 0 : DR_LOG(ERR, "Geneve opt OK bits not supported");
2847 : 0 : goto out_not_supp;
2848 : : }
2849 : :
2850 [ # # ]: 0 : if (MLX5DR_DEFINER_FNAME_GENEVE_OPT_OK_0 + cd->geneve_opt_ok_idx >
2851 : : MLX5DR_DEFINER_FNAME_GENEVE_OPT_OK_7) {
2852 : 0 : DR_LOG(ERR, "Max match geneve opt reached");
2853 : 0 : goto out_not_supp;
2854 : : }
2855 : :
2856 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GENEVE_OPT_OK_0 + cd->geneve_opt_ok_idx++];
2857 : 0 : fc->item_idx = item_idx;
2858 : 0 : fc->tag_set = &mlx5dr_definer_ones_set;
2859 : 0 : fc->byte_off = hl_ok_bit->dw_offset * DW_SIZE +
2860 : 0 : rte_clz32(hl_ok_bit->dw_mask) / 8;
2861 : 0 : fc->bit_off = rte_ctz32(hl_ok_bit->dw_mask);
2862 : 0 : fc->bit_mask = 0x1;
2863 : : }
2864 : :
2865 [ # # ]: 0 : for (i = 1; i < num_of_dws; i++) {
2866 : : /* Process each valid geneve option data DW1..N */
2867 [ # # ]: 0 : if (!m->data[i - 1])
2868 : 0 : continue;
2869 : :
2870 [ # # ]: 0 : if (hl_dws[i].dw_mask != UINT32_MAX) {
2871 : 0 : DR_LOG(ERR, "Matching Geneve opt data[%d] not supported", i - 1);
2872 : 0 : goto out_not_supp;
2873 : : }
2874 : :
2875 [ # # ]: 0 : if (MLX5DR_DEFINER_FNAME_GENEVE_OPT_DW_0 + cd->geneve_opt_data_idx >
2876 : : MLX5DR_DEFINER_FNAME_GENEVE_OPT_DW_7) {
2877 : 0 : DR_LOG(ERR, "Max match geneve options DWs reached");
2878 : 0 : goto out_not_supp;
2879 : : }
2880 : :
2881 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_GENEVE_OPT_DW_0 + cd->geneve_opt_data_idx++];
2882 : 0 : fc->item_idx = item_idx;
2883 : 0 : fc->tag_set = &mlx5dr_definer_geneve_opt_data_set;
2884 : 0 : fc->byte_off = hl_dws[i].dw_offset * DW_SIZE;
2885 : 0 : fc->bit_mask = m->data[i - 1];
2886 : : /* Use extra_data for data[] set offset */
2887 : 0 : fc->extra_data = i - 1;
2888 : : }
2889 : :
2890 : : return 0;
2891 : :
2892 : 0 : out_not_supp:
2893 : 0 : rte_errno = ENOTSUP;
2894 : 0 : return rte_errno;
2895 : : }
2896 : :
2897 : : static int
2898 : 0 : mlx5dr_definer_mt_set_fc(struct mlx5dr_match_template *mt,
2899 : : struct mlx5dr_definer_fc *fc,
2900 : : uint8_t *hl)
2901 : : {
2902 : : uint32_t fc_sz = 0, fcr_sz = 0;
2903 : : int i;
2904 : :
2905 [ # # ]: 0 : for (i = 0; i < MLX5DR_DEFINER_FNAME_MAX; i++)
2906 [ # # ]: 0 : if (fc[i].tag_set)
2907 [ # # ]: 0 : fc[i].is_range ? fcr_sz++ : fc_sz++;
2908 : :
2909 : 0 : mt->fc = simple_calloc(fc_sz + fcr_sz, sizeof(*mt->fc));
2910 [ # # ]: 0 : if (!mt->fc) {
2911 : 0 : rte_errno = ENOMEM;
2912 : 0 : return rte_errno;
2913 : : }
2914 : :
2915 : 0 : mt->fcr = mt->fc + fc_sz;
2916 : :
2917 [ # # ]: 0 : for (i = 0; i < MLX5DR_DEFINER_FNAME_MAX; i++) {
2918 [ # # ]: 0 : if (!fc[i].tag_set)
2919 : 0 : continue;
2920 : :
2921 : 0 : fc[i].fname = i;
2922 : :
2923 [ # # ]: 0 : if (fc[i].is_range) {
2924 : 0 : memcpy(&mt->fcr[mt->fcr_sz++], &fc[i], sizeof(*mt->fcr));
2925 : : } else {
2926 [ # # ]: 0 : memcpy(&mt->fc[mt->fc_sz++], &fc[i], sizeof(*mt->fc));
2927 [ # # # # : 0 : DR_SET(hl, -1, fc[i].byte_off, fc[i].bit_off, fc[i].bit_mask);
# # # # ]
2928 : : }
2929 : : }
2930 : :
2931 : : return 0;
2932 : : }
2933 : :
2934 : : static int
2935 : 0 : mlx5dr_definer_check_item_range_supp(struct rte_flow_item *item)
2936 : : {
2937 [ # # ]: 0 : if (!item->last)
2938 : : return 0;
2939 : :
2940 [ # # ]: 0 : switch ((int)item->type) {
2941 : : case RTE_FLOW_ITEM_TYPE_IPV4:
2942 : : case RTE_FLOW_ITEM_TYPE_IPV6:
2943 : : case RTE_FLOW_ITEM_TYPE_UDP:
2944 : : case RTE_FLOW_ITEM_TYPE_TCP:
2945 : : case RTE_FLOW_ITEM_TYPE_TAG:
2946 : : case RTE_FLOW_ITEM_TYPE_META:
2947 : : case MLX5_RTE_FLOW_ITEM_TYPE_TAG:
2948 : : case RTE_FLOW_ITEM_TYPE_RANDOM:
2949 : : return 0;
2950 : 0 : default:
2951 : 0 : DR_LOG(ERR, "Range not supported over item type %d", item->type);
2952 : 0 : rte_errno = ENOTSUP;
2953 : 0 : return rte_errno;
2954 : : }
2955 : : }
2956 : :
2957 : : static int
2958 : 0 : mlx5dr_definer_conv_item_esp(struct mlx5dr_definer_conv_data *cd,
2959 : : struct rte_flow_item *item,
2960 : : int item_idx)
2961 : : {
2962 : 0 : const struct rte_flow_item_esp *m = item->mask;
2963 : : struct mlx5dr_definer_fc *fc;
2964 : :
2965 : : /* To match on ESP we must match on ip_protocol and optionally on l4_dport */
2966 [ # # ]: 0 : if (!cd->relaxed) {
2967 : : bool over_udp;
2968 : :
2969 : 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, false)];
2970 : 0 : over_udp = fc->tag_set == &mlx5dr_definer_udp_protocol_set;
2971 : :
2972 [ # # ]: 0 : if (over_udp) {
2973 : : fc = &cd->fc[DR_CALC_FNAME(L4_DPORT, false)];
2974 [ # # ]: 0 : if (!fc->tag_set) {
2975 : 0 : fc->item_idx = item_idx;
2976 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2977 : 0 : fc->tag_set = &mlx5dr_definer_ipsec_udp_port_set;
2978 : 0 : DR_CALC_SET(fc, eth_l4, destination_port, false);
2979 : : }
2980 : : } else {
2981 : : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, false)];
2982 [ # # ]: 0 : if (!fc->tag_set) {
2983 : 0 : fc->item_idx = item_idx;
2984 : 0 : fc->tag_set = &mlx5dr_definer_ipsec_protocol_set;
2985 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
2986 : 0 : DR_CALC_SET(fc, eth_l3, protocol_next_header, false);
2987 : : }
2988 : : }
2989 : : }
2990 : :
2991 [ # # ]: 0 : if (!m)
2992 : : return 0;
2993 [ # # ]: 0 : if (m->hdr.spi) {
2994 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_ESP_SPI];
2995 : 0 : fc->item_idx = item_idx;
2996 : 0 : fc->tag_set = &mlx5dr_definer_ipsec_spi_set;
2997 : 0 : DR_CALC_SET_HDR(fc, ipsec, spi);
2998 : : }
2999 [ # # ]: 0 : if (m->hdr.seq) {
3000 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_ESP_SEQUENCE_NUMBER];
3001 : 0 : fc->item_idx = item_idx;
3002 : 0 : fc->tag_set = &mlx5dr_definer_ipsec_sequence_number_set;
3003 : 0 : DR_CALC_SET_HDR(fc, ipsec, sequence_number);
3004 : : }
3005 : : return 0;
3006 : : }
3007 : :
3008 : : static void mlx5dr_definer_set_conv_tunnel(enum rte_flow_item_type cur_type,
3009 : : uint64_t item_flags,
3010 : : struct mlx5dr_definer_conv_data *cd)
3011 : : {
3012 : : /* Already tunnel nothing to change */
3013 [ # # ]: 0 : if (cd->tunnel)
3014 : : return;
3015 : :
3016 : : /* We can have more than one MPLS label at each level (inner/outer), so
3017 : : * consider tunnel only when it is already under tunnel or if we moved to the
3018 : : * second MPLS level.
3019 : : */
3020 [ # # ]: 0 : if (cur_type != RTE_FLOW_ITEM_TYPE_MPLS)
3021 : 0 : cd->tunnel = !!(item_flags & MLX5_FLOW_LAYER_TUNNEL);
3022 : : else
3023 : 0 : cd->tunnel = !!(item_flags & DR_FLOW_LAYER_TUNNEL_NO_MPLS);
3024 : : }
3025 : :
3026 : : static int
3027 : 0 : mlx5dr_definer_conv_item_flex_parser(struct mlx5dr_definer_conv_data *cd,
3028 : : struct rte_flow_item *item,
3029 : : int item_idx)
3030 : : {
3031 : : uint32_t base_off = MLX5_BYTE_OFF(definer_hl, flex_parser.flex_parser_0);
3032 : : const struct rte_flow_item_flex *v, *m;
3033 : : enum mlx5dr_definer_fname fname;
3034 : : struct mlx5dr_definer_fc *fc;
3035 : : uint32_t i, mask, byte_off;
3036 : 0 : bool is_inner = cd->tunnel;
3037 : : int ret;
3038 : :
3039 : 0 : m = item->mask;
3040 : 0 : v = item->spec;
3041 : 0 : mask = 0;
3042 [ # # ]: 0 : for (i = 0; i < MLX5_GRAPH_NODE_SAMPLE_NUM; i++) {
3043 : 0 : byte_off = base_off - i * sizeof(uint32_t);
3044 : 0 : ret = mlx5_flex_get_parser_value_per_byte_off(m, v->handle, byte_off,
3045 : : is_inner, &mask);
3046 [ # # ]: 0 : if (ret == -1) {
3047 : 0 : rte_errno = EINVAL;
3048 : 0 : return rte_errno;
3049 : : }
3050 : :
3051 [ # # ]: 0 : if (!mask)
3052 : 0 : continue;
3053 : :
3054 : : fname = MLX5DR_DEFINER_FNAME_FLEX_PARSER_0;
3055 : 0 : fname += (enum mlx5dr_definer_fname)i;
3056 : 0 : fc = &cd->fc[fname];
3057 : 0 : fc->byte_off = byte_off;
3058 : 0 : fc->item_idx = item_idx;
3059 [ # # ]: 0 : fc->tag_set = cd->tunnel ? &mlx5dr_definer_flex_parser_inner_set :
3060 : : &mlx5dr_definer_flex_parser_outer_set;
3061 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
3062 : 0 : fc->bit_mask = mask;
3063 : : }
3064 : : return 0;
3065 : : }
3066 : :
3067 : : static int
3068 : 0 : mlx5dr_definer_conv_item_ib_l4(struct mlx5dr_definer_conv_data *cd,
3069 : : struct rte_flow_item *item,
3070 : : int item_idx)
3071 : : {
3072 : 0 : const struct rte_flow_item_ib_bth *m = item->mask;
3073 : : struct mlx5dr_definer_fc *fc;
3074 : 0 : bool inner = cd->tunnel;
3075 : :
3076 : : /* In order to match on RoCEv2(layer4 ib), we must match
3077 : : * on ip_protocol and l4_dport.
3078 : : */
3079 [ # # ]: 0 : if (!cd->relaxed) {
3080 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
3081 [ # # ]: 0 : if (!fc->tag_set) {
3082 : 0 : fc->item_idx = item_idx;
3083 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
3084 : 0 : fc->tag_set = &mlx5dr_definer_udp_protocol_set;
3085 [ # # ]: 0 : DR_CALC_SET(fc, eth_l2, l4_type_bwc, inner);
3086 : : }
3087 : :
3088 [ # # ]: 0 : fc = &cd->fc[DR_CALC_FNAME(L4_DPORT, inner)];
3089 [ # # ]: 0 : if (!fc->tag_set) {
3090 : 0 : fc->item_idx = item_idx;
3091 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
3092 : 0 : fc->tag_set = &mlx5dr_definer_ib_l4_udp_port_set;
3093 [ # # ]: 0 : DR_CALC_SET(fc, eth_l4, destination_port, inner);
3094 : : }
3095 : : }
3096 : :
3097 [ # # ]: 0 : if (!m)
3098 : : return 0;
3099 : :
3100 [ # # ]: 0 : if (m->hdr.se || m->hdr.m || m->hdr.padcnt || m->hdr.tver ||
3101 [ # # # # : 0 : m->hdr.pkey || m->hdr.f || m->hdr.b || m->hdr.rsvd0 ||
# # ]
3102 [ # # ]: 0 : m->hdr.rsvd1 || !is_mem_zero(m->hdr.psn, 3)) {
3103 : 0 : rte_errno = ENOTSUP;
3104 : 0 : return rte_errno;
3105 : : }
3106 : :
3107 [ # # ]: 0 : if (m->hdr.opcode) {
3108 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_IB_L4_OPCODE];
3109 : 0 : fc->item_idx = item_idx;
3110 : 0 : fc->tag_set = &mlx5dr_definer_ib_l4_opcode_set;
3111 : 0 : DR_CALC_SET_HDR(fc, ib_l4, opcode);
3112 : : }
3113 : :
3114 [ # # ]: 0 : if (!is_mem_zero(m->hdr.dst_qp, 3)) {
3115 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_IB_L4_QPN];
3116 : 0 : fc->item_idx = item_idx;
3117 : 0 : fc->tag_set = &mlx5dr_definer_ib_l4_qp_set;
3118 : 0 : DR_CALC_SET_HDR(fc, ib_l4, qp);
3119 : : }
3120 : :
3121 [ # # ]: 0 : if (m->hdr.a) {
3122 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_IB_L4_A];
3123 : 0 : fc->item_idx = item_idx;
3124 : 0 : fc->tag_set = &mlx5dr_definer_ib_l4_bth_a_set;
3125 : 0 : DR_CALC_SET_HDR(fc, ib_l4, ackreq);
3126 : : }
3127 : :
3128 : : return 0;
3129 : : }
3130 : :
3131 : : static int
3132 : 0 : mlx5dr_definer_conv_item_vxlan_gpe(struct mlx5dr_definer_conv_data *cd,
3133 : : struct rte_flow_item *item,
3134 : : int item_idx)
3135 : : {
3136 : 0 : const struct rte_flow_item_vxlan_gpe *m = item->mask;
3137 : : struct mlx5dr_definer_fc *fc;
3138 : 0 : bool inner = cd->tunnel;
3139 : :
3140 [ # # ]: 0 : if (inner) {
3141 : 0 : DR_LOG(ERR, "Inner VXLAN GPE item not supported");
3142 : 0 : rte_errno = ENOTSUP;
3143 : 0 : return rte_errno;
3144 : : }
3145 : :
3146 : : /* In order to match on VXLAN GPE we must match on ip_protocol and l4_dport */
3147 [ # # ]: 0 : if (!cd->relaxed) {
3148 : 0 : fc = &cd->fc[DR_CALC_FNAME(IP_PROTOCOL, inner)];
3149 [ # # ]: 0 : if (!fc->tag_set) {
3150 : 0 : fc->item_idx = item_idx;
3151 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
3152 : 0 : fc->tag_set = &mlx5dr_definer_udp_protocol_set;
3153 : 0 : DR_CALC_SET(fc, eth_l2, l4_type_bwc, inner);
3154 : : }
3155 : :
3156 : 0 : fc = &cd->fc[DR_CALC_FNAME(L4_DPORT, inner)];
3157 [ # # ]: 0 : if (!fc->tag_set) {
3158 : 0 : fc->item_idx = item_idx;
3159 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
3160 : 0 : fc->tag_set = &mlx5dr_definer_vxlan_gpe_udp_port_set;
3161 : 0 : DR_CALC_SET(fc, eth_l4, destination_port, inner);
3162 : : }
3163 : : }
3164 : :
3165 [ # # ]: 0 : if (!m)
3166 : : return 0;
3167 : :
3168 [ # # ]: 0 : if (m->flags) {
3169 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_VXLAN_GPE_FLAGS];
3170 : 0 : fc->item_idx = item_idx;
3171 : 0 : fc->tag_set = &mlx5dr_definer_vxlan_gpe_flags_set;
3172 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
3173 : 0 : fc->bit_mask = __mlx5_mask(header_vxlan_gpe, flags);
3174 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_vxlan_gpe, flags);
3175 : : }
3176 : :
3177 [ # # ]: 0 : if (!is_mem_zero(m->rsvd0, 2)) {
3178 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_VXLAN_GPE_RSVD0];
3179 : 0 : fc->item_idx = item_idx;
3180 : 0 : fc->tag_set = &mlx5dr_definer_vxlan_gpe_rsvd0_set;
3181 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
3182 : 0 : fc->bit_mask = __mlx5_mask(header_vxlan_gpe, rsvd0);
3183 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_vxlan_gpe, rsvd0);
3184 : : }
3185 : :
3186 [ # # ]: 0 : if (m->protocol) {
3187 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_VXLAN_GPE_PROTO];
3188 : 0 : fc->item_idx = item_idx;
3189 : 0 : fc->tag_set = &mlx5dr_definer_vxlan_gpe_protocol_set;
3190 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_0);
3191 : 0 : fc->byte_off += MLX5_BYTE_OFF(header_vxlan_gpe, protocol);
3192 : 0 : fc->bit_mask = __mlx5_mask(header_vxlan_gpe, protocol);
3193 : : fc->bit_off = __mlx5_dw_bit_off(header_vxlan_gpe, protocol);
3194 : : }
3195 : :
3196 [ # # ]: 0 : if (!is_mem_zero(m->vni, 3)) {
3197 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_VXLAN_GPE_VNI];
3198 : 0 : fc->item_idx = item_idx;
3199 : 0 : fc->tag_set = &mlx5dr_definer_vxlan_gpe_vni_set;
3200 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_1);
3201 : 0 : fc->bit_mask = __mlx5_mask(header_vxlan_gpe, vni);
3202 : 0 : fc->bit_off = __mlx5_dw_bit_off(header_vxlan_gpe, vni);
3203 : : }
3204 : :
3205 [ # # ]: 0 : if (m->rsvd1) {
3206 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_VXLAN_GPE_RSVD1];
3207 : 0 : fc->item_idx = item_idx;
3208 : 0 : fc->tag_set = &mlx5dr_definer_vxlan_gpe_rsvd1_set;
3209 : 0 : DR_CALC_SET_HDR(fc, tunnel_header, tunnel_header_1);
3210 : 0 : fc->bit_mask = __mlx5_mask(header_vxlan_gpe, rsvd1);
3211 : : fc->bit_off = __mlx5_dw_bit_off(header_vxlan_gpe, rsvd1);
3212 : : }
3213 : :
3214 : : return 0;
3215 : : }
3216 : :
3217 : : static int
3218 : 0 : mlx5dr_definer_conv_item_compare_field(const struct rte_flow_field_data *f,
3219 : : const struct rte_flow_field_data *other_f,
3220 : : struct mlx5dr_definer_conv_data *cd,
3221 : : int item_idx,
3222 : : enum mlx5dr_definer_compare_dw_selectors dw_offset)
3223 : : {
3224 : : struct mlx5dr_definer_fc *fc = NULL;
3225 : : int reg;
3226 : :
3227 [ # # ]: 0 : if (f->offset) {
3228 : 0 : DR_LOG(ERR, "field offset %u is not supported, only offset zero supported",
3229 : : f->offset);
3230 : 0 : goto err_notsup;
3231 : : }
3232 : :
3233 [ # # # # : 0 : switch (f->field) {
# # ]
3234 : 0 : case RTE_FLOW_FIELD_META:
3235 : 0 : reg = flow_hw_get_reg_id_from_ctx(cd->ctx,
3236 : : RTE_FLOW_ITEM_TYPE_META,
3237 : : cd->table_type, -1);
3238 : : if (reg <= 0) {
3239 : 0 : DR_LOG(ERR, "Invalid register for compare metadata field");
3240 : 0 : rte_errno = EINVAL;
3241 : 0 : return rte_errno;
3242 : : }
3243 : :
3244 : 0 : fc = mlx5dr_definer_get_register_fc(cd, reg);
3245 [ # # ]: 0 : if (!fc)
3246 : 0 : return rte_errno;
3247 : :
3248 : 0 : fc->item_idx = item_idx;
3249 : 0 : fc->tag_set = &mlx5dr_definer_compare_set;
3250 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
3251 : 0 : fc->compare_idx = dw_offset;
3252 : 0 : break;
3253 : 0 : case RTE_FLOW_FIELD_TAG:
3254 : 0 : reg = flow_hw_get_reg_id_from_ctx(cd->ctx,
3255 : : RTE_FLOW_ITEM_TYPE_TAG,
3256 : : cd->table_type,
3257 : 0 : f->tag_index);
3258 [ # # ]: 0 : if (reg <= 0) {
3259 : 0 : DR_LOG(ERR, "Invalid register for compare tag field");
3260 : 0 : rte_errno = EINVAL;
3261 : 0 : return rte_errno;
3262 : : }
3263 : :
3264 : 0 : fc = mlx5dr_definer_get_register_fc(cd, reg);
3265 [ # # ]: 0 : if (!fc)
3266 : 0 : return rte_errno;
3267 : :
3268 : 0 : fc->item_idx = item_idx;
3269 : 0 : fc->tag_set = &mlx5dr_definer_compare_set;
3270 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
3271 : 0 : fc->compare_idx = dw_offset;
3272 : 0 : break;
3273 : 0 : case RTE_FLOW_FIELD_VALUE:
3274 [ # # ]: 0 : if (dw_offset == MLX5DR_DEFINER_COMPARE_ARGUMENT_0) {
3275 : 0 : DR_LOG(ERR, "Argument field does not support immediate value");
3276 : 0 : goto err_notsup;
3277 : : }
3278 : : break;
3279 : 0 : case RTE_FLOW_FIELD_RANDOM:
3280 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_RANDOM_NUM];
3281 : 0 : fc->item_idx = item_idx;
3282 : 0 : fc->tag_set = &mlx5dr_definer_compare_set;
3283 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
3284 : 0 : fc->compare_idx = dw_offset;
3285 : 0 : DR_CALC_SET_HDR(fc, random_number, random_number);
3286 : 0 : break;
3287 : 0 : case RTE_FLOW_FIELD_ESP_SEQ_NUM:
3288 : 0 : fc = &cd->fc[MLX5DR_DEFINER_FNAME_ESP_SEQUENCE_NUMBER];
3289 : 0 : fc->item_idx = item_idx;
3290 : 0 : fc->tag_set = &mlx5dr_definer_compare_set;
3291 : 0 : fc->tag_mask_set = &mlx5dr_definer_ones_set;
3292 : 0 : fc->compare_idx = dw_offset;
3293 : 0 : DR_CALC_SET_HDR(fc, ipsec, sequence_number);
3294 : 0 : break;
3295 : 0 : default:
3296 : 0 : DR_LOG(ERR, "%u field is not supported", f->field);
3297 : 0 : goto err_notsup;
3298 : : }
3299 : :
3300 [ # # # # ]: 0 : if (fc && other_f && other_f->field == RTE_FLOW_FIELD_VALUE)
3301 : 0 : fc->compare_set_base = true;
3302 : :
3303 : : return 0;
3304 : :
3305 : 0 : err_notsup:
3306 : 0 : rte_errno = ENOTSUP;
3307 : 0 : return rte_errno;
3308 : : }
3309 : :
3310 : : static int
3311 : 0 : mlx5dr_definer_conv_item_compare(struct mlx5dr_definer_conv_data *cd,
3312 : : struct rte_flow_item *item,
3313 : : int item_idx)
3314 : : {
3315 : 0 : const struct rte_flow_item_compare *m = item->mask;
3316 : 0 : const struct rte_flow_field_data *a = &m->a;
3317 : 0 : const struct rte_flow_field_data *b = &m->b;
3318 : : int ret;
3319 : :
3320 [ # # ]: 0 : if (m->width != 0xffffffff) {
3321 : 0 : DR_LOG(ERR, "compare item width of 0x%x is not supported, only full DW supported",
3322 : : m->width);
3323 : 0 : rte_errno = ENOTSUP;
3324 : 0 : return rte_errno;
3325 : : }
3326 : :
3327 : 0 : ret = mlx5dr_definer_conv_item_compare_field(a, b, cd, item_idx,
3328 : : MLX5DR_DEFINER_COMPARE_ARGUMENT_0);
3329 [ # # ]: 0 : if (ret)
3330 : : return ret;
3331 : :
3332 : 0 : ret = mlx5dr_definer_conv_item_compare_field(b, NULL, cd, item_idx,
3333 : : MLX5DR_DEFINER_COMPARE_BASE_0);
3334 [ # # ]: 0 : if (ret)
3335 : 0 : return ret;
3336 : :
3337 : : return 0;
3338 : : }
3339 : :
3340 : : static int
3341 : 0 : mlx5dr_definer_conv_items_to_hl(struct mlx5dr_context *ctx,
3342 : : struct mlx5dr_match_template *mt,
3343 : : uint8_t *hl,
3344 : : struct mlx5dr_matcher *matcher)
3345 : : {
3346 : 0 : struct mlx5dr_definer_fc fc[MLX5DR_DEFINER_FNAME_MAX] = {{0}};
3347 : 0 : struct mlx5dr_definer_conv_data cd = {0};
3348 : 0 : struct rte_flow_item *items = mt->items;
3349 : : uint64_t item_flags = 0;
3350 : : int i, ret;
3351 : :
3352 : 0 : cd.fc = fc;
3353 : 0 : cd.ctx = ctx;
3354 : 0 : cd.relaxed = mt->flags & MLX5DR_MATCH_TEMPLATE_FLAG_RELAXED_MATCH;
3355 : 0 : cd.table_type = matcher->tbl->type;
3356 : :
3357 : : /* Collect all RTE fields to the field array and set header layout */
3358 [ # # ]: 0 : for (i = 0; items->type != RTE_FLOW_ITEM_TYPE_END; i++, items++) {
3359 : : mlx5dr_definer_set_conv_tunnel(items->type, item_flags, &cd);
3360 : :
3361 : 0 : ret = mlx5dr_definer_check_item_range_supp(items);
3362 [ # # ]: 0 : if (ret)
3363 : 0 : return ret;
3364 : :
3365 [ # # ]: 0 : if (mlx5dr_matcher_is_compare(matcher)) {
3366 : 0 : DR_LOG(ERR, "Compare matcher not supported for more than one item");
3367 : 0 : goto not_supp;
3368 : : }
3369 : :
3370 [ # # # # : 0 : switch ((int)items->type) {
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # ]
3371 : 0 : case RTE_FLOW_ITEM_TYPE_ETH:
3372 : 0 : ret = mlx5dr_definer_conv_item_eth(&cd, items, i);
3373 [ # # ]: 0 : item_flags |= cd.tunnel ? MLX5_FLOW_LAYER_INNER_L2 :
3374 : : MLX5_FLOW_LAYER_OUTER_L2;
3375 : 0 : break;
3376 : 0 : case RTE_FLOW_ITEM_TYPE_VLAN:
3377 : 0 : ret = mlx5dr_definer_conv_item_vlan(&cd, items, i);
3378 : 0 : item_flags |= cd.tunnel ?
3379 [ # # ]: 0 : (MLX5_FLOW_LAYER_INNER_VLAN | MLX5_FLOW_LAYER_INNER_L2) :
3380 : : (MLX5_FLOW_LAYER_OUTER_VLAN | MLX5_FLOW_LAYER_OUTER_L2);
3381 : 0 : break;
3382 : 0 : case RTE_FLOW_ITEM_TYPE_IPV4:
3383 [ # # ]: 0 : if (cd.last_item == RTE_FLOW_ITEM_TYPE_IPV4 ||
3384 : : cd.last_item == RTE_FLOW_ITEM_TYPE_IPV6) {
3385 : 0 : cd.tunnel = true;
3386 : 0 : item_flags |= MLX5_FLOW_LAYER_IPIP;
3387 : : }
3388 : 0 : ret = mlx5dr_definer_conv_item_ipv4(&cd, items, i);
3389 [ # # ]: 0 : item_flags |= cd.tunnel ? MLX5_FLOW_LAYER_INNER_L3_IPV4 :
3390 : : MLX5_FLOW_LAYER_OUTER_L3_IPV4;
3391 : 0 : break;
3392 : 0 : case RTE_FLOW_ITEM_TYPE_IPV6:
3393 [ # # ]: 0 : if (cd.last_item == RTE_FLOW_ITEM_TYPE_IPV4 ||
3394 : : cd.last_item == RTE_FLOW_ITEM_TYPE_IPV6) {
3395 : 0 : cd.tunnel = true;
3396 : 0 : item_flags |= MLX5_FLOW_LAYER_IPIP;
3397 : : }
3398 : 0 : ret = mlx5dr_definer_conv_item_ipv6(&cd, items, i);
3399 [ # # ]: 0 : item_flags |= cd.tunnel ? MLX5_FLOW_LAYER_INNER_L3_IPV6 :
3400 : : MLX5_FLOW_LAYER_OUTER_L3_IPV6;
3401 : 0 : break;
3402 : 0 : case RTE_FLOW_ITEM_TYPE_IPV6_FRAG_EXT:
3403 : 0 : ret = mlx5dr_definer_conv_item_ipv6_frag_ext(&cd, items, i);
3404 [ # # ]: 0 : item_flags |= cd.tunnel ? MLX5_FLOW_LAYER_INNER_L3_IPV6_FRAG_EXT :
3405 : : MLX5_FLOW_LAYER_OUTER_L3_IPV6_FRAG_EXT;
3406 : 0 : break;
3407 : 0 : case RTE_FLOW_ITEM_TYPE_UDP:
3408 : 0 : ret = mlx5dr_definer_conv_item_udp(&cd, items, i);
3409 [ # # ]: 0 : item_flags |= cd.tunnel ? MLX5_FLOW_LAYER_INNER_L4_UDP :
3410 : : MLX5_FLOW_LAYER_OUTER_L4_UDP;
3411 : 0 : break;
3412 : 0 : case RTE_FLOW_ITEM_TYPE_TCP:
3413 : 0 : ret = mlx5dr_definer_conv_item_tcp(&cd, items, i);
3414 [ # # ]: 0 : item_flags |= cd.tunnel ? MLX5_FLOW_LAYER_INNER_L4_TCP :
3415 : : MLX5_FLOW_LAYER_OUTER_L4_TCP;
3416 : 0 : break;
3417 : 0 : case RTE_FLOW_ITEM_TYPE_GTP:
3418 : 0 : ret = mlx5dr_definer_conv_item_gtp(&cd, items, i);
3419 : 0 : item_flags |= MLX5_FLOW_LAYER_GTP;
3420 : 0 : break;
3421 : 0 : case RTE_FLOW_ITEM_TYPE_GTP_PSC:
3422 : 0 : ret = mlx5dr_definer_conv_item_gtp_psc(&cd, items, i);
3423 : 0 : item_flags |= MLX5_FLOW_LAYER_GTP_PSC;
3424 : 0 : break;
3425 : 0 : case RTE_FLOW_ITEM_TYPE_REPRESENTED_PORT:
3426 : 0 : ret = mlx5dr_definer_conv_item_port(&cd, items, i);
3427 : 0 : item_flags |= MLX5_FLOW_ITEM_REPRESENTED_PORT;
3428 : 0 : mt->vport_item_id = i;
3429 : 0 : break;
3430 : 0 : case RTE_FLOW_ITEM_TYPE_VXLAN:
3431 : 0 : ret = mlx5dr_definer_conv_item_vxlan(&cd, items, i);
3432 : 0 : item_flags |= MLX5_FLOW_LAYER_VXLAN;
3433 : 0 : break;
3434 : 0 : case RTE_FLOW_ITEM_TYPE_TX_QUEUE:
3435 : 0 : ret = mlx5dr_definer_conv_item_tx_queue(&cd, items, i);
3436 : 0 : item_flags |= MLX5_FLOW_ITEM_SQ;
3437 : 0 : break;
3438 : : case MLX5_RTE_FLOW_ITEM_TYPE_SQ:
3439 : : ret = mlx5dr_definer_conv_item_sq(&cd, items, i);
3440 : 0 : item_flags |= MLX5_FLOW_ITEM_SQ;
3441 : 0 : break;
3442 : 0 : case RTE_FLOW_ITEM_TYPE_TAG:
3443 : : case MLX5_RTE_FLOW_ITEM_TYPE_TAG:
3444 : 0 : ret = mlx5dr_definer_conv_item_tag(&cd, items, i);
3445 : 0 : item_flags |= MLX5_FLOW_ITEM_TAG;
3446 : 0 : break;
3447 : 0 : case RTE_FLOW_ITEM_TYPE_META:
3448 : 0 : ret = mlx5dr_definer_conv_item_metadata(&cd, items, i);
3449 : 0 : item_flags |= MLX5_FLOW_ITEM_METADATA;
3450 : 0 : break;
3451 : 0 : case RTE_FLOW_ITEM_TYPE_GRE:
3452 : 0 : ret = mlx5dr_definer_conv_item_gre(&cd, items, i);
3453 : 0 : item_flags |= MLX5_FLOW_LAYER_GRE;
3454 : 0 : break;
3455 : 0 : case RTE_FLOW_ITEM_TYPE_GRE_OPTION:
3456 : 0 : ret = mlx5dr_definer_conv_item_gre_opt(&cd, items, i);
3457 : 0 : item_flags |= MLX5_FLOW_LAYER_GRE;
3458 : 0 : break;
3459 : 0 : case RTE_FLOW_ITEM_TYPE_GRE_KEY:
3460 : 0 : ret = mlx5dr_definer_conv_item_gre_key(&cd, items, i);
3461 : 0 : item_flags |= MLX5_FLOW_LAYER_GRE_KEY;
3462 : 0 : break;
3463 : 0 : case RTE_FLOW_ITEM_TYPE_INTEGRITY:
3464 : 0 : ret = mlx5dr_definer_conv_item_integrity(&cd, items, i);
3465 : 0 : item_flags |= MLX5_FLOW_ITEM_INTEGRITY;
3466 : 0 : break;
3467 : 0 : case RTE_FLOW_ITEM_TYPE_CONNTRACK:
3468 : 0 : ret = mlx5dr_definer_conv_item_conntrack(&cd, items, i);
3469 : 0 : break;
3470 : 0 : case RTE_FLOW_ITEM_TYPE_ICMP:
3471 : 0 : ret = mlx5dr_definer_conv_item_icmp(&cd, items, i);
3472 : 0 : item_flags |= MLX5_FLOW_LAYER_ICMP;
3473 : 0 : break;
3474 : 0 : case RTE_FLOW_ITEM_TYPE_ICMP6:
3475 : 0 : ret = mlx5dr_definer_conv_item_icmp6(&cd, items, i);
3476 : 0 : item_flags |= MLX5_FLOW_LAYER_ICMP6;
3477 : 0 : break;
3478 : 0 : case RTE_FLOW_ITEM_TYPE_ICMP6_ECHO_REQUEST:
3479 : : case RTE_FLOW_ITEM_TYPE_ICMP6_ECHO_REPLY:
3480 : 0 : ret = mlx5dr_definer_conv_item_icmp6_echo(&cd, items, i);
3481 : 0 : item_flags |= MLX5_FLOW_LAYER_ICMP6;
3482 : 0 : break;
3483 : 0 : case RTE_FLOW_ITEM_TYPE_METER_COLOR:
3484 : 0 : ret = mlx5dr_definer_conv_item_meter_color(&cd, items, i);
3485 : 0 : item_flags |= MLX5_FLOW_ITEM_METER_COLOR;
3486 : 0 : break;
3487 : 0 : case RTE_FLOW_ITEM_TYPE_QUOTA:
3488 : 0 : ret = mlx5dr_definer_conv_item_quota(&cd, items, i);
3489 : 0 : item_flags |= MLX5_FLOW_ITEM_QUOTA;
3490 : 0 : break;
3491 : 0 : case RTE_FLOW_ITEM_TYPE_IPV6_ROUTING_EXT:
3492 : 0 : ret = mlx5dr_definer_conv_item_ipv6_routing_ext(&cd, items, i);
3493 [ # # ]: 0 : item_flags |= cd.tunnel ? MLX5_FLOW_ITEM_INNER_IPV6_ROUTING_EXT :
3494 : : MLX5_FLOW_ITEM_OUTER_IPV6_ROUTING_EXT;
3495 : 0 : break;
3496 : 0 : case RTE_FLOW_ITEM_TYPE_ESP:
3497 : 0 : ret = mlx5dr_definer_conv_item_esp(&cd, items, i);
3498 : 0 : item_flags |= MLX5_FLOW_ITEM_ESP;
3499 : 0 : break;
3500 : 0 : case RTE_FLOW_ITEM_TYPE_FLEX:
3501 : 0 : ret = mlx5dr_definer_conv_item_flex_parser(&cd, items, i);
3502 [ # # ]: 0 : if (ret == 0) {
3503 : 0 : enum rte_flow_item_flex_tunnel_mode tunnel_mode =
3504 : : FLEX_TUNNEL_MODE_SINGLE;
3505 : :
3506 : 0 : ret = mlx5_flex_get_tunnel_mode(items, &tunnel_mode);
3507 [ # # ]: 0 : if (tunnel_mode == FLEX_TUNNEL_MODE_TUNNEL)
3508 : 0 : item_flags |= MLX5_FLOW_ITEM_FLEX_TUNNEL;
3509 : : else
3510 [ # # ]: 0 : item_flags |= cd.tunnel ? MLX5_FLOW_ITEM_INNER_FLEX :
3511 : : MLX5_FLOW_ITEM_OUTER_FLEX;
3512 : : }
3513 : : break;
3514 : 0 : case RTE_FLOW_ITEM_TYPE_ECPRI:
3515 : 0 : ret = mlx5dr_definer_conv_item_ecpri(&cd, items, i);
3516 : 0 : item_flags |= MLX5_FLOW_LAYER_ECPRI;
3517 : 0 : break;
3518 : 0 : case RTE_FLOW_ITEM_TYPE_MPLS:
3519 : 0 : ret = mlx5dr_definer_conv_item_mpls(&cd, items, i);
3520 : 0 : item_flags |= MLX5_FLOW_LAYER_MPLS;
3521 : 0 : cd.mpls_idx++;
3522 : 0 : break;
3523 : 0 : case RTE_FLOW_ITEM_TYPE_GENEVE:
3524 : 0 : ret = mlx5dr_definer_conv_item_geneve(&cd, items, i);
3525 : 0 : item_flags |= MLX5_FLOW_LAYER_GENEVE;
3526 : 0 : break;
3527 : 0 : case RTE_FLOW_ITEM_TYPE_GENEVE_OPT:
3528 : 0 : ret = mlx5dr_definer_conv_item_geneve_opt(&cd, items, i);
3529 : 0 : item_flags |= MLX5_FLOW_LAYER_GENEVE_OPT;
3530 : 0 : break;
3531 : 0 : case RTE_FLOW_ITEM_TYPE_IB_BTH:
3532 : 0 : ret = mlx5dr_definer_conv_item_ib_l4(&cd, items, i);
3533 : 0 : item_flags |= MLX5_FLOW_ITEM_IB_BTH;
3534 : 0 : break;
3535 : 0 : case RTE_FLOW_ITEM_TYPE_PTYPE:
3536 : 0 : ret = mlx5dr_definer_conv_item_ptype(&cd, items, i);
3537 : 0 : item_flags |= MLX5_FLOW_ITEM_PTYPE;
3538 : 0 : break;
3539 : 0 : case RTE_FLOW_ITEM_TYPE_RANDOM:
3540 : 0 : ret = mlx5dr_definer_conv_item_random(&cd, items, i);
3541 : 0 : item_flags |= MLX5_FLOW_ITEM_RANDOM;
3542 : 0 : break;
3543 : 0 : case RTE_FLOW_ITEM_TYPE_VXLAN_GPE:
3544 : 0 : ret = mlx5dr_definer_conv_item_vxlan_gpe(&cd, items, i);
3545 : 0 : item_flags |= MLX5_FLOW_LAYER_VXLAN_GPE;
3546 : 0 : break;
3547 : 0 : case RTE_FLOW_ITEM_TYPE_COMPARE:
3548 [ # # ]: 0 : if (i) {
3549 : 0 : DR_LOG(ERR, "Compare matcher not supported for more than one item");
3550 : 0 : goto not_supp;
3551 : : }
3552 : 0 : ret = mlx5dr_definer_conv_item_compare(&cd, items, i);
3553 : 0 : item_flags |= MLX5_FLOW_ITEM_COMPARE;
3554 : 0 : matcher->flags |= MLX5DR_MATCHER_FLAGS_COMPARE;
3555 : 0 : break;
3556 : 0 : case RTE_FLOW_ITEM_TYPE_NSH:
3557 : 0 : item_flags |= MLX5_FLOW_ITEM_NSH;
3558 : 0 : break;
3559 : : case RTE_FLOW_ITEM_TYPE_VOID:
3560 : : break;
3561 : 0 : case RTE_FLOW_ITEM_TYPE_NVGRE:
3562 : 0 : ret = mlx5dr_definer_conv_item_nvgre(&cd, items, i);
3563 : 0 : item_flags |= MLX5_FLOW_LAYER_NVGRE;
3564 : 0 : break;
3565 : 0 : default:
3566 : 0 : DR_LOG(ERR, "Unsupported item type %d", items->type);
3567 : 0 : goto not_supp;
3568 : : }
3569 : :
3570 : 0 : cd.last_item = items->type;
3571 : :
3572 [ # # ]: 0 : if (ret) {
3573 : 0 : DR_LOG(ERR, "Failed processing item type: %d", items->type);
3574 : 0 : return ret;
3575 : : }
3576 : : }
3577 : :
3578 : 0 : mt->item_flags = item_flags;
3579 : :
3580 : : /* Fill in headers layout and allocate fc & fcr array on mt */
3581 : 0 : ret = mlx5dr_definer_mt_set_fc(mt, fc, hl);
3582 [ # # ]: 0 : if (ret) {
3583 : 0 : DR_LOG(ERR, "Failed to set field copy to match template");
3584 : 0 : return ret;
3585 : : }
3586 : :
3587 : : return 0;
3588 : :
3589 : 0 : not_supp:
3590 : 0 : rte_errno = ENOTSUP;
3591 : 0 : return rte_errno;
3592 : : }
3593 : :
3594 : : static int
3595 [ # # ]: 0 : mlx5dr_definer_find_byte_in_tag(struct mlx5dr_definer *definer,
3596 : : uint32_t hl_byte_off,
3597 : : uint32_t *tag_byte_off)
3598 : : {
3599 : : uint8_t byte_offset;
3600 : : int i, dw_to_scan;
3601 : :
3602 : : /* Avoid accessing unused DW selectors */
3603 : : dw_to_scan = mlx5dr_definer_is_jumbo(definer) ?
3604 [ # # ]: 0 : DW_SELECTORS : DW_SELECTORS_MATCH;
3605 : :
3606 : : /* Add offset since each DW covers multiple BYTEs */
3607 : 0 : byte_offset = hl_byte_off % DW_SIZE;
3608 [ # # ]: 0 : for (i = 0; i < dw_to_scan; i++) {
3609 [ # # ]: 0 : if (definer->dw_selector[i] == hl_byte_off / DW_SIZE) {
3610 : 0 : *tag_byte_off = byte_offset + DW_SIZE * (DW_SELECTORS - i - 1);
3611 : 0 : return 0;
3612 : : }
3613 : : }
3614 : :
3615 : : /* Add offset to skip DWs in definer */
3616 : : byte_offset = DW_SIZE * DW_SELECTORS;
3617 : : /* Iterate in reverse since the code uses bytes from 7 -> 0 */
3618 [ # # ]: 0 : for (i = BYTE_SELECTORS; i-- > 0 ;) {
3619 [ # # ]: 0 : if (definer->byte_selector[i] == hl_byte_off) {
3620 : 0 : *tag_byte_off = byte_offset + (BYTE_SELECTORS - i - 1);
3621 : 0 : return 0;
3622 : : }
3623 : : }
3624 : :
3625 : : /* The hl byte offset must be part of the definer */
3626 : 0 : DR_LOG(INFO, "Failed to map to definer, HL byte [%d] not found", byte_offset);
3627 : 0 : rte_errno = EINVAL;
3628 : 0 : return rte_errno;
3629 : : }
3630 : :
3631 : : static int
3632 : 0 : mlx5dr_definer_fc_bind(struct mlx5dr_definer *definer,
3633 : : struct mlx5dr_definer_fc *fc,
3634 : : uint32_t fc_sz)
3635 : : {
3636 : 0 : uint32_t tag_offset = 0;
3637 : : int ret, byte_diff;
3638 : : uint32_t i;
3639 : :
3640 [ # # ]: 0 : for (i = 0; i < fc_sz; i++) {
3641 : : /* Map header layout byte offset to byte offset in tag */
3642 : 0 : ret = mlx5dr_definer_find_byte_in_tag(definer, fc->byte_off, &tag_offset);
3643 [ # # ]: 0 : if (ret)
3644 : 0 : return ret;
3645 : :
3646 : : /* Move setter based on the location in the definer */
3647 : 0 : byte_diff = fc->byte_off % DW_SIZE - tag_offset % DW_SIZE;
3648 : 0 : fc->bit_off = fc->bit_off + byte_diff * BITS_IN_BYTE;
3649 : :
3650 : : /* Update offset in headers layout to offset in tag */
3651 : 0 : fc->byte_off = tag_offset;
3652 : 0 : fc++;
3653 : : }
3654 : :
3655 : : return 0;
3656 : : }
3657 : :
3658 : : static bool
3659 : 0 : mlx5dr_definer_best_hl_fit_recu(struct mlx5dr_definer_sel_ctrl *ctrl,
3660 : : uint32_t cur_dw,
3661 : : uint32_t *data)
3662 : : {
3663 : : uint8_t bytes_set;
3664 : : int byte_idx;
3665 : : bool ret;
3666 : : int i;
3667 : :
3668 : : /* Reached end, nothing left to do */
3669 [ # # ]: 0 : if (cur_dw == MLX5_ST_SZ_DW(definer_hl))
3670 : : return true;
3671 : :
3672 : : /* No data set, can skip to next DW */
3673 [ # # ]: 0 : while (!*data) {
3674 : 0 : cur_dw++;
3675 : 0 : data++;
3676 : :
3677 : : /* Reached end, nothing left to do */
3678 [ # # ]: 0 : if (cur_dw == MLX5_ST_SZ_DW(definer_hl))
3679 : : return true;
3680 : : }
3681 : :
3682 : : /* Used all DW selectors and Byte selectors, no possible solution */
3683 [ # # ]: 0 : if (ctrl->allowed_full_dw == ctrl->used_full_dw &&
3684 [ # # ]: 0 : ctrl->allowed_lim_dw == ctrl->used_lim_dw &&
3685 [ # # ]: 0 : ctrl->allowed_bytes == ctrl->used_bytes)
3686 : : return false;
3687 : :
3688 : : /* Try to use limited DW selectors */
3689 [ # # # # ]: 0 : if (ctrl->allowed_lim_dw > ctrl->used_lim_dw && cur_dw < 64) {
3690 : 0 : ctrl->lim_dw_selector[ctrl->used_lim_dw++] = cur_dw;
3691 : :
3692 : 0 : ret = mlx5dr_definer_best_hl_fit_recu(ctrl, cur_dw + 1, data + 1);
3693 [ # # ]: 0 : if (ret)
3694 : : return ret;
3695 : :
3696 : 0 : ctrl->lim_dw_selector[--ctrl->used_lim_dw] = 0;
3697 : : }
3698 : :
3699 : : /* Try to use DW selectors */
3700 [ # # ]: 0 : if (ctrl->allowed_full_dw > ctrl->used_full_dw) {
3701 : 0 : ctrl->full_dw_selector[ctrl->used_full_dw++] = cur_dw;
3702 : :
3703 : 0 : ret = mlx5dr_definer_best_hl_fit_recu(ctrl, cur_dw + 1, data + 1);
3704 [ # # ]: 0 : if (ret)
3705 : : return ret;
3706 : :
3707 : 0 : ctrl->full_dw_selector[--ctrl->used_full_dw] = 0;
3708 : : }
3709 : :
3710 : : /* No byte selector for offset bigger than 255 */
3711 [ # # ]: 0 : if (cur_dw * DW_SIZE > 255)
3712 : : return false;
3713 : :
3714 : 0 : bytes_set = !!(0x000000ff & *data) +
3715 : 0 : !!(0x0000ff00 & *data) +
3716 : 0 : !!(0x00ff0000 & *data) +
3717 : 0 : !!(0xff000000 & *data);
3718 : :
3719 : : /* Check if there are enough byte selectors left */
3720 [ # # ]: 0 : if (bytes_set + ctrl->used_bytes > ctrl->allowed_bytes)
3721 : : return false;
3722 : :
3723 : : /* Try to use Byte selectors */
3724 [ # # ]: 0 : for (i = 0; i < DW_SIZE; i++)
3725 [ # # # # ]: 0 : if ((0xff000000 >> (i * BITS_IN_BYTE)) & rte_be_to_cpu_32(*data)) {
3726 : : /* Use byte selectors high to low */
3727 : 0 : byte_idx = ctrl->allowed_bytes - ctrl->used_bytes - 1;
3728 : 0 : ctrl->byte_selector[byte_idx] = cur_dw * DW_SIZE + i;
3729 : 0 : ctrl->used_bytes++;
3730 : : }
3731 : :
3732 : 0 : ret = mlx5dr_definer_best_hl_fit_recu(ctrl, cur_dw + 1, data + 1);
3733 [ # # ]: 0 : if (ret)
3734 : : return ret;
3735 : :
3736 [ # # ]: 0 : for (i = 0; i < DW_SIZE; i++)
3737 [ # # # # ]: 0 : if ((0xff << (i * BITS_IN_BYTE)) & rte_be_to_cpu_32(*data)) {
3738 : 0 : ctrl->used_bytes--;
3739 : 0 : byte_idx = ctrl->allowed_bytes - ctrl->used_bytes - 1;
3740 : 0 : ctrl->byte_selector[byte_idx] = 0;
3741 : : }
3742 : :
3743 : : return false;
3744 : : }
3745 : :
3746 : : static void
3747 : 0 : mlx5dr_definer_copy_sel_ctrl(struct mlx5dr_definer_sel_ctrl *ctrl,
3748 : : struct mlx5dr_definer *definer)
3749 : : {
3750 : 0 : memcpy(definer->byte_selector, ctrl->byte_selector, ctrl->allowed_bytes);
3751 : 0 : memcpy(definer->dw_selector, ctrl->full_dw_selector, ctrl->allowed_full_dw);
3752 : 0 : memcpy(definer->dw_selector + ctrl->allowed_full_dw,
3753 : 0 : ctrl->lim_dw_selector, ctrl->allowed_lim_dw);
3754 : 0 : }
3755 : :
3756 : : static int
3757 : 0 : mlx5dr_definer_find_best_range_fit(struct mlx5dr_definer *definer,
3758 : : struct mlx5dr_matcher *matcher)
3759 : : {
3760 : 0 : uint8_t tag_byte_offset[MLX5DR_DEFINER_FNAME_MAX] = {0};
3761 : 0 : uint8_t field_select[MLX5DR_DEFINER_FNAME_MAX] = {0};
3762 : 0 : struct mlx5dr_definer_sel_ctrl ctrl = {0};
3763 : : uint32_t byte_offset, algn_byte_off;
3764 : : struct mlx5dr_definer_fc *fcr;
3765 : : bool require_dw;
3766 : : int idx, i, j;
3767 : :
3768 : : /* Try to create a range definer */
3769 : 0 : ctrl.allowed_full_dw = DW_SELECTORS_RANGE;
3770 : 0 : ctrl.allowed_bytes = BYTE_SELECTORS_RANGE;
3771 : :
3772 : : /* Multiple fields cannot share the same DW for range match.
3773 : : * The HW doesn't recognize each field but compares the full dw.
3774 : : * For example definer DW consists of FieldA_FieldB
3775 : : * FieldA: Mask 0xFFFF range 0x1 to 0x2
3776 : : * FieldB: Mask 0xFFFF range 0x3 to 0x4
3777 : : * STE DW range will be 0x00010003 - 0x00020004
3778 : : * This will cause invalid match for FieldB if FieldA=1 and FieldB=8
3779 : : * Since 0x10003 < 0x10008 < 0x20004
3780 : : */
3781 [ # # ]: 0 : for (i = 0; i < matcher->num_of_mt; i++) {
3782 [ # # ]: 0 : for (j = 0; j < matcher->mt[i].fcr_sz; j++) {
3783 : 0 : fcr = &matcher->mt[i].fcr[j];
3784 : :
3785 : : /* Found - Reuse previous mt binding */
3786 [ # # ]: 0 : if (field_select[fcr->fname]) {
3787 : 0 : fcr->byte_off = tag_byte_offset[fcr->fname];
3788 : 0 : continue;
3789 : : }
3790 : :
3791 : : /* Not found */
3792 : 0 : require_dw = fcr->byte_off >= (64 * DW_SIZE);
3793 [ # # # # ]: 0 : if (require_dw || ctrl.used_bytes == ctrl.allowed_bytes) {
3794 : : /* Try to cover using DW selector */
3795 [ # # ]: 0 : if (ctrl.used_full_dw == ctrl.allowed_full_dw)
3796 : 0 : goto not_supported;
3797 : :
3798 : 0 : ctrl.full_dw_selector[ctrl.used_full_dw++] =
3799 : 0 : fcr->byte_off / DW_SIZE;
3800 : :
3801 : : /* Bind DW */
3802 : 0 : idx = ctrl.used_full_dw - 1;
3803 : 0 : byte_offset = fcr->byte_off % DW_SIZE;
3804 : 0 : byte_offset += DW_SIZE * (DW_SELECTORS - idx - 1);
3805 : : } else {
3806 : : /* Try to cover using Bytes selectors */
3807 : : if (ctrl.used_bytes == ctrl.allowed_bytes)
3808 : : goto not_supported;
3809 : :
3810 : 0 : algn_byte_off = DW_SIZE * (fcr->byte_off / DW_SIZE);
3811 : 0 : ctrl.byte_selector[ctrl.used_bytes++] = algn_byte_off + 3;
3812 : 0 : ctrl.byte_selector[ctrl.used_bytes++] = algn_byte_off + 2;
3813 : 0 : ctrl.byte_selector[ctrl.used_bytes++] = algn_byte_off + 1;
3814 : 0 : ctrl.byte_selector[ctrl.used_bytes++] = algn_byte_off;
3815 : :
3816 : : /* Bind BYTE */
3817 : : byte_offset = DW_SIZE * DW_SELECTORS;
3818 : 0 : byte_offset += BYTE_SELECTORS - ctrl.used_bytes;
3819 : 0 : byte_offset += fcr->byte_off % DW_SIZE;
3820 : : }
3821 : :
3822 : 0 : fcr->byte_off = byte_offset;
3823 : 0 : tag_byte_offset[fcr->fname] = byte_offset;
3824 : 0 : field_select[fcr->fname] = 1;
3825 : : }
3826 : : }
3827 : :
3828 : 0 : mlx5dr_definer_copy_sel_ctrl(&ctrl, definer);
3829 : 0 : definer->type = MLX5DR_DEFINER_TYPE_RANGE;
3830 : :
3831 : 0 : return 0;
3832 : :
3833 : : not_supported:
3834 : 0 : DR_LOG(ERR, "Unable to find supporting range definer combination");
3835 : 0 : rte_errno = ENOTSUP;
3836 : 0 : return rte_errno;
3837 : : }
3838 : :
3839 : 0 : static void mlx5dr_definer_optimize_order(struct mlx5dr_definer *definer, int num_log)
3840 : : {
3841 : : uint8_t hl_prio[MLX5DR_DEFINER_HL_OPT_MAX];
3842 : : int dw = 0, i = 0, j;
3843 : : int *dw_flag;
3844 : : uint8_t tmp;
3845 : :
3846 : 0 : dw_flag = mlx5dr_optimal_dist_dw[num_log];
3847 : 0 : hl_prio[0] = __mlx5_dw_off(definer_hl, ipv4_src_dest_outer.source_address);
3848 : 0 : hl_prio[1] = __mlx5_dw_off(definer_hl, ipv4_src_dest_outer.destination_address);
3849 : :
3850 [ # # ]: 0 : while (i < MLX5DR_DEFINER_HL_OPT_MAX) {
3851 : : j = 0;
3852 : : /* Finding a candidate to improve its hash distribution */
3853 [ # # # # ]: 0 : while (j < DW_SELECTORS_MATCH && (hl_prio[i] != definer->dw_selector[j]))
3854 : 0 : j++;
3855 : :
3856 : : /* Finding a DW location with good hash distribution */
3857 [ # # # # ]: 0 : while (dw < DW_SELECTORS_MATCH && dw_flag[dw] == 0)
3858 : 0 : dw++;
3859 : :
3860 [ # # ]: 0 : if (dw < DW_SELECTORS_MATCH && j < DW_SELECTORS_MATCH) {
3861 : 0 : tmp = definer->dw_selector[dw];
3862 : 0 : definer->dw_selector[dw] = definer->dw_selector[j];
3863 : 0 : definer->dw_selector[j] = tmp;
3864 : 0 : dw++;
3865 : : }
3866 : 0 : i++;
3867 : : }
3868 : 0 : }
3869 : :
3870 : : static int
3871 : 0 : mlx5dr_definer_find_best_match_fit(struct mlx5dr_context *ctx,
3872 : : struct mlx5dr_definer *definer,
3873 : : uint8_t *hl)
3874 : : {
3875 : 0 : struct mlx5dr_definer_sel_ctrl ctrl = {0};
3876 : : bool found;
3877 : :
3878 : : /* Try to create a match definer */
3879 : 0 : ctrl.allowed_full_dw = DW_SELECTORS_MATCH;
3880 : : ctrl.allowed_lim_dw = 0;
3881 : 0 : ctrl.allowed_bytes = BYTE_SELECTORS;
3882 : :
3883 : 0 : found = mlx5dr_definer_best_hl_fit_recu(&ctrl, 0, (uint32_t *)hl);
3884 [ # # ]: 0 : if (found) {
3885 : 0 : mlx5dr_definer_copy_sel_ctrl(&ctrl, definer);
3886 : 0 : definer->type = MLX5DR_DEFINER_TYPE_MATCH;
3887 : 0 : return 0;
3888 : : }
3889 : :
3890 : : /* Try to create a full/limited jumbo definer */
3891 [ # # ]: 0 : ctrl.allowed_full_dw = ctx->caps->full_dw_jumbo_support ? DW_SELECTORS :
3892 : : DW_SELECTORS_MATCH;
3893 [ # # ]: 0 : ctrl.allowed_lim_dw = ctx->caps->full_dw_jumbo_support ? 0 :
3894 : : DW_SELECTORS_LIMITED;
3895 : : ctrl.allowed_bytes = BYTE_SELECTORS;
3896 : :
3897 : 0 : found = mlx5dr_definer_best_hl_fit_recu(&ctrl, 0, (uint32_t *)hl);
3898 [ # # ]: 0 : if (found) {
3899 : 0 : mlx5dr_definer_copy_sel_ctrl(&ctrl, definer);
3900 : 0 : definer->type = MLX5DR_DEFINER_TYPE_JUMBO;
3901 : 0 : return 0;
3902 : : }
3903 : :
3904 : 0 : DR_LOG(DEBUG, "Unable to find supporting match/jumbo definer combination");
3905 : 0 : rte_errno = E2BIG;
3906 : 0 : return rte_errno;
3907 : : }
3908 : :
3909 : : static void
3910 : 0 : mlx5dr_definer_create_tag_mask(struct rte_flow_item *items,
3911 : : struct mlx5dr_definer_fc *fc,
3912 : : uint32_t fc_sz,
3913 : : uint8_t *tag)
3914 : : {
3915 : : uint32_t i;
3916 : :
3917 [ # # ]: 0 : for (i = 0; i < fc_sz; i++) {
3918 [ # # ]: 0 : if (fc->tag_mask_set)
3919 : 0 : fc->tag_mask_set(fc, items[fc->item_idx].mask, tag);
3920 : : else
3921 : 0 : fc->tag_set(fc, items[fc->item_idx].mask, tag);
3922 : 0 : fc++;
3923 : : }
3924 : 0 : }
3925 : :
3926 : 0 : void mlx5dr_definer_create_tag(const struct rte_flow_item *items,
3927 : : struct mlx5dr_definer_fc *fc,
3928 : : uint32_t fc_sz,
3929 : : uint8_t *tag)
3930 : : {
3931 : : uint32_t i;
3932 : :
3933 [ # # ]: 0 : for (i = 0; i < fc_sz; i++) {
3934 : 0 : fc->tag_set(fc, items[fc->item_idx].spec, tag);
3935 : 0 : fc++;
3936 : : }
3937 : 0 : }
3938 : :
3939 : : static uint32_t mlx5dr_definer_get_range_byte_off(uint32_t match_byte_off)
3940 : : {
3941 : 0 : uint8_t curr_dw_idx = match_byte_off / DW_SIZE;
3942 : : uint8_t new_dw_idx;
3943 : :
3944 : : /* Range DW can have the following values 7,8,9,10
3945 : : * -DW7 is mapped to DW9
3946 : : * -DW8 is mapped to DW7
3947 : : * -DW9 is mapped to DW5
3948 : : * -DW10 is mapped to DW3
3949 : : * To reduce calculation the following formula is used:
3950 : : */
3951 : 0 : new_dw_idx = curr_dw_idx * (-2) + 23;
3952 : :
3953 : 0 : return new_dw_idx * DW_SIZE + match_byte_off % DW_SIZE;
3954 : : }
3955 : :
3956 : 0 : void mlx5dr_definer_create_tag_range(const struct rte_flow_item *items,
3957 : : struct mlx5dr_definer_fc *fc,
3958 : : uint32_t fc_sz,
3959 : : uint8_t *tag)
3960 : : {
3961 : : struct mlx5dr_definer_fc tmp_fc;
3962 : : uint32_t i;
3963 : :
3964 [ # # ]: 0 : for (i = 0; i < fc_sz; i++) {
3965 : 0 : tmp_fc = *fc;
3966 : : /* Set MAX value */
3967 : 0 : tmp_fc.byte_off = mlx5dr_definer_get_range_byte_off(fc->byte_off);
3968 : 0 : tmp_fc.tag_set(&tmp_fc, items[fc->item_idx].last, tag);
3969 : : /* Set MIN value */
3970 : 0 : tmp_fc.byte_off += DW_SIZE;
3971 : 0 : tmp_fc.tag_set(&tmp_fc, items[fc->item_idx].spec, tag);
3972 : 0 : fc++;
3973 : : }
3974 : 0 : }
3975 : :
3976 : 0 : int mlx5dr_definer_get_id(struct mlx5dr_definer *definer)
3977 : : {
3978 : 0 : return definer->obj->id;
3979 : : }
3980 : :
3981 : 0 : int mlx5dr_definer_compare(struct mlx5dr_definer *definer_a,
3982 : : struct mlx5dr_definer *definer_b)
3983 : : {
3984 : : int i;
3985 : :
3986 : : /* Future: Optimize by comparing selectors with valid mask only */
3987 [ # # ]: 0 : for (i = 0; i < BYTE_SELECTORS; i++)
3988 [ # # ]: 0 : if (definer_a->byte_selector[i] != definer_b->byte_selector[i])
3989 : : return 1;
3990 : :
3991 [ # # ]: 0 : for (i = 0; i < DW_SELECTORS; i++)
3992 [ # # ]: 0 : if (definer_a->dw_selector[i] != definer_b->dw_selector[i])
3993 : : return 1;
3994 : :
3995 [ # # ]: 0 : for (i = 0; i < MLX5DR_JUMBO_TAG_SZ; i++)
3996 [ # # ]: 0 : if (definer_a->mask.jumbo[i] != definer_b->mask.jumbo[i])
3997 : : return 1;
3998 : :
3999 : : return 0;
4000 : : }
4001 : :
4002 : : static int
4003 : : mlx5dr_definer_optimize_order_supported(struct mlx5dr_definer *match_definer,
4004 : : struct mlx5dr_matcher *matcher)
4005 : : {
4006 [ # # ]: 0 : return !mlx5dr_definer_is_jumbo(match_definer) &&
4007 [ # # ]: 0 : !mlx5dr_matcher_req_fw_wqe(matcher) &&
4008 [ # # # # ]: 0 : !mlx5dr_matcher_is_resizable(matcher) &&
4009 : : !mlx5dr_matcher_is_insert_by_idx(matcher);
4010 : : }
4011 : :
4012 : : static int
4013 : 0 : mlx5dr_definer_calc_layout(struct mlx5dr_matcher *matcher,
4014 : : struct mlx5dr_definer *match_definer,
4015 : : struct mlx5dr_definer *range_definer)
4016 : : {
4017 : 0 : struct mlx5dr_context *ctx = matcher->tbl->ctx;
4018 : 0 : struct mlx5dr_match_template *mt = matcher->mt;
4019 : : struct mlx5dr_definer_fc *fc;
4020 : : uint8_t *match_hl;
4021 : : int i, ret;
4022 : :
4023 : : /* Union header-layout (hl) is used for creating a single definer
4024 : : * field layout used with different bitmasks for hash and match.
4025 : : */
4026 : : match_hl = simple_calloc(1, MLX5_ST_SZ_BYTES(definer_hl));
4027 [ # # ]: 0 : if (!match_hl) {
4028 : 0 : DR_LOG(ERR, "Failed to allocate memory for header layout");
4029 : 0 : rte_errno = ENOMEM;
4030 : 0 : return rte_errno;
4031 : : }
4032 : :
4033 : : /* Convert all mt items to header layout (hl)
4034 : : * and allocate the match and range field copy array (fc & fcr).
4035 : : */
4036 [ # # ]: 0 : for (i = 0; i < matcher->num_of_mt; i++) {
4037 : 0 : ret = mlx5dr_definer_conv_items_to_hl(ctx, &mt[i], match_hl, matcher);
4038 [ # # ]: 0 : if (ret) {
4039 : 0 : DR_LOG(ERR, "Failed to convert items to header layout");
4040 : 0 : goto free_fc;
4041 : : }
4042 : : }
4043 : :
4044 [ # # ]: 0 : if (mlx5dr_matcher_is_compare(matcher)) {
4045 : 0 : ret = mlx5dr_matcher_validate_compare_attr(matcher);
4046 [ # # ]: 0 : if (ret)
4047 : 0 : goto free_fc;
4048 : :
4049 : : /* Due some HW limitation need to fill unused
4050 : : * DW's 0-5 and byte selectors with 0xff.
4051 : : */
4052 [ # # ]: 0 : for (i = 0; i < DW_SELECTORS_MATCH; i++)
4053 : 0 : match_definer->dw_selector[i] = 0xff;
4054 : :
4055 [ # # ]: 0 : for (i = 0; i < BYTE_SELECTORS; i++)
4056 : 0 : match_definer->byte_selector[i] = 0xff;
4057 : :
4058 [ # # ]: 0 : for (i = 0; i < mt[0].fc_sz; i++) {
4059 : 0 : fc = &mt[0].fc[i];
4060 : 0 : match_definer->dw_selector[fc->compare_idx] = fc->byte_off / DW_SIZE;
4061 : : }
4062 : :
4063 : 0 : goto out;
4064 : : }
4065 : :
4066 : : /* Find the match definer layout for header layout match union */
4067 : 0 : ret = mlx5dr_definer_find_best_match_fit(ctx, match_definer, match_hl);
4068 [ # # ]: 0 : if (ret) {
4069 : 0 : DR_LOG(DEBUG, "Failed to create match definer from header layout");
4070 : 0 : goto free_fc;
4071 : : }
4072 : :
4073 : : if (mlx5dr_definer_optimize_order_supported(match_definer, matcher))
4074 : 0 : mlx5dr_definer_optimize_order(match_definer, matcher->attr.rule.num_log);
4075 : :
4076 : : /* Find the range definer layout for match templates fcrs */
4077 : 0 : ret = mlx5dr_definer_find_best_range_fit(range_definer, matcher);
4078 [ # # ]: 0 : if (ret) {
4079 : 0 : DR_LOG(ERR, "Failed to create range definer from header layout");
4080 : 0 : goto free_fc;
4081 : : }
4082 : :
4083 : 0 : out:
4084 : : simple_free(match_hl);
4085 : 0 : return 0;
4086 : :
4087 : : free_fc:
4088 [ # # ]: 0 : for (i = 0; i < matcher->num_of_mt; i++)
4089 [ # # ]: 0 : if (mt[i].fc)
4090 : : simple_free(mt[i].fc);
4091 : :
4092 : : simple_free(match_hl);
4093 : 0 : return rte_errno;
4094 : : }
4095 : :
4096 : 0 : int mlx5dr_definer_init_cache(struct mlx5dr_definer_cache **cache)
4097 : : {
4098 : : struct mlx5dr_definer_cache *new_cache;
4099 : :
4100 : : new_cache = simple_calloc(1, sizeof(*new_cache));
4101 [ # # ]: 0 : if (!new_cache) {
4102 : 0 : rte_errno = ENOMEM;
4103 : 0 : return rte_errno;
4104 : : }
4105 : 0 : LIST_INIT(&new_cache->head);
4106 : 0 : *cache = new_cache;
4107 : :
4108 : 0 : return 0;
4109 : : }
4110 : :
4111 : 0 : void mlx5dr_definer_uninit_cache(struct mlx5dr_definer_cache *cache)
4112 : : {
4113 : : simple_free(cache);
4114 : 0 : }
4115 : :
4116 : : static struct mlx5dr_devx_obj *
4117 : 0 : mlx5dr_definer_get_obj(struct mlx5dr_context *ctx,
4118 : : struct mlx5dr_definer *definer)
4119 : : {
4120 : 0 : struct mlx5dr_definer_cache *cache = ctx->definer_cache;
4121 : 0 : struct mlx5dr_cmd_definer_create_attr def_attr = {0};
4122 : : struct mlx5dr_definer_cache_item *cached_definer;
4123 : : struct mlx5dr_devx_obj *obj;
4124 : :
4125 : : /* Search definer cache for requested definer */
4126 [ # # ]: 0 : LIST_FOREACH(cached_definer, &cache->head, next) {
4127 [ # # ]: 0 : if (mlx5dr_definer_compare(&cached_definer->definer, definer))
4128 : : continue;
4129 : :
4130 : : /* Reuse definer and set LRU (move to be first in the list) */
4131 [ # # ]: 0 : LIST_REMOVE(cached_definer, next);
4132 [ # # ]: 0 : LIST_INSERT_HEAD(&cache->head, cached_definer, next);
4133 : 0 : cached_definer->refcount++;
4134 : 0 : return cached_definer->definer.obj;
4135 : : }
4136 : :
4137 : : /* Allocate and create definer based on the bitmask tag */
4138 : 0 : def_attr.match_mask = definer->mask.jumbo;
4139 : 0 : def_attr.dw_selector = definer->dw_selector;
4140 : 0 : def_attr.byte_selector = definer->byte_selector;
4141 : :
4142 : 0 : obj = mlx5dr_cmd_definer_create(ctx->ibv_ctx, &def_attr);
4143 [ # # ]: 0 : if (!obj)
4144 : : return NULL;
4145 : :
4146 : : cached_definer = simple_calloc(1, sizeof(*cached_definer));
4147 [ # # ]: 0 : if (!cached_definer) {
4148 : 0 : rte_errno = ENOMEM;
4149 : 0 : goto free_definer_obj;
4150 : : }
4151 : :
4152 [ # # ]: 0 : memcpy(&cached_definer->definer, definer, sizeof(*definer));
4153 : 0 : cached_definer->definer.obj = obj;
4154 : 0 : cached_definer->refcount = 1;
4155 [ # # ]: 0 : LIST_INSERT_HEAD(&cache->head, cached_definer, next);
4156 : :
4157 : 0 : return obj;
4158 : :
4159 : : free_definer_obj:
4160 : 0 : mlx5dr_cmd_destroy_obj(obj);
4161 : 0 : return NULL;
4162 : : }
4163 : :
4164 : : static void
4165 : 0 : mlx5dr_definer_put_obj(struct mlx5dr_context *ctx,
4166 : : struct mlx5dr_devx_obj *obj)
4167 : : {
4168 : : struct mlx5dr_definer_cache_item *cached_definer;
4169 : :
4170 [ # # ]: 0 : LIST_FOREACH(cached_definer, &ctx->definer_cache->head, next) {
4171 [ # # ]: 0 : if (cached_definer->definer.obj != obj)
4172 : : continue;
4173 : :
4174 : : /* Object found */
4175 [ # # ]: 0 : if (--cached_definer->refcount)
4176 : : return;
4177 : :
4178 [ # # ]: 0 : LIST_REMOVE(cached_definer, next);
4179 : 0 : mlx5dr_cmd_destroy_obj(cached_definer->definer.obj);
4180 : : simple_free(cached_definer);
4181 : : return;
4182 : : }
4183 : :
4184 : : /* Programming error, object must be part of cache */
4185 : 0 : assert(false);
4186 : : }
4187 : :
4188 : : static struct mlx5dr_definer *
4189 : 0 : mlx5dr_definer_alloc(struct mlx5dr_context *ctx,
4190 : : struct mlx5dr_definer_fc *fc,
4191 : : int fc_sz,
4192 : : struct rte_flow_item *items,
4193 : : struct mlx5dr_definer *layout,
4194 : : bool bind_fc)
4195 : : {
4196 : : struct mlx5dr_definer *definer;
4197 : : int ret;
4198 : :
4199 : : definer = simple_calloc(1, sizeof(*definer));
4200 [ # # ]: 0 : if (!definer) {
4201 : 0 : DR_LOG(ERR, "Failed to allocate memory for definer");
4202 : 0 : rte_errno = ENOMEM;
4203 : 0 : return NULL;
4204 : : }
4205 : :
4206 : : memcpy(definer, layout, sizeof(*definer));
4207 : :
4208 : : /* Align field copy array based on given layout */
4209 [ # # ]: 0 : if (bind_fc) {
4210 : 0 : ret = mlx5dr_definer_fc_bind(definer, fc, fc_sz);
4211 [ # # ]: 0 : if (ret) {
4212 : 0 : DR_LOG(ERR, "Failed to bind field copy to definer");
4213 : 0 : goto free_definer;
4214 : : }
4215 : : }
4216 : :
4217 : : /* Create the tag mask used for definer creation */
4218 : 0 : mlx5dr_definer_create_tag_mask(items, fc, fc_sz, definer->mask.jumbo);
4219 : :
4220 : 0 : definer->obj = mlx5dr_definer_get_obj(ctx, definer);
4221 [ # # ]: 0 : if (!definer->obj)
4222 : 0 : goto free_definer;
4223 : :
4224 : : return definer;
4225 : :
4226 : 0 : free_definer:
4227 : : simple_free(definer);
4228 : 0 : return NULL;
4229 : : }
4230 : :
4231 : : static void
4232 : : mlx5dr_definer_free(struct mlx5dr_context *ctx,
4233 : : struct mlx5dr_definer *definer)
4234 : : {
4235 : 0 : mlx5dr_definer_put_obj(ctx, definer->obj);
4236 : : simple_free(definer);
4237 : 0 : }
4238 : :
4239 : : static int
4240 : 0 : mlx5dr_definer_matcher_match_init(struct mlx5dr_context *ctx,
4241 : : struct mlx5dr_matcher *matcher,
4242 : : struct mlx5dr_definer *match_layout)
4243 : : {
4244 : 0 : struct mlx5dr_match_template *mt = matcher->mt;
4245 : : int i;
4246 : :
4247 : : /* Create mendatory match definer */
4248 [ # # ]: 0 : for (i = 0; i < matcher->num_of_mt; i++) {
4249 : 0 : mt[i].definer = mlx5dr_definer_alloc(ctx,
4250 : : mt[i].fc,
4251 : 0 : mt[i].fc_sz,
4252 : 0 : mt[i].items,
4253 : : match_layout,
4254 : : true);
4255 [ # # ]: 0 : if (!mt[i].definer) {
4256 : 0 : DR_LOG(ERR, "Failed to create match definer");
4257 : 0 : goto free_definers;
4258 : : }
4259 : : }
4260 : : return 0;
4261 : :
4262 : : free_definers:
4263 [ # # ]: 0 : while (i--)
4264 : 0 : mlx5dr_definer_free(ctx, mt[i].definer);
4265 : :
4266 : 0 : return rte_errno;
4267 : : }
4268 : :
4269 : : static void
4270 : 0 : mlx5dr_definer_matcher_match_uninit(struct mlx5dr_matcher *matcher)
4271 : : {
4272 : 0 : struct mlx5dr_context *ctx = matcher->tbl->ctx;
4273 : : int i;
4274 : :
4275 [ # # ]: 0 : for (i = 0; i < matcher->num_of_mt; i++)
4276 : 0 : mlx5dr_definer_free(ctx, matcher->mt[i].definer);
4277 : 0 : }
4278 : :
4279 : : static int
4280 : 0 : mlx5dr_definer_matcher_range_init(struct mlx5dr_context *ctx,
4281 : : struct mlx5dr_matcher *matcher,
4282 : : struct mlx5dr_definer *range_layout)
4283 : : {
4284 : 0 : struct mlx5dr_match_template *mt = matcher->mt;
4285 : : int i;
4286 : :
4287 : : /* Create optional range definers */
4288 [ # # ]: 0 : for (i = 0; i < matcher->num_of_mt; i++) {
4289 : : /* All must use range if requested */
4290 : 0 : bool is_range = !!mt[i].fcr_sz;
4291 : 0 : bool has_range = matcher->flags & MLX5DR_MATCHER_FLAGS_RANGE_DEFINER;
4292 : :
4293 [ # # # # : 0 : if (i && ((is_range && !has_range) || (!is_range && has_range))) {
# # ]
4294 : 0 : DR_LOG(ERR, "Using range and non range templates is not allowed");
4295 : 0 : rte_errno = EINVAL;
4296 : 0 : goto free_definers;
4297 : : }
4298 : :
4299 [ # # ]: 0 : if (!mt[i].fcr_sz)
4300 : 0 : continue;
4301 : :
4302 : 0 : matcher->flags |= MLX5DR_MATCHER_FLAGS_RANGE_DEFINER;
4303 : : /* Create definer without fcr binding, already binded */
4304 : 0 : mt[i].range_definer = mlx5dr_definer_alloc(ctx,
4305 : : mt[i].fcr,
4306 : : mt[i].fcr_sz,
4307 : : mt[i].items,
4308 : : range_layout,
4309 : : false);
4310 [ # # ]: 0 : if (!mt[i].range_definer) {
4311 : 0 : DR_LOG(ERR, "Failed to create match definer");
4312 : 0 : goto free_definers;
4313 : : }
4314 : : }
4315 : : return 0;
4316 : :
4317 : : free_definers:
4318 [ # # ]: 0 : while (i--)
4319 [ # # ]: 0 : if (mt[i].range_definer)
4320 : : mlx5dr_definer_free(ctx, mt[i].range_definer);
4321 : :
4322 : 0 : return rte_errno;
4323 : : }
4324 : :
4325 : : static void
4326 : 0 : mlx5dr_definer_matcher_range_uninit(struct mlx5dr_matcher *matcher)
4327 : : {
4328 : 0 : struct mlx5dr_context *ctx = matcher->tbl->ctx;
4329 : : int i;
4330 : :
4331 [ # # ]: 0 : for (i = 0; i < matcher->num_of_mt; i++)
4332 [ # # ]: 0 : if (matcher->mt[i].range_definer)
4333 : : mlx5dr_definer_free(ctx, matcher->mt[i].range_definer);
4334 : 0 : }
4335 : :
4336 : : static int
4337 : 0 : mlx5dr_definer_matcher_hash_init(struct mlx5dr_context *ctx,
4338 : : struct mlx5dr_matcher *matcher)
4339 : : {
4340 : 0 : struct mlx5dr_cmd_definer_create_attr def_attr = {0};
4341 : 0 : struct mlx5dr_match_template *mt = matcher->mt;
4342 : 0 : struct ibv_context *ibv_ctx = ctx->ibv_ctx;
4343 : : uint8_t *bit_mask;
4344 : : int i, j;
4345 : :
4346 [ # # ]: 0 : for (i = 1; i < matcher->num_of_mt; i++)
4347 [ # # ]: 0 : if (mlx5dr_definer_compare(mt[i].definer, mt[i - 1].definer))
4348 : 0 : matcher->flags |= MLX5DR_MATCHER_FLAGS_HASH_DEFINER;
4349 : :
4350 [ # # ]: 0 : if (!(matcher->flags & MLX5DR_MATCHER_FLAGS_HASH_DEFINER))
4351 : : return 0;
4352 : :
4353 : : /* Insert by index requires all MT using the same definer */
4354 [ # # ]: 0 : if (matcher->attr.insert_mode == MLX5DR_MATCHER_INSERT_BY_INDEX) {
4355 : 0 : DR_LOG(ERR, "Insert by index not supported with MT combination");
4356 : 0 : rte_errno = EOPNOTSUPP;
4357 : 0 : return rte_errno;
4358 : : }
4359 : :
4360 : 0 : matcher->hash_definer = simple_calloc(1, sizeof(*matcher->hash_definer));
4361 [ # # ]: 0 : if (!matcher->hash_definer) {
4362 : 0 : DR_LOG(ERR, "Failed to allocate memory for hash definer");
4363 : 0 : rte_errno = ENOMEM;
4364 : 0 : return rte_errno;
4365 : : }
4366 : :
4367 : : /* Calculate intersection between all match templates bitmasks.
4368 : : * We will use mt[0] as reference and intersect it with mt[1..n].
4369 : : * From this we will get:
4370 : : * hash_definer.selectors = mt[0].selecotrs
4371 : : * hash_definer.mask = mt[0].mask & mt[0].mask & ... & mt[n].mask
4372 : : */
4373 : :
4374 : : /* Use first definer which should also contain intersection fields */
4375 : 0 : memcpy(matcher->hash_definer, mt->definer, sizeof(struct mlx5dr_definer));
4376 : :
4377 : : /* Calculate intersection between first to all match templates bitmasks */
4378 [ # # ]: 0 : for (i = 1; i < matcher->num_of_mt; i++) {
4379 : 0 : bit_mask = (uint8_t *)&mt[i].definer->mask;
4380 [ # # ]: 0 : for (j = 0; j < MLX5DR_JUMBO_TAG_SZ; j++)
4381 : 0 : ((uint8_t *)&matcher->hash_definer->mask)[j] &= bit_mask[j];
4382 : : }
4383 : :
4384 : 0 : def_attr.match_mask = matcher->hash_definer->mask.jumbo;
4385 : 0 : def_attr.dw_selector = matcher->hash_definer->dw_selector;
4386 : 0 : def_attr.byte_selector = matcher->hash_definer->byte_selector;
4387 : 0 : matcher->hash_definer->obj = mlx5dr_cmd_definer_create(ibv_ctx, &def_attr);
4388 [ # # ]: 0 : if (!matcher->hash_definer->obj) {
4389 : 0 : DR_LOG(ERR, "Failed to create hash definer");
4390 : 0 : goto free_hash_definer;
4391 : : }
4392 : :
4393 : : return 0;
4394 : :
4395 : : free_hash_definer:
4396 : 0 : simple_free(matcher->hash_definer);
4397 : 0 : return rte_errno;
4398 : : }
4399 : :
4400 : : static void
4401 : 0 : mlx5dr_definer_matcher_hash_uninit(struct mlx5dr_matcher *matcher)
4402 : : {
4403 [ # # ]: 0 : if (!matcher->hash_definer)
4404 : : return;
4405 : :
4406 : 0 : mlx5dr_cmd_destroy_obj(matcher->hash_definer->obj);
4407 : 0 : simple_free(matcher->hash_definer);
4408 : : }
4409 : :
4410 : 0 : int mlx5dr_definer_matcher_init(struct mlx5dr_context *ctx,
4411 : : struct mlx5dr_matcher *matcher)
4412 : : {
4413 : 0 : struct mlx5dr_definer match_layout = {0};
4414 : 0 : struct mlx5dr_definer range_layout = {0};
4415 : : int ret, i;
4416 : :
4417 [ # # ]: 0 : if (matcher->flags & MLX5DR_MATCHER_FLAGS_COLLISION)
4418 : : return 0;
4419 : :
4420 : 0 : ret = mlx5dr_definer_calc_layout(matcher, &match_layout, &range_layout);
4421 [ # # ]: 0 : if (ret) {
4422 : 0 : DR_LOG(DEBUG, "Failed to calculate matcher definer layout");
4423 : 0 : return ret;
4424 : : }
4425 : :
4426 : : /* Calculate definers needed for exact match */
4427 : 0 : ret = mlx5dr_definer_matcher_match_init(ctx, matcher, &match_layout);
4428 [ # # ]: 0 : if (ret) {
4429 : 0 : DR_LOG(ERR, "Failed to init match definers");
4430 : 0 : goto free_fc;
4431 : : }
4432 : :
4433 : : /* Calculate definers needed for range */
4434 : 0 : ret = mlx5dr_definer_matcher_range_init(ctx, matcher, &range_layout);
4435 [ # # ]: 0 : if (ret) {
4436 : 0 : DR_LOG(ERR, "Failed to init range definers");
4437 : 0 : goto uninit_match_definer;
4438 : : }
4439 : :
4440 : : /* Calculate partial hash definer */
4441 : 0 : ret = mlx5dr_definer_matcher_hash_init(ctx, matcher);
4442 [ # # ]: 0 : if (ret) {
4443 : 0 : DR_LOG(ERR, "Failed to init hash definer");
4444 : 0 : goto uninit_range_definer;
4445 : : }
4446 : :
4447 : : return 0;
4448 : :
4449 : : uninit_range_definer:
4450 : 0 : mlx5dr_definer_matcher_range_uninit(matcher);
4451 : 0 : uninit_match_definer:
4452 : 0 : mlx5dr_definer_matcher_match_uninit(matcher);
4453 : 0 : free_fc:
4454 [ # # ]: 0 : for (i = 0; i < matcher->num_of_mt; i++)
4455 : 0 : simple_free(matcher->mt[i].fc);
4456 : :
4457 : : return ret;
4458 : : }
4459 : :
4460 : 0 : void mlx5dr_definer_matcher_uninit(struct mlx5dr_matcher *matcher)
4461 : : {
4462 : : int i;
4463 : :
4464 [ # # ]: 0 : if (matcher->flags & MLX5DR_MATCHER_FLAGS_COLLISION)
4465 : : return;
4466 : :
4467 : 0 : mlx5dr_definer_matcher_hash_uninit(matcher);
4468 : 0 : mlx5dr_definer_matcher_range_uninit(matcher);
4469 : 0 : mlx5dr_definer_matcher_match_uninit(matcher);
4470 : :
4471 [ # # ]: 0 : for (i = 0; i < matcher->num_of_mt; i++)
4472 : 0 : simple_free(matcher->mt[i].fc);
4473 : : }
|