Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright(C) 2024 Marvell.
3 : : */
4 : :
5 : : #include <stdint.h>
6 : :
7 : : #include <bus_pci_driver.h>
8 : :
9 : : #include <rte_io.h>
10 : : #include <rte_malloc.h>
11 : :
12 : : #include "odm.h"
13 : : #include "odm_priv.h"
14 : :
15 : : static void
16 : 0 : odm_vchan_resc_free(struct odm_dev *odm, int qno)
17 : : {
18 : : struct odm_queue *vq = &odm->vq[qno];
19 : :
20 : 0 : rte_memzone_free(vq->iring_mz);
21 : 0 : rte_memzone_free(vq->cring_mz);
22 : 0 : rte_free(vq->extra_ins_sz);
23 : :
24 : 0 : vq->iring_mz = NULL;
25 : 0 : vq->cring_mz = NULL;
26 : 0 : vq->extra_ins_sz = NULL;
27 : 0 : }
28 : :
29 : : static int
30 : 0 : send_mbox_to_pf(struct odm_dev *odm, union odm_mbox_msg *msg, union odm_mbox_msg *rsp)
31 : : {
32 : : int retry_cnt = ODM_MBOX_RETRY_CNT;
33 : : union odm_mbox_msg pf_msg;
34 : :
35 : 0 : msg->d.err = ODM_MBOX_ERR_CODE_MAX;
36 : 0 : odm_write64(msg->u[0], odm->rbase + ODM_MBOX_VF_PF_DATA(0));
37 : 0 : odm_write64(msg->u[1], odm->rbase + ODM_MBOX_VF_PF_DATA(1));
38 : :
39 : : pf_msg.u[0] = 0;
40 : : pf_msg.u[1] = 0;
41 : 0 : pf_msg.u[0] = odm_read64(odm->rbase + ODM_MBOX_VF_PF_DATA(0));
42 : :
43 [ # # # # ]: 0 : while (pf_msg.d.rsp == 0 && retry_cnt > 0) {
44 : 0 : pf_msg.u[0] = odm_read64(odm->rbase + ODM_MBOX_VF_PF_DATA(0));
45 : 0 : --retry_cnt;
46 : : }
47 : :
48 [ # # ]: 0 : if (retry_cnt <= 0)
49 : : return -EBADE;
50 : :
51 : : pf_msg.u[1] = odm_read64(odm->rbase + ODM_MBOX_VF_PF_DATA(1));
52 : :
53 [ # # ]: 0 : if (rsp) {
54 : 0 : rsp->u[0] = pf_msg.u[0];
55 : 0 : rsp->u[1] = pf_msg.u[1];
56 : : }
57 : :
58 [ # # # # ]: 0 : if (pf_msg.d.rsp == msg->d.err && pf_msg.d.err != 0)
59 : 0 : return -EBADE;
60 : :
61 : : return 0;
62 : : }
63 : :
64 : : static int
65 : 0 : odm_queue_ring_config(struct odm_dev *odm, int vchan, int isize, int csize)
66 : : {
67 : 0 : union odm_vdma_ring_cfg_s ring_cfg = {0};
68 : : struct odm_queue *vq = &odm->vq[vchan];
69 : :
70 [ # # # # ]: 0 : if (vq->iring_mz == NULL || vq->cring_mz == NULL)
71 : : return -EINVAL;
72 : :
73 : 0 : ring_cfg.s.isize = (isize / 1024) - 1;
74 : 0 : ring_cfg.s.csize = (csize / 1024) - 1;
75 : :
76 : 0 : odm_write64(ring_cfg.u, odm->rbase + ODM_VDMA_RING_CFG(vchan));
77 : 0 : odm_write64(vq->iring_mz->iova, odm->rbase + ODM_VDMA_IRING_BADDR(vchan));
78 : 0 : odm_write64(vq->cring_mz->iova, odm->rbase + ODM_VDMA_CRING_BADDR(vchan));
79 : :
80 : 0 : return 0;
81 : : }
82 : :
83 : : int
84 : 0 : odm_enable(struct odm_dev *odm)
85 : : {
86 : : struct odm_queue *vq;
87 : : int qno, rc = 0;
88 : :
89 [ # # ]: 0 : for (qno = 0; qno < odm->num_qs; qno++) {
90 : : vq = &odm->vq[qno];
91 : :
92 : 0 : vq->desc_idx = vq->stats.completed_offset;
93 : 0 : vq->pending_submit_len = 0;
94 : 0 : vq->pending_submit_cnt = 0;
95 : 0 : vq->iring_head = 0;
96 : 0 : vq->cring_head = 0;
97 : 0 : vq->ins_ring_head = 0;
98 : 0 : vq->iring_sz_available = vq->iring_max_words;
99 : :
100 : 0 : rc = odm_queue_ring_config(odm, qno, vq->iring_max_words * 8,
101 : 0 : vq->cring_max_entry * 4);
102 [ # # ]: 0 : if (rc < 0)
103 : : break;
104 : :
105 : 0 : odm_write64(0x1, odm->rbase + ODM_VDMA_EN(qno));
106 : : }
107 : :
108 : 0 : return rc;
109 : : }
110 : :
111 : : int
112 : 0 : odm_disable(struct odm_dev *odm)
113 : : {
114 : : int qno, wait_cnt = ODM_IRING_IDLE_WAIT_CNT;
115 : : uint64_t val;
116 : :
117 : : /* Disable the queue and wait for the queue to became idle */
118 [ # # ]: 0 : for (qno = 0; qno < odm->num_qs; qno++) {
119 : 0 : odm_write64(0x0, odm->rbase + ODM_VDMA_EN(qno));
120 : : do {
121 [ # # ]: 0 : val = odm_read64(odm->rbase + ODM_VDMA_IRING_BADDR(qno));
122 [ # # # # ]: 0 : } while ((!(val & 1ULL << 63)) && (--wait_cnt > 0));
123 : : }
124 : :
125 : 0 : return 0;
126 : : }
127 : :
128 : : int
129 : 0 : odm_vchan_setup(struct odm_dev *odm, int vchan, int nb_desc)
130 : : {
131 : : struct odm_queue *vq = &odm->vq[vchan];
132 : : int isize, csize, max_nb_desc, rc = 0;
133 : : union odm_mbox_msg mbox_msg;
134 : : const struct rte_memzone *mz;
135 : : char name[32];
136 : :
137 [ # # ]: 0 : if (vq->iring_mz != NULL)
138 : 0 : odm_vchan_resc_free(odm, vchan);
139 : :
140 : 0 : mbox_msg.u[0] = 0;
141 : 0 : mbox_msg.u[1] = 0;
142 : :
143 : : /* ODM PF driver expects vfid starts from index 0 */
144 : 0 : mbox_msg.q.vfid = odm->vfid;
145 : 0 : mbox_msg.q.cmd = ODM_QUEUE_OPEN;
146 : 0 : mbox_msg.q.qidx = vchan;
147 : 0 : rc = send_mbox_to_pf(odm, &mbox_msg, &mbox_msg);
148 [ # # ]: 0 : if (rc < 0)
149 : : return rc;
150 : :
151 : : /* Determine instruction & completion ring sizes. */
152 : :
153 : : /* Create iring that can support nb_desc. Round up to a multiple of 1024. */
154 : 0 : isize = RTE_ALIGN_CEIL(nb_desc * ODM_IRING_ENTRY_SIZE_MAX * 8, 1024);
155 : 0 : isize = RTE_MIN(isize, ODM_IRING_MAX_SIZE);
156 : 0 : snprintf(name, sizeof(name), "vq%d_iring%d", odm->vfid, vchan);
157 : 0 : mz = rte_memzone_reserve_aligned(name, isize, SOCKET_ID_ANY, 0, 1024);
158 [ # # ]: 0 : if (mz == NULL)
159 : : return -ENOMEM;
160 : 0 : vq->iring_mz = mz;
161 : 0 : vq->iring_max_words = isize / 8;
162 : :
163 : : /* Create cring that can support max instructions that can be inflight in hw. */
164 : 0 : max_nb_desc = (isize / (ODM_IRING_ENTRY_SIZE_MIN * 8));
165 : 0 : csize = RTE_ALIGN_CEIL(max_nb_desc * sizeof(union odm_cmpl_ent_s), 1024);
166 : 0 : snprintf(name, sizeof(name), "vq%d_cring%d", odm->vfid, vchan);
167 : 0 : mz = rte_memzone_reserve_aligned(name, csize, SOCKET_ID_ANY, 0, 1024);
168 [ # # ]: 0 : if (mz == NULL) {
169 : : rc = -ENOMEM;
170 : 0 : goto iring_free;
171 : : }
172 : 0 : vq->cring_mz = mz;
173 : 0 : vq->cring_max_entry = csize / 4;
174 : :
175 : : /* Allocate memory to track the size of each instruction. */
176 : 0 : snprintf(name, sizeof(name), "vq%d_extra%d", odm->vfid, vchan);
177 : 0 : vq->extra_ins_sz = rte_zmalloc(name, vq->cring_max_entry, 0);
178 [ # # ]: 0 : if (vq->extra_ins_sz == NULL) {
179 : : rc = -ENOMEM;
180 : 0 : goto cring_free;
181 : : }
182 : :
183 : 0 : vq->stats = (struct vq_stats){0};
184 : 0 : return rc;
185 : :
186 : : cring_free:
187 : 0 : rte_memzone_free(odm->vq[vchan].cring_mz);
188 : 0 : vq->cring_mz = NULL;
189 : 0 : iring_free:
190 : 0 : rte_memzone_free(odm->vq[vchan].iring_mz);
191 : 0 : vq->iring_mz = NULL;
192 : :
193 : 0 : return rc;
194 : : }
195 : :
196 : : int
197 : 0 : odm_dev_init(struct odm_dev *odm)
198 : : {
199 : 0 : struct rte_pci_device *pci_dev = odm->pci_dev;
200 : : union odm_mbox_msg mbox_msg;
201 : : uint16_t vfid;
202 : : int rc;
203 : :
204 : 0 : odm->rbase = pci_dev->mem_resource[0].addr;
205 : 0 : vfid = ((pci_dev->addr.devid & 0x1F) << 3) | (pci_dev->addr.function & 0x7);
206 : 0 : vfid -= 1;
207 : 0 : odm->vfid = vfid;
208 : 0 : odm->num_qs = 0;
209 : :
210 : 0 : mbox_msg.u[0] = 0;
211 : 0 : mbox_msg.u[1] = 0;
212 : 0 : mbox_msg.q.vfid = odm->vfid;
213 : 0 : mbox_msg.q.cmd = ODM_DEV_INIT;
214 : 0 : rc = send_mbox_to_pf(odm, &mbox_msg, &mbox_msg);
215 [ # # ]: 0 : if (!rc)
216 : 0 : odm->max_qs = 1 << (4 - mbox_msg.d.nvfs);
217 : :
218 : 0 : return rc;
219 : : }
220 : :
221 : : int
222 : 0 : odm_dev_fini(struct odm_dev *odm)
223 : : {
224 : : union odm_mbox_msg mbox_msg;
225 : : int qno, rc = 0;
226 : :
227 : 0 : mbox_msg.u[0] = 0;
228 : 0 : mbox_msg.u[1] = 0;
229 : 0 : mbox_msg.q.vfid = odm->vfid;
230 : 0 : mbox_msg.q.cmd = ODM_DEV_CLOSE;
231 : 0 : rc = send_mbox_to_pf(odm, &mbox_msg, &mbox_msg);
232 : :
233 [ # # ]: 0 : for (qno = 0; qno < odm->num_qs; qno++)
234 : 0 : odm_vchan_resc_free(odm, qno);
235 : :
236 : 0 : return rc;
237 : : }
|