]> git.proxmox.com Git - mirror_ubuntu-kernels.git/commitdiff
RDMA/mana_ib: Use v2 version of cfg_rx_steer_req to enable RX coalescing
authorLong Li <longli@microsoft.com>
Sun, 14 May 2023 06:18:15 +0000 (23:18 -0700)
committerJason Gunthorpe <jgg@nvidia.com>
Thu, 1 Jun 2023 15:52:01 +0000 (12:52 -0300)
With RX coalescing, one CQE entry can be used to indicate multiple packets
on the receive queue. This saves processing time and PCI bandwidth over
the CQ.

The MANA Ethernet driver also uses the v2 version of the protocol. It
doesn't use RX coalescing and its behavior is not changed.

Link: https://lore.kernel.org/r/1684045095-31228-1-git-send-email-longli@linuxonhyperv.com
Signed-off-by: Long Li <longli@microsoft.com>
Signed-off-by: Jason Gunthorpe <jgg@nvidia.com>
drivers/infiniband/hw/mana/qp.c
drivers/net/ethernet/microsoft/mana/mana_en.c
include/net/mana/mana.h

index 54b61930a7fdb317b98348af287a737cda873d9b..4b3b5b274e8498006102decf0e87743a98a7445e 100644 (file)
@@ -13,7 +13,7 @@ static int mana_ib_cfg_vport_steering(struct mana_ib_dev *dev,
                                      u8 *rx_hash_key)
 {
        struct mana_port_context *mpc = netdev_priv(ndev);
-       struct mana_cfg_rx_steer_req *req = NULL;
+       struct mana_cfg_rx_steer_req_v2 *req;
        struct mana_cfg_rx_steer_resp resp = {};
        mana_handle_t *req_indir_tab;
        struct gdma_context *gc;
@@ -33,6 +33,8 @@ static int mana_ib_cfg_vport_steering(struct mana_ib_dev *dev,
        mana_gd_init_req_hdr(&req->hdr, MANA_CONFIG_VPORT_RX, req_buf_size,
                             sizeof(resp));
 
+       req->hdr.req.msg_version = GDMA_MESSAGE_V2;
+
        req->vport = mpc->port_handle;
        req->rx_enable = 1;
        req->update_default_rxobj = 1;
@@ -46,6 +48,7 @@ static int mana_ib_cfg_vport_steering(struct mana_ib_dev *dev,
        req->num_indir_entries = MANA_INDIRECT_TABLE_SIZE;
        req->indir_tab_offset = sizeof(*req);
        req->update_indir_tab = true;
+       req->cqe_coalescing_enable = 1;
 
        req_indir_tab = (mana_handle_t *)(req + 1);
        /* The ind table passed to the hardware must have
index 06d6292e09b332d9261806784738651e29d4dd8a..b3fcb767b9aba823c325e8b9132dd5a0d37ebfac 100644 (file)
@@ -972,7 +972,7 @@ static int mana_cfg_vport_steering(struct mana_port_context *apc,
                                   bool update_tab)
 {
        u16 num_entries = MANA_INDIRECT_TABLE_SIZE;
-       struct mana_cfg_rx_steer_req *req = NULL;
+       struct mana_cfg_rx_steer_req_v2 *req;
        struct mana_cfg_rx_steer_resp resp = {};
        struct net_device *ndev = apc->ndev;
        mana_handle_t *req_indir_tab;
@@ -987,6 +987,8 @@ static int mana_cfg_vport_steering(struct mana_port_context *apc,
        mana_gd_init_req_hdr(&req->hdr, MANA_CONFIG_VPORT_RX, req_buf_size,
                             sizeof(resp));
 
+       req->hdr.req.msg_version = GDMA_MESSAGE_V2;
+
        req->vport = apc->port_handle;
        req->num_indir_entries = num_entries;
        req->indir_tab_offset = sizeof(*req);
@@ -996,6 +998,7 @@ static int mana_cfg_vport_steering(struct mana_port_context *apc,
        req->update_hashkey = update_key;
        req->update_indir_tab = update_tab;
        req->default_rxobj = apc->default_rxobj;
+       req->cqe_coalescing_enable = 0;
 
        if (update_key)
                memcpy(&req->hashkey, apc->hashkey, MANA_HASH_KEY_SIZE);
index cd386aa7c7cc328d7226ac1c44362e46926eb363..1512bd48df81febbf6f991be5bd1501228350ff6 100644 (file)
@@ -581,7 +581,7 @@ struct mana_fence_rq_resp {
 }; /* HW DATA */
 
 /* Configure vPort Rx Steering */
-struct mana_cfg_rx_steer_req {
+struct mana_cfg_rx_steer_req_v2 {
        struct gdma_req_hdr hdr;
        mana_handle_t vport;
        u16 num_indir_entries;
@@ -594,6 +594,8 @@ struct mana_cfg_rx_steer_req {
        u8 reserved;
        mana_handle_t default_rxobj;
        u8 hashkey[MANA_HASH_KEY_SIZE];
+       u8 cqe_coalescing_enable;
+       u8 reserved2[7];
 }; /* HW DATA */
 
 struct mana_cfg_rx_steer_resp {