]> git.proxmox.com Git - mirror_ubuntu-kernels.git/commitdiff
io_uring: move small helpers to headers
authorPavel Begunkov <asml.silence@gmail.com>
Wed, 15 Jun 2022 16:33:51 +0000 (17:33 +0100)
committerJens Axboe <axboe@kernel.dk>
Mon, 25 Jul 2022 00:39:13 +0000 (18:39 -0600)
There is a bunch of inline helpers that will be useful not only to the
core of io_uring, move them to headers.

Signed-off-by: Pavel Begunkov <asml.silence@gmail.com>
Link: https://lore.kernel.org/r/22df99c83723e44cba7e945e8519e64e3642c064.1655310733.git.asml.silence@gmail.com
Signed-off-by: Jens Axboe <axboe@kernel.dk>
io_uring/io_uring.c
io_uring/io_uring.h

index c703190986270b5a7c99805404c23229c53ae22a..fd3ad7848652879bf42c40a37b7c83b851f1b4af 100644 (file)
@@ -160,14 +160,6 @@ struct sock *io_uring_get_socket(struct file *file)
 }
 EXPORT_SYMBOL(io_uring_get_socket);
 
-static inline void io_tw_lock(struct io_ring_ctx *ctx, bool *locked)
-{
-       if (!*locked) {
-               mutex_lock(&ctx->uring_lock);
-               *locked = true;
-       }
-}
-
 static inline void io_submit_flush_completions(struct io_ring_ctx *ctx)
 {
        if (!wq_list_empty(&ctx->submit_state.compl_reqs))
@@ -423,15 +415,6 @@ static void io_prep_async_link(struct io_kiocb *req)
        }
 }
 
-static inline void io_req_add_compl_list(struct io_kiocb *req)
-{
-       struct io_submit_state *state = &req->ctx->submit_state;
-
-       if (!(req->flags & REQ_F_CQE_SKIP))
-               state->flush_cqes = true;
-       wq_list_add_tail(&req->comp_list, &state->compl_reqs);
-}
-
 void io_queue_iowq(struct io_kiocb *req, bool *dont_use)
 {
        struct io_kiocb *link = io_prep_linked_timeout(req);
index 22e6e52c42d261730d363774ef230773ec536f4b..6744ce111e3812086e7fa5e612d75e35bc31a94f 100644 (file)
@@ -217,6 +217,28 @@ static inline bool io_run_task_work(void)
        return false;
 }
 
+static inline void io_req_complete_state(struct io_kiocb *req)
+{
+       req->flags |= REQ_F_COMPLETE_INLINE;
+}
+
+static inline void io_tw_lock(struct io_ring_ctx *ctx, bool *locked)
+{
+       if (!*locked) {
+               mutex_lock(&ctx->uring_lock);
+               *locked = true;
+       }
+}
+
+static inline void io_req_add_compl_list(struct io_kiocb *req)
+{
+       struct io_submit_state *state = &req->ctx->submit_state;
+
+       if (!(req->flags & REQ_F_CQE_SKIP))
+               state->flush_cqes = true;
+       wq_list_add_tail(&req->comp_list, &state->compl_reqs);
+}
+
 int io_run_task_work_sig(void);
 void io_req_complete_failed(struct io_kiocb *req, s32 res);
 void __io_req_complete(struct io_kiocb *req, unsigned issue_flags);