]> git.hungrycats.org Git - linux/commitdiff
io_uring: return cancelation status from poll/timeout/files handlers
authorJens Axboe <axboe@kernel.dk>
Sat, 26 Sep 2020 21:05:03 +0000 (15:05 -0600)
committerGreg Kroah-Hartman <gregkh@linuxfoundation.org>
Sun, 1 Nov 2020 11:45:35 +0000 (12:45 +0100)
commit 76e1b6427fd8246376a97e3227049d49188dfb9c upstream.

Return whether we found and canceled requests or not. This is in
preparation for using this information, no functional changes in this
patch.

Reviewed-by: Pavel Begunkov <asml.silence@gmail.com>
Signed-off-by: Jens Axboe <axboe@kernel.dk>
Signed-off-by: Greg Kroah-Hartman <gregkh@linuxfoundation.org>
fs/io_uring.c

index 908b26abcc9c94d88181224510a260711ae7a76e..3de1e9535b95a7ef8c6022a2043a612d9b40e122 100644 (file)
@@ -1143,15 +1143,23 @@ static bool io_task_match(struct io_kiocb *req, struct task_struct *tsk)
        return false;
 }
 
-static void io_kill_timeouts(struct io_ring_ctx *ctx, struct task_struct *tsk)
+/*
+ * Returns true if we found and killed one or more timeouts
+ */
+static bool io_kill_timeouts(struct io_ring_ctx *ctx, struct task_struct *tsk)
 {
        struct io_kiocb *req, *tmp;
+       int canceled = 0;
 
        spin_lock_irq(&ctx->completion_lock);
-       list_for_each_entry_safe(req, tmp, &ctx->timeout_list, list)
-               if (io_task_match(req, tsk))
+       list_for_each_entry_safe(req, tmp, &ctx->timeout_list, list) {
+               if (io_task_match(req, tsk)) {
                        io_kill_timeout(req);
+                       canceled++;
+               }
+       }
        spin_unlock_irq(&ctx->completion_lock);
+       return canceled != 0;
 }
 
 static void __io_queue_deferred(struct io_ring_ctx *ctx)
@@ -4650,7 +4658,10 @@ static bool io_poll_remove_one(struct io_kiocb *req)
        return do_complete;
 }
 
-static void io_poll_remove_all(struct io_ring_ctx *ctx, struct task_struct *tsk)
+/*
+ * Returns true if we found and killed one or more poll requests
+ */
+static bool io_poll_remove_all(struct io_ring_ctx *ctx, struct task_struct *tsk)
 {
        struct hlist_node *tmp;
        struct io_kiocb *req;
@@ -4670,6 +4681,8 @@ static void io_poll_remove_all(struct io_ring_ctx *ctx, struct task_struct *tsk)
 
        if (posted)
                io_cqring_ev_posted(ctx);
+
+       return posted != 0;
 }
 
 static int io_poll_cancel(struct io_ring_ctx *ctx, __u64 sqe_addr)
@@ -7744,11 +7757,14 @@ static void io_cancel_defer_files(struct io_ring_ctx *ctx,
        }
 }
 
-static void io_uring_cancel_files(struct io_ring_ctx *ctx,
+/*
+ * Returns true if we found and killed one or more files pinning requests
+ */
+static bool io_uring_cancel_files(struct io_ring_ctx *ctx,
                                  struct files_struct *files)
 {
        if (list_empty_careful(&ctx->inflight_list))
-               return;
+               return false;
 
        io_cancel_defer_files(ctx, files);
        /* cancel all at once, should be faster than doing it one by one*/
@@ -7811,6 +7827,8 @@ static void io_uring_cancel_files(struct io_ring_ctx *ctx,
                schedule();
                finish_wait(&ctx->inflight_wait, &wait);
        }
+
+       return true;
 }
 
 static bool io_cancel_task_cb(struct io_wq_work *work, void *data)