]> git.proxmox.com Git - mirror_ubuntu-eoan-kernel.git/commitdiff
block: free sched's request pool in blk_cleanup_queue
authorMing Lei <ming.lei@redhat.com>
Tue, 4 Jun 2019 13:08:02 +0000 (21:08 +0800)
committerJens Axboe <axboe@kernel.dk>
Fri, 7 Jun 2019 04:39:39 +0000 (22:39 -0600)
In theory, IO scheduler belongs to request queue, and the request pool
of sched tags belongs to the request queue too.

However, the current tags allocation interfaces are re-used for both
driver tags and sched tags, and driver tags is definitely host wide,
and doesn't belong to any request queue, same with its request pool.
So we need tagset instance for freeing request of sched tags.

Meantime, blk_mq_free_tag_set() often follows blk_cleanup_queue() in case
of non-BLK_MQ_F_TAG_SHARED, this way requires that request pool of sched
tags to be freed before calling blk_mq_free_tag_set().

Commit 47cdee29ef9d94e ("block: move blk_exit_queue into __blk_release_queue")
moves blk_exit_queue into __blk_release_queue for simplying the fast
path in generic_make_request(), then causes oops during freeing requests
of sched tags in __blk_release_queue().

Fix the above issue by move freeing request pool of sched tags into
blk_cleanup_queue(), this way is safe becasue queue has been frozen and no any
in-queue requests at that time. Freeing sched tags has to be kept in queue's
release handler becasue there might be un-completed dispatch activity
which might refer to sched tags.

Cc: Bart Van Assche <bvanassche@acm.org>
Cc: Christoph Hellwig <hch@lst.de>
Fixes: 47cdee29ef9d94e485eb08f962c74943023a5271 ("block: move blk_exit_queue into __blk_release_queue")
Tested-by: Yi Zhang <yi.zhang@redhat.com>
Reported-by: kernel test robot <rong.a.chen@intel.com>
Signed-off-by: Ming Lei <ming.lei@redhat.com>
Signed-off-by: Jens Axboe <axboe@kernel.dk>
block/blk-core.c
block/blk-mq-sched.c
block/blk-mq-sched.h
block/blk-sysfs.c
block/blk.h
block/elevator.c

index ee1b35fe85726790566534641ebc79b91d7117ee..8340f69670d89625a8adc55a24e9c4e547555d7f 100644 (file)
@@ -320,6 +320,19 @@ void blk_cleanup_queue(struct request_queue *q)
        if (queue_is_mq(q))
                blk_mq_exit_queue(q);
 
+       /*
+        * In theory, request pool of sched_tags belongs to request queue.
+        * However, the current implementation requires tag_set for freeing
+        * requests, so free the pool now.
+        *
+        * Queue has become frozen, there can't be any in-queue requests, so
+        * it is safe to free requests now.
+        */
+       mutex_lock(&q->sysfs_lock);
+       if (q->elevator)
+               blk_mq_sched_free_requests(q);
+       mutex_unlock(&q->sysfs_lock);
+
        percpu_ref_exit(&q->q_usage_counter);
 
        /* @q is and will stay empty, shutdown and put */
index 74c6bb871f7e6e299d7180720f2de05f0460b5af..500cb04901cc12906a8108c0795c5e3119e23d2c 100644 (file)
@@ -475,14 +475,18 @@ static int blk_mq_sched_alloc_tags(struct request_queue *q,
        return ret;
 }
 
+/* called in queue's release handler, tagset has gone away */
 static void blk_mq_sched_tags_teardown(struct request_queue *q)
 {
-       struct blk_mq_tag_set *set = q->tag_set;
        struct blk_mq_hw_ctx *hctx;
        int i;
 
-       queue_for_each_hw_ctx(q, hctx, i)
-               blk_mq_sched_free_tags(set, hctx, i);
+       queue_for_each_hw_ctx(q, hctx, i) {
+               if (hctx->sched_tags) {
+                       blk_mq_free_rq_map(hctx->sched_tags);
+                       hctx->sched_tags = NULL;
+               }
+       }
 }
 
 int blk_mq_init_sched(struct request_queue *q, struct elevator_type *e)
@@ -523,6 +527,7 @@ int blk_mq_init_sched(struct request_queue *q, struct elevator_type *e)
                        ret = e->ops.init_hctx(hctx, i);
                        if (ret) {
                                eq = q->elevator;
+                               blk_mq_sched_free_requests(q);
                                blk_mq_exit_sched(q, eq);
                                kobject_put(&eq->kobj);
                                return ret;
@@ -534,11 +539,30 @@ int blk_mq_init_sched(struct request_queue *q, struct elevator_type *e)
        return 0;
 
 err:
+       blk_mq_sched_free_requests(q);
        blk_mq_sched_tags_teardown(q);
        q->elevator = NULL;
        return ret;
 }
 
+/*
+ * called in either blk_queue_cleanup or elevator_switch, tagset
+ * is required for freeing requests
+ */
+void blk_mq_sched_free_requests(struct request_queue *q)
+{
+       struct blk_mq_hw_ctx *hctx;
+       int i;
+
+       lockdep_assert_held(&q->sysfs_lock);
+       WARN_ON(!q->elevator);
+
+       queue_for_each_hw_ctx(q, hctx, i) {
+               if (hctx->sched_tags)
+                       blk_mq_free_rqs(q->tag_set, hctx->sched_tags, i);
+       }
+}
+
 void blk_mq_exit_sched(struct request_queue *q, struct elevator_queue *e)
 {
        struct blk_mq_hw_ctx *hctx;
index c7bdb52367ac2ec2a6f5e14df44c87e8ded9f228..3cf92cbbd8ac182705608cbbf6280ff688848489 100644 (file)
@@ -28,6 +28,7 @@ void blk_mq_sched_dispatch_requests(struct blk_mq_hw_ctx *hctx);
 
 int blk_mq_init_sched(struct request_queue *q, struct elevator_type *e);
 void blk_mq_exit_sched(struct request_queue *q, struct elevator_queue *e);
+void blk_mq_sched_free_requests(struct request_queue *q);
 
 static inline bool
 blk_mq_sched_bio_merge(struct request_queue *q, struct bio *bio)
index 75b5281cc5772691066d4d0a8cfbecd6e4848232..977c659dcd1846f193ee525b36cd1c6ccecb2684 100644 (file)
@@ -850,7 +850,7 @@ static void blk_exit_queue(struct request_queue *q)
         */
        if (q->elevator) {
                ioc_clear_queue(q);
-               elevator_exit(q, q->elevator);
+               __elevator_exit(q, q->elevator);
                q->elevator = NULL;
        }
 
index 91b3581b7c7a47f882d8264f178e660d3b00e725..7814aa207153c0bd5cee7ea8f3b05745ee49e33a 100644 (file)
@@ -6,6 +6,7 @@
 #include <linux/blk-mq.h>
 #include <xen/xen.h>
 #include "blk-mq.h"
+#include "blk-mq-sched.h"
 
 /* Max future timer expiry for timeouts */
 #define BLK_MAX_TIMEOUT                (5 * HZ)
@@ -176,10 +177,17 @@ void blk_insert_flush(struct request *rq);
 int elevator_init_mq(struct request_queue *q);
 int elevator_switch_mq(struct request_queue *q,
                              struct elevator_type *new_e);
-void elevator_exit(struct request_queue *, struct elevator_queue *);
+void __elevator_exit(struct request_queue *, struct elevator_queue *);
 int elv_register_queue(struct request_queue *q);
 void elv_unregister_queue(struct request_queue *q);
 
+static inline void elevator_exit(struct request_queue *q,
+               struct elevator_queue *e)
+{
+       blk_mq_sched_free_requests(q);
+       __elevator_exit(q, e);
+}
+
 struct hd_struct *__disk_get_part(struct gendisk *disk, int partno);
 
 #ifdef CONFIG_FAIL_IO_TIMEOUT
index ec55d5fc0b3e75cf369182d61c6009cd7791c35e..2f17d66d0e617e31b9b8dfb76899b2a0dbc5f8aa 100644 (file)
@@ -178,7 +178,7 @@ static void elevator_release(struct kobject *kobj)
        kfree(e);
 }
 
-void elevator_exit(struct request_queue *q, struct elevator_queue *e)
+void __elevator_exit(struct request_queue *q, struct elevator_queue *e)
 {
        mutex_lock(&e->sysfs_lock);
        if (e->type->ops.exit_sched)