]> git.proxmox.com Git - mirror_ubuntu-artful-kernel.git/commitdiff
dm cache: age and write back cache entries even without active IO
authorJoe Thornber <ejt@redhat.com>
Fri, 29 May 2015 09:20:56 +0000 (10:20 +0100)
committerMike Snitzer <snitzer@redhat.com>
Thu, 11 Jun 2015 21:13:01 +0000 (17:13 -0400)
The policy tick() method is normally called from interrupt context.
Both the mq and smq policies do some bottom half work for the tick
method in their map functions.  However if no IO is going through the
cache, then that bottom half work doesn't occur.  With these policies
this means recently hit entries do not age and do not get written
back as early as we'd like.

Fix this by introducing a new 'can_block' parameter to the tick()
method.  When this is set the bottom half work occurs immediately.
'can_block' is set when the tick method is called every second by the
core target (not in interrupt context).

Signed-off-by: Joe Thornber <ejt@redhat.com>
Signed-off-by: Mike Snitzer <snitzer@redhat.com>
drivers/md/dm-cache-policy-internal.h
drivers/md/dm-cache-policy-mq.c
drivers/md/dm-cache-policy-smq.c
drivers/md/dm-cache-policy.h
drivers/md/dm-cache-target.c

index ccbe852d53622055a0799b1d85d583c765e11f27..2816018faa7ffc96e27649742410b41f05b3153d 100644 (file)
@@ -83,10 +83,10 @@ static inline dm_cblock_t policy_residency(struct dm_cache_policy *p)
        return p->residency(p);
 }
 
-static inline void policy_tick(struct dm_cache_policy *p)
+static inline void policy_tick(struct dm_cache_policy *p, bool can_block)
 {
        if (p->tick)
-               return p->tick(p);
+               return p->tick(p, can_block);
 }
 
 static inline int policy_emit_config_values(struct dm_cache_policy *p, char *result,
index 084eec6533210e22a3760c985ffc44f3a69ce5f1..838665bb495a73ce56a426fa2362cc79ca018f6d 100644 (file)
@@ -1283,7 +1283,7 @@ static dm_cblock_t mq_residency(struct dm_cache_policy *p)
        return r;
 }
 
-static void mq_tick(struct dm_cache_policy *p)
+static void mq_tick(struct dm_cache_policy *p, bool can_block)
 {
        struct mq_policy *mq = to_mq_policy(p);
        unsigned long flags;
@@ -1291,6 +1291,12 @@ static void mq_tick(struct dm_cache_policy *p)
        spin_lock_irqsave(&mq->tick_lock, flags);
        mq->tick_protected++;
        spin_unlock_irqrestore(&mq->tick_lock, flags);
+
+       if (can_block) {
+               mutex_lock(&mq->lock);
+               copy_tick(mq);
+               mutex_unlock(&mq->lock);
+       }
 }
 
 static int mq_set_config_value(struct dm_cache_policy *p,
index 55a657f78f00d4377b9b1fa61c77fe293ba75728..66feb307e697a56878bd7dce70df0775fe894eaa 100644 (file)
@@ -1581,7 +1581,7 @@ static dm_cblock_t smq_residency(struct dm_cache_policy *p)
        return r;
 }
 
-static void smq_tick(struct dm_cache_policy *p)
+static void smq_tick(struct dm_cache_policy *p, bool can_block)
 {
        struct smq_policy *mq = to_smq_policy(p);
        unsigned long flags;
@@ -1589,6 +1589,12 @@ static void smq_tick(struct dm_cache_policy *p)
        spin_lock_irqsave(&mq->tick_lock, flags);
        mq->tick_protected++;
        spin_unlock_irqrestore(&mq->tick_lock, flags);
+
+       if (can_block) {
+               mutex_lock(&mq->lock);
+               copy_tick(mq);
+               mutex_unlock(&mq->lock);
+       }
 }
 
 /* Init the policy plugin interface function pointers. */
index 74709129d856adfa2eb213338ea5c74792317506..05db56eedb6a761ae42d3f1c09cdd803c540d8c0 100644 (file)
@@ -200,10 +200,10 @@ struct dm_cache_policy {
         * Because of where we sit in the block layer, we can be asked to
         * map a lot of little bios that are all in the same block (no
         * queue merging has occurred).  To stop the policy being fooled by
-        * these the core target sends regular tick() calls to the policy.
+        * these, the core target sends regular tick() calls to the policy.
         * The policy should only count an entry as hit once per tick.
         */
-       void (*tick)(struct dm_cache_policy *p);
+       void (*tick)(struct dm_cache_policy *p, bool can_block);
 
        /*
         * Configuration.
index 5aad875b822c44e0e2beffc8ae2c56c58c17ebef..1b4e1756b169dab9d7377dcea444087176830652 100644 (file)
@@ -2271,7 +2271,7 @@ static void do_worker(struct work_struct *ws)
 static void do_waker(struct work_struct *ws)
 {
        struct cache *cache = container_of(to_delayed_work(ws), struct cache, waker);
-       policy_tick(cache->policy);
+       policy_tick(cache->policy, true);
        wake_worker(cache);
        queue_delayed_work(cache->wq, &cache->waker, COMMIT_PERIOD);
 }
@@ -3148,7 +3148,7 @@ static int cache_end_io(struct dm_target *ti, struct bio *bio, int error)
        struct per_bio_data *pb = get_per_bio_data(bio, pb_data_size);
 
        if (pb->tick) {
-               policy_tick(cache->policy);
+               policy_tick(cache->policy, false);
 
                spin_lock_irqsave(&cache->lock, flags);
                cache->need_tick_bio = true;