]> git.proxmox.com Git - mirror_spl.git/commitdiff
Add spl_kmem_cache_reclaim module option
authorBrian Behlendorf <behlendorf1@llnl.gov>
Fri, 16 May 2014 16:29:21 +0000 (09:29 -0700)
committerBrian Behlendorf <behlendorf1@llnl.gov>
Thu, 22 May 2014 17:30:12 +0000 (10:30 -0700)
The correct behavior for all registered shrinkers is to return the
number of objects in their cache.  In theory this allows the Linux
VM to balance memory reclaim across all registered caches.

In commit b9b3715 this behavior was disabled in favor of returning
-1 which notifies the VM that no additional objects are available
for reclaim.  This was done as a workaround to resolve thrashing
in shrink_slabs() which could occur when memory was low and numerous
core where in reclaim.  Unfortunately, this has been observed to
increase the likelihood of OOM events when SPL slab consumers are
responsible for consuming the majority of memory.

Therefore, this patch makes this behavior tunable.  Setting the
spl_kmem_cache_reclaim module option to 0x1 will result in the
shrinker only being called once.  This is the default behavior.

Signed-off-by: Brian Behlendorf <behlendorf1@llnl.gov>
Signed-off-by: Prakash Surya <surya1@llnl.gov>
Closes #358

include/sys/kmem.h
module/spl/spl-kmem.c

index 18533fe39b7b6b2a019e1bb30f397bb22203aca5..3418d3dd41103f5c233a5648e2656cd82cac22d4 100644 (file)
@@ -385,6 +385,8 @@ typedef enum kmem_cbrc {
 #define KMC_EXPIRE_AGE         0x1     /* Due to age */
 #define KMC_EXPIRE_MEM         0x2     /* Due to low memory */
 
+#define        KMC_RECLAIM_ONCE        0x1     /* Force a single shrinker pass */
+
 extern unsigned int spl_kmem_cache_expire;
 extern struct list_head spl_kmem_cache_list;
 extern struct rw_semaphore spl_kmem_cache_sem;
index fc04604d5b4e0c8a9286329f5112acbff811d192..e458c202013143d5fdf570007539adc9e55f542d 100644 (file)
@@ -57,6 +57,16 @@ EXPORT_SYMBOL(spl_kmem_cache_expire);
 module_param(spl_kmem_cache_expire, uint, 0644);
 MODULE_PARM_DESC(spl_kmem_cache_expire, "By age (0x1) or low memory (0x2)");
 
+/*
+ * KMC_RECLAIM_ONCE is set as the default until zfsonlinux/spl#268 is
+ * definitively resolved.  Depending on the system configuration and
+ * workload this may increase the likelihood of out of memory events.
+ * For those cases it is advised that this option be set to zero.
+ */
+unsigned int spl_kmem_cache_reclaim = KMC_RECLAIM_ONCE;
+module_param(spl_kmem_cache_reclaim, uint, 0644);
+MODULE_PARM_DESC(spl_kmem_cache_reclaim, "Single reclaim pass (0x1)");
+
 unsigned int spl_kmem_cache_obj_per_slab = SPL_KMEM_CACHE_OBJ_PER_SLAB;
 module_param(spl_kmem_cache_obj_per_slab, uint, 0644);
 MODULE_PARM_DESC(spl_kmem_cache_obj_per_slab, "Number of objects per slab");
@@ -2235,7 +2245,7 @@ __spl_kmem_cache_generic_shrinker(struct shrinker *shrink,
     struct shrink_control *sc)
 {
        spl_kmem_cache_t *skc;
-       int unused = 0;
+       int alloc = 0;
 
        down_read(&spl_kmem_cache_sem);
        list_for_each_entry(skc, &spl_kmem_cache_list, skc_list) {
@@ -2244,24 +2254,25 @@ __spl_kmem_cache_generic_shrinker(struct shrinker *shrink,
                           MAX(sc->nr_to_scan >> fls64(skc->skc_slab_objs), 1));
 
                /*
-                * Presume everything alloc'ed in reclaimable, this ensures
+                * Presume everything alloc'ed is reclaimable, this ensures
                 * we are called again with nr_to_scan > 0 so can try and
                 * reclaim.  The exact number is not important either so
                 * we forgo taking this already highly contented lock.
                 */
-               unused += skc->skc_obj_alloc;
+               alloc += skc->skc_obj_alloc;
        }
        up_read(&spl_kmem_cache_sem);
 
        /*
-        * After performing reclaim always return -1 to indicate we cannot
-        * perform additional reclaim.  This prevents shrink_slabs() from
-        * repeatedly invoking this generic shrinker and potentially spinning.
+        * When KMC_RECLAIM_ONCE is set allow only a single reclaim pass.
+        * This functionality only exists to work around a rare issue where
+        * shrink_slabs() is repeatedly invoked by many cores causing the
+        * system to thrash.
         */
-       if (sc->nr_to_scan)
-               return -1;
+       if ((spl_kmem_cache_reclaim & KMC_RECLAIM_ONCE) && sc->nr_to_scan)
+               return (-1);
 
-       return unused;
+       return MAX((alloc * sysctl_vfs_cache_pressure) / 100, 0);
 }
 
 SPL_SHRINKER_CALLBACK_WRAPPER(spl_kmem_cache_generic_shrinker);