]> git.proxmox.com Git - mirror_ubuntu-eoan-kernel.git/commitdiff
slub: remove kmem_cache->reserved
authorMatthew Wilcox <mawilcox@microsoft.com>
Fri, 8 Jun 2018 00:09:10 +0000 (17:09 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Fri, 8 Jun 2018 00:34:37 +0000 (17:34 -0700)
The reserved field was only used for embedding an rcu_head in the data
structure.  With the previous commit, we no longer need it.  That lets us
remove the 'reserved' argument to a lot of functions.

Link: http://lkml.kernel.org/r/20180518194519.3820-16-willy@infradead.org
Signed-off-by: Matthew Wilcox <mawilcox@microsoft.com>
Acked-by: Christoph Lameter <cl@linux.com>
Cc: Dave Hansen <dave.hansen@linux.intel.com>
Cc: Jérôme Glisse <jglisse@redhat.com>
Cc: "Kirill A . Shutemov" <kirill.shutemov@linux.intel.com>
Cc: Lai Jiangshan <jiangshanlai@gmail.com>
Cc: Martin Schwidefsky <schwidefsky@de.ibm.com>
Cc: Pekka Enberg <penberg@kernel.org>
Cc: Randy Dunlap <rdunlap@infradead.org>
Cc: Vlastimil Babka <vbabka@suse.cz>
Cc: Andrey Ryabinin <aryabinin@virtuozzo.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
include/linux/slub_def.h
mm/slub.c

index 3773e26c08c103042e793b6292ea48a1e56abb6f..09fa2c6f0e68e69567b8b918cdda3f13f5ddaefa 100644 (file)
@@ -101,7 +101,6 @@ struct kmem_cache {
        void (*ctor)(void *);
        unsigned int inuse;             /* Offset to metadata */
        unsigned int align;             /* Alignment */
-       unsigned int reserved;          /* Reserved bytes at the end of slabs */
        unsigned int red_left_pad;      /* Left redzone padding size */
        const char *name;       /* Name (only for display!) */
        struct list_head list;  /* List of slab caches */
index d5bddf0f479292c542fb8e6606296d9049ed7a48..f885dcf09750f1c96c3f78bb8134311ab6b8ad81 100644 (file)
--- a/mm/slub.c
+++ b/mm/slub.c
@@ -316,16 +316,16 @@ static inline unsigned int slab_index(void *p, struct kmem_cache *s, void *addr)
        return (p - addr) / s->size;
 }
 
-static inline unsigned int order_objects(unsigned int order, unsigned int size, unsigned int reserved)
+static inline unsigned int order_objects(unsigned int order, unsigned int size)
 {
-       return (((unsigned int)PAGE_SIZE << order) - reserved) / size;
+       return ((unsigned int)PAGE_SIZE << order) / size;
 }
 
 static inline struct kmem_cache_order_objects oo_make(unsigned int order,
-               unsigned int size, unsigned int reserved)
+               unsigned int size)
 {
        struct kmem_cache_order_objects x = {
-               (order << OO_SHIFT) + order_objects(order, size, reserved)
+               (order << OO_SHIFT) + order_objects(order, size)
        };
 
        return x;
@@ -832,7 +832,7 @@ static int slab_pad_check(struct kmem_cache *s, struct page *page)
                return 1;
 
        start = page_address(page);
-       length = (PAGE_SIZE << compound_order(page)) - s->reserved;
+       length = PAGE_SIZE << compound_order(page);
        end = start + length;
        remainder = length % s->size;
        if (!remainder)
@@ -921,7 +921,7 @@ static int check_slab(struct kmem_cache *s, struct page *page)
                return 0;
        }
 
-       maxobj = order_objects(compound_order(page), s->size, s->reserved);
+       maxobj = order_objects(compound_order(page), s->size);
        if (page->objects > maxobj) {
                slab_err(s, page, "objects %u > max %u",
                        page->objects, maxobj);
@@ -971,7 +971,7 @@ static int on_freelist(struct kmem_cache *s, struct page *page, void *search)
                nr++;
        }
 
-       max_objects = order_objects(compound_order(page), s->size, s->reserved);
+       max_objects = order_objects(compound_order(page), s->size);
        if (max_objects > MAX_OBJS_PER_PAGE)
                max_objects = MAX_OBJS_PER_PAGE;
 
@@ -3193,21 +3193,21 @@ static unsigned int slub_min_objects;
  */
 static inline unsigned int slab_order(unsigned int size,
                unsigned int min_objects, unsigned int max_order,
-               unsigned int fract_leftover, unsigned int reserved)
+               unsigned int fract_leftover)
 {
        unsigned int min_order = slub_min_order;
        unsigned int order;
 
-       if (order_objects(min_order, size, reserved) > MAX_OBJS_PER_PAGE)
+       if (order_objects(min_order, size) > MAX_OBJS_PER_PAGE)
                return get_order(size * MAX_OBJS_PER_PAGE) - 1;
 
-       for (order = max(min_order, (unsigned int)get_order(min_objects * size + reserved));
+       for (order = max(min_order, (unsigned int)get_order(min_objects * size));
                        order <= max_order; order++) {
 
                unsigned int slab_size = (unsigned int)PAGE_SIZE << order;
                unsigned int rem;
 
-               rem = (slab_size - reserved) % size;
+               rem = slab_size % size;
 
                if (rem <= slab_size / fract_leftover)
                        break;
@@ -3216,7 +3216,7 @@ static inline unsigned int slab_order(unsigned int size,
        return order;
 }
 
-static inline int calculate_order(unsigned int size, unsigned int reserved)
+static inline int calculate_order(unsigned int size)
 {
        unsigned int order;
        unsigned int min_objects;
@@ -3233,7 +3233,7 @@ static inline int calculate_order(unsigned int size, unsigned int reserved)
        min_objects = slub_min_objects;
        if (!min_objects)
                min_objects = 4 * (fls(nr_cpu_ids) + 1);
-       max_objects = order_objects(slub_max_order, size, reserved);
+       max_objects = order_objects(slub_max_order, size);
        min_objects = min(min_objects, max_objects);
 
        while (min_objects > 1) {
@@ -3242,7 +3242,7 @@ static inline int calculate_order(unsigned int size, unsigned int reserved)
                fraction = 16;
                while (fraction >= 4) {
                        order = slab_order(size, min_objects,
-                                       slub_max_order, fraction, reserved);
+                                       slub_max_order, fraction);
                        if (order <= slub_max_order)
                                return order;
                        fraction /= 2;
@@ -3254,14 +3254,14 @@ static inline int calculate_order(unsigned int size, unsigned int reserved)
         * We were unable to place multiple objects in a slab. Now
         * lets see if we can place a single object there.
         */
-       order = slab_order(size, 1, slub_max_order, 1, reserved);
+       order = slab_order(size, 1, slub_max_order, 1);
        if (order <= slub_max_order)
                return order;
 
        /*
         * Doh this slab cannot be placed using slub_max_order.
         */
-       order = slab_order(size, 1, MAX_ORDER, 1, reserved);
+       order = slab_order(size, 1, MAX_ORDER, 1);
        if (order < MAX_ORDER)
                return order;
        return -ENOSYS;
@@ -3529,7 +3529,7 @@ static int calculate_sizes(struct kmem_cache *s, int forced_order)
        if (forced_order >= 0)
                order = forced_order;
        else
-               order = calculate_order(size, s->reserved);
+               order = calculate_order(size);
 
        if ((int)order < 0)
                return 0;
@@ -3547,8 +3547,8 @@ static int calculate_sizes(struct kmem_cache *s, int forced_order)
        /*
         * Determine the number of objects per slab
         */
-       s->oo = oo_make(order, size, s->reserved);
-       s->min = oo_make(get_order(size), size, s->reserved);
+       s->oo = oo_make(order, size);
+       s->min = oo_make(get_order(size), size);
        if (oo_objects(s->oo) > oo_objects(s->max))
                s->max = s->oo;
 
@@ -3558,7 +3558,6 @@ static int calculate_sizes(struct kmem_cache *s, int forced_order)
 static int kmem_cache_open(struct kmem_cache *s, slab_flags_t flags)
 {
        s->flags = kmem_cache_flags(s->size, flags, s->name, s->ctor);
-       s->reserved = 0;
 #ifdef CONFIG_SLAB_FREELIST_HARDENED
        s->random = get_random_long();
 #endif
@@ -5077,7 +5076,7 @@ SLAB_ATTR_RO(destroy_by_rcu);
 
 static ssize_t reserved_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%u\n", s->reserved);
+       return sprintf(buf, "0\n");
 }
 SLAB_ATTR_RO(reserved);