]> git.proxmox.com Git - mirror_ubuntu-jammy-kernel.git/commitdiff
mm, page_alloc: move draining pcplists to page isolation users
authorVlastimil Babka <vbabka@suse.cz>
Tue, 15 Dec 2020 03:10:56 +0000 (19:10 -0800)
committerLinus Torvalds <torvalds@linux-foundation.org>
Tue, 15 Dec 2020 20:13:43 +0000 (12:13 -0800)
Currently, pcplists are drained during set_migratetype_isolate() which
means once per pageblock processed start_isolate_page_range().  This is
somewhat wasteful.  Moreover, the callers might need different guarantees,
and the draining is currently prone to races and does not guarantee that
no page from isolated pageblock will end up on the pcplist after the
drain.

Better guarantees are added by later patches and require explicit actions
by page isolation users that need them.  Thus it makes sense to move the
current imperfect draining to the callers also as a preparation step.

Link: https://lkml.kernel.org/r/20201111092812.11329-7-vbabka@suse.cz
Suggested-by: David Hildenbrand <david@redhat.com>
Suggested-by: Pavel Tatashin <pasha.tatashin@soleen.com>
Signed-off-by: Vlastimil Babka <vbabka@suse.cz>
Reviewed-by: David Hildenbrand <david@redhat.com>
Reviewed-by: Oscar Salvador <osalvador@suse.de>
Acked-by: Michal Hocko <mhocko@suse.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
mm/memory_hotplug.c
mm/page_alloc.c
mm/page_isolation.c

index 41c62295292b7104b5285539d7cc4abe6be75d57..3c494ab0d075742e3779eb6bb770a0c80ff4f1c1 100644 (file)
@@ -1500,6 +1500,8 @@ int __ref offline_pages(unsigned long start_pfn, unsigned long nr_pages)
                goto failed_removal;
        }
 
+       drain_all_pages(zone);
+
        arg.start_pfn = start_pfn;
        arg.nr_pages = nr_pages;
        node_states_check_changes_offline(nr_pages, zone, &arg);
@@ -1550,11 +1552,10 @@ int __ref offline_pages(unsigned long start_pfn, unsigned long nr_pages)
                }
 
                /*
-                * per-cpu pages are drained in start_isolate_page_range, but if
-                * there are still pages that are not free, make sure that we
-                * drain again, because when we isolated range we might
-                * have raced with another thread that was adding pages to pcp
-                * list.
+                * per-cpu pages are drained after start_isolate_page_range, but
+                * if there are still pages that are not free, make sure that we
+                * drain again, because when we isolated range we might have
+                * raced with another thread that was adding pages to pcp list.
                 *
                 * Forward progress should be still guaranteed because
                 * pages on the pcp list can only belong to MOVABLE_ZONE
index c3d1752b57dc012cd2b2a2d38e784e91b6388878..a259c22e46093f27f8d9cb5b7e42142a77f65c6b 100644 (file)
@@ -8528,6 +8528,8 @@ int alloc_contig_range(unsigned long start, unsigned long end,
        if (ret)
                return ret;
 
+       drain_all_pages(cc.zone);
+
        /*
         * In case of -EBUSY, we'd like to know which page causes problem.
         * So, just fall through. test_pages_isolated() has a tracepoint
index abbf422144850977dfba2f657c63330e5d2da217..feab446d198282f81f086a746f70320a6f411141 100644 (file)
@@ -49,7 +49,6 @@ static int set_migratetype_isolate(struct page *page, int migratetype, int isol_
 
                __mod_zone_freepage_state(zone, -nr_pages, mt);
                spin_unlock_irqrestore(&zone->lock, flags);
-               drain_all_pages(zone);
                return 0;
        }
 
@@ -172,11 +171,12 @@ __first_valid_page(unsigned long pfn, unsigned long nr_pages)
  *
  * Please note that there is no strong synchronization with the page allocator
  * either. Pages might be freed while their page blocks are marked ISOLATED.
- * In some cases pages might still end up on pcp lists and that would allow
+ * A call to drain_all_pages() after isolation can flush most of them. However
+ * in some cases pages might still end up on pcp lists and that would allow
  * for their allocation even when they are in fact isolated already. Depending
- * on how strong of a guarantee the caller needs drain_all_pages might be needed
- * (e.g. __offline_pages will need to call it after check for isolated range for
- * a next retry).
+ * on how strong of a guarantee the caller needs, further drain_all_pages()
+ * might be needed (e.g. __offline_pages will need to call it after check for
+ * isolated range for a next retry).
  *
  * Return: 0 on success and -EBUSY if any part of range cannot be isolated.
  */