]> git.proxmox.com Git - mirror_ubuntu-artful-kernel.git/blobdiff - mm/sparse.c
UBUNTU: [Config] CONFIG_VIDEO_VIMC=m
[mirror_ubuntu-artful-kernel.git] / mm / sparse.c
index 7b4be3fd5cac074177b7f17ebdeb12dfa56d22e5..293cb5d147f043ca598944287f44c537324b568f 100644 (file)
@@ -22,8 +22,7 @@
  * 1) mem_section      - memory sections, mem_map's for valid memory
  */
 #ifdef CONFIG_SPARSEMEM_EXTREME
-struct mem_section *mem_section[NR_SECTION_ROOTS]
-       ____cacheline_internodealigned_in_smp;
+struct mem_section **mem_section;
 #else
 struct mem_section mem_section[NR_SECTION_ROOTS][SECTIONS_PER_ROOT]
        ____cacheline_internodealigned_in_smp;
@@ -104,7 +103,7 @@ static inline int sparse_index_init(unsigned long section_nr, int nid)
 int __section_nr(struct mem_section* ms)
 {
        unsigned long root_nr;
-       struct mem_section* root;
+       struct mem_section *root = NULL;
 
        for (root_nr = 0; root_nr < NR_SECTION_ROOTS; root_nr++) {
                root = __nr_to_section(root_nr * SECTIONS_PER_ROOT);
@@ -115,7 +114,7 @@ int __section_nr(struct mem_section* ms)
                     break;
        }
 
-       VM_BUG_ON(root_nr == NR_SECTION_ROOTS);
+       VM_BUG_ON(!root);
 
        return (root_nr * SECTIONS_PER_ROOT) + (ms - root);
 }
@@ -211,6 +210,16 @@ void __init memory_present(int nid, unsigned long start, unsigned long end)
 {
        unsigned long pfn;
 
+#ifdef CONFIG_SPARSEMEM_EXTREME
+       if (unlikely(!mem_section)) {
+               unsigned long size, align;
+
+               size = sizeof(struct mem_section) * NR_SECTION_ROOTS;
+               align = 1 << (INTERNODE_CACHE_SHIFT);
+               mem_section = memblock_virt_alloc(size, align);
+       }
+#endif
+
        start &= PAGE_SECTION_MASK;
        mminit_validate_memmodel_limits(&start, &end);
        for (pfn = start; pfn < end; pfn += PAGES_PER_SECTION) {
@@ -333,11 +342,17 @@ again:
 static void __init check_usemap_section_nr(int nid, unsigned long *usemap)
 {
        unsigned long usemap_snr, pgdat_snr;
-       static unsigned long old_usemap_snr = NR_MEM_SECTIONS;
-       static unsigned long old_pgdat_snr = NR_MEM_SECTIONS;
+       static unsigned long old_usemap_snr;
+       static unsigned long old_pgdat_snr;
        struct pglist_data *pgdat = NODE_DATA(nid);
        int usemap_nid;
 
+       /* First call */
+       if (!old_usemap_snr) {
+               old_usemap_snr = NR_MEM_SECTIONS;
+               old_pgdat_snr = NR_MEM_SECTIONS;
+       }
+
        usemap_snr = pfn_to_section_nr(__pa(usemap) >> PAGE_SHIFT);
        pgdat_snr = pfn_to_section_nr(__pa(pgdat) >> PAGE_SHIFT);
        if (usemap_snr == pgdat_snr)
@@ -630,7 +645,7 @@ void online_mem_sections(unsigned long start_pfn, unsigned long end_pfn)
        unsigned long pfn;
 
        for (pfn = start_pfn; pfn < end_pfn; pfn += PAGES_PER_SECTION) {
-               unsigned long section_nr = pfn_to_section_nr(start_pfn);
+               unsigned long section_nr = pfn_to_section_nr(pfn);
                struct mem_section *ms;
 
                /* onlining code should never touch invalid ranges */
@@ -761,9 +776,10 @@ static void free_map_bootmem(struct page *memmap)
  * set.  If this is <=0, then that means that the passed-in
  * map was not consumed and must be freed.
  */
-int __meminit sparse_add_one_section(struct pglist_data *pgdat, unsigned long start_pfn)
+int __meminit sparse_add_one_section(struct zone *zone, unsigned long start_pfn)
 {
        unsigned long section_nr = pfn_to_section_nr(start_pfn);
+       struct pglist_data *pgdat = zone->zone_pgdat;
        struct mem_section *ms;
        struct page *memmap;
        unsigned long *usemap;