]> git.proxmox.com Git - mirror_ubuntu-eoan-kernel.git/commit
ARM64: mm: Move PTE_PROT_NONE bit.
authorSteve Capper <steve.capper@linaro.org>
Tue, 28 May 2013 12:35:51 +0000 (13:35 +0100)
committerSteve Capper <steve.capper@linaro.org>
Fri, 14 Jun 2013 08:52:19 +0000 (09:52 +0100)
commit59911ca4325dc7bd95e05c988fef3593b694e62c
treecc4a255ac8b12f57f946900f6c52e850691b2433
parent072b1b62a6436b71ab951faae4500db2fbed63de
ARM64: mm: Move PTE_PROT_NONE bit.

Under ARM64, PTEs can be broadly categorised as follows:
   - Present and valid: Bit #0 is set. The PTE is valid and memory
     access to the region may fault.

   - Present and invalid: Bit #0 is clear and bit #1 is set.
     Represents present memory with PROT_NONE protection. The PTE
     is an invalid entry, and the user fault handler will raise a
     SIGSEGV.

   - Not present (file or swap): Bits #0 and #1 are clear.
     Memory represented has been paged out. The PTE is an invalid
     entry, and the fault handler will try and re-populate the
     memory where necessary.

Huge PTEs are block descriptors that have bit #1 clear. If we wish
to represent PROT_NONE huge PTEs we then run into a problem as
there is no way to distinguish between regular and huge PTEs if we
set bit #1.

To resolve this ambiguity this patch moves PTE_PROT_NONE from
bit #1 to bit #2 and moves PTE_FILE from bit #2 to bit #3. The
number of swap/file bits is reduced by 1 as a consequence, leaving
60 bits for file and swap entries.

Signed-off-by: Steve Capper <steve.capper@linaro.org>
Acked-by: Catalin Marinas <catalin.marinas@arm.com>
arch/arm64/include/asm/pgtable.h