CVE-2024-50066

In the Linux kernel, the following vulnerability has been resolved: mm/mremap: fix move_normal_pmd/retract_page_tables race In mremap(), move_page_tables() looks at the type of the PMD entry and the specified address range to figure out by which method the next chunk of page table entries should be moved. At that point, the mmap_lock is held in write mode, but no rmap locks are held yet. For PMD entries that point to page tables and are fully covered by the source address range, move_pgt_entry(NORMAL_PMD, ...) is called, which first takes rmap locks, then does move_normal_pmd(). move_normal_pmd() takes the necessary page table locks at source and destination, then moves an entire page table from the source to the destination. The problem is: The rmap locks, which protect against concurrent page table removal by retract_page_tables() in the THP code, are only taken after the PMD entry has been read and it has been decided how to move it. So we can race as follows (with two processes that have mappings of the same tmpfs file that is stored on a tmpfs mount with huge=advise); note that process A accesses page tables through the MM while process B does it through the file rmap: process A process B ========= ========= mremap mremap_to move_vma move_page_tables get_old_pmd alloc_new_pmd *** PREEMPT *** madvise(MADV_COLLAPSE) do_madvise madvise_walk_vmas madvise_vma_behavior madvise_collapse hpage_collapse_scan_file collapse_file retract_page_tables i_mmap_lock_read(mapping) pmdp_collapse_flush i_mmap_unlock_read(mapping) move_pgt_entry(NORMAL_PMD, ...) take_rmap_locks move_normal_pmd drop_rmap_locks When this happens, move_normal_pmd() can end up creating bogus PMD entries in the line `pmd_populate(mm, new_pmd, pmd_pgtable(pmd))`. The effect depends on arch-specific and machine-specific details; on x86, you can end up with physical page 0 mapped as a page table, which is likely exploitable for user->kernel privilege escalation. Fix the race by letting process B recheck that the PMD still points to a page table after the rmap locks have been taken. Otherwise, we bail and let the caller fall back to the PTE-level copying path, which will then bail immediately at the pmd_none() check. Bug reachability: Reaching this bug requires that you can create shmem/file THP mappings - anonymous THP uses different code that doesn't zap stuff under rmap locks. File THP is gated on an experimental config flag (CONFIG_READ_ONLY_THP_FOR_FS), so on normal distro kernels you need shmem THP to hit this bug. As far as I know, getting shmem THP normally requires that you can mount your own tmpfs with the right mount flags, which would require creating your own user+mount namespace; though I don't know if some distros maybe enable shmem THP by default or something like that. Bug impact: This issue can likely be used for user->kernel privilege escalation when it is reachable.
Configurations

Configuration 1 (hide)

OR cpe:2.3:o:linux:linux_kernel:*:*:*:*:*:*:*:*
cpe:2.3:o:linux:linux_kernel:*:*:*:*:*:*:*:*
cpe:2.3:o:linux:linux_kernel:6.12:rc1:*:*:*:*:*:*
cpe:2.3:o:linux:linux_kernel:6.12:rc2:*:*:*:*:*:*
cpe:2.3:o:linux:linux_kernel:6.12:rc3:*:*:*:*:*:*

History

22 Nov 2024, 15:15

Type Values Removed Values Added
References
  • () https://project-zero.issues.chromium.org/issues/371047675 -

05 Nov 2024, 20:19

Type Values Removed Values Added
First Time Linux
Linux linux Kernel
CPE cpe:2.3:o:linux:linux_kernel:6.12:rc1:*:*:*:*:*:*
cpe:2.3:o:linux:linux_kernel:6.12:rc2:*:*:*:*:*:*
cpe:2.3:o:linux:linux_kernel:*:*:*:*:*:*:*:*
cpe:2.3:o:linux:linux_kernel:6.12:rc3:*:*:*:*:*:*
References () https://git.kernel.org/stable/c/1552ce9ce8af47c0fe911682e5e1855e25851ca9 - () https://git.kernel.org/stable/c/1552ce9ce8af47c0fe911682e5e1855e25851ca9 - Patch
References () https://git.kernel.org/stable/c/17396e32f975130b3e6251f024c8807d192e4c3e - () https://git.kernel.org/stable/c/17396e32f975130b3e6251f024c8807d192e4c3e - Patch
References () https://git.kernel.org/stable/c/6fa1066fc5d00cb9f1b0e83b7ff6ef98d26ba2aa - () https://git.kernel.org/stable/c/6fa1066fc5d00cb9f1b0e83b7ff6ef98d26ba2aa - Patch
CWE CWE-362
CVSS v2 : unknown
v3 : unknown
v2 : unknown
v3 : 7.0

23 Oct 2024, 15:12

Type Values Removed Values Added
Summary
  • (es) En el kernel de Linux, se ha resuelto la siguiente vulnerabilidad: mm/mremap: corrección de la ejecución move_normal_pmd/retract_page_tables En mremap(), move_page_tables() examina el tipo de entrada PMD y el rango de direcciones especificado para determinar mediante qué método se debe mover el siguiente fragmento de entradas de la tabla de páginas. En ese punto, el mmap_lock se mantiene en modo de escritura, pero aún no se mantienen bloqueos rmap. Para las entradas PMD que apuntan a tablas de páginas y están completamente cubiertas por el rango de direcciones de origen, se llama a move_pgt_entry(NORMAL_PMD, ...), que primero toma bloqueos rmap y luego realiza move_normal_pmd(). move_normal_pmd() toma los bloqueos de tabla de páginas necesarios en el origen y el destino, luego mueve una tabla de páginas completa desde el origen hasta el destino. El problema es el siguiente: los bloqueos de rmap, que protegen contra la eliminación simultánea de tablas de páginas por retract_page_tables() en el código THP, solo se toman después de que se haya leído la entrada PMD y se haya decidido cómo moverla. Por lo tanto, podemos competir de la siguiente manera (con dos procesos que tienen asignaciones del mismo archivo tmpfs que está almacenado en un montaje tmpfs con huge=advise); tenga en cuenta que el proceso A accede a las tablas de páginas a través del MM mientras que el proceso B lo hace a través del archivo rmap: proceso A proceso B ========= ========= mremap mremap_to move_vma move_page_tables get_old_pmd alloc_new_pmd *** PREEMPT *** madvise(MADV_COLLAPSE) do_madvise madvise_walk_vmas madvise_vma_behavior madvise_collapse hpage_collapse_scan_file collapse_file retract_page_tables i_mmap_lock_read(mapping) pmdp_collapse_flush i_mmap_unlock_read(mapping) move_pgt_entry(NORMAL_PMD, ...) take_rmap_locks move_normal_pmd drop_rmap_locks Cuando esto sucede, move_normal_pmd() puede terminar creando entradas PMD falsas en la línea `pmd_populate(mm, new_pmd, pmd_pgtable(pmd))`. El efecto depende de detalles específicos de la arquitectura y de la máquina; en x86, puede terminar con la página física 0 mapeada como una tabla de páginas, lo que probablemente sea explotable para la escalada de privilegios de usuario a kernel. Arregle la ejecución permitiendo que el proceso B vuelva a verificar que el PMD aún apunta a una tabla de páginas después de que se hayan tomado los bloqueos rmap. De lo contrario, abandonamos y dejamos que el llamador vuelva a la ruta de copia de nivel PTE, que luego abandonará inmediatamente en la verificación pmd_none(). Alcance del error: Alcanzar este error requiere que pueda crear asignaciones shmem/file THP - el THP anónimo usa un código diferente que no elimina cosas bajo bloqueos rmap. El THP de archivo está controlado por un indicador de configuración experimental (CONFIG_READ_ONLY_THP_FOR_FS), por lo que en los núcleos de distribución normales necesita shmem THP para alcanzar este error. Hasta donde yo sé, obtener shmem THP normalmente requiere que puedas montar tu propio tmpfs con los indicadores de montaje correctos, lo que requeriría crear tu propio espacio de nombres de usuario+montaje; aunque no sé si algunas distribuciones habilitan shmem THP de forma predeterminada o algo así. Impacto del error: es probable que este problema se pueda usar para la escalada de privilegios de usuario a kernel cuando sea posible.

23 Oct 2024, 06:15

Type Values Removed Values Added
New CVE

Information

Published : 2024-10-23 06:15

Updated : 2024-11-22 15:15


NVD link : CVE-2024-50066

Mitre link : CVE-2024-50066

CVE.ORG link : CVE-2024-50066


JSON object : View

Products Affected

linux

  • linux_kernel
CWE
CWE-362

Concurrent Execution using Shared Resource with Improper Synchronization ('Race Condition')