]> git.proxmox.com Git - ceph.git/blobdiff - ceph/doc/rados/operations/placement-groups.rst
update ceph source to reef 18.2.1
[ceph.git] / ceph / doc / rados / operations / placement-groups.rst
index 2fd4907304dce3411f8f9783da0365f2789abec2..dda4a017715d83d76ec79f333c8438bde479ad61 100644 (file)
@@ -210,6 +210,11 @@ process. We recommend constraining each pool so that it belongs to only one
 root (that is, one OSD class) to silence the warning and ensure a successful
 scaling process.
 
+.. _managing_bulk_flagged_pools:
+
+Managing pools that are flagged with ``bulk``
+~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
+
 If a pool is flagged ``bulk``, then the autoscaler starts the pool with a full
 complement of PGs and then scales down the number of PGs only if the usage
 ratio across the pool is uneven.  However, if a pool is not flagged ``bulk``,
@@ -659,6 +664,7 @@ In releases of Ceph that are Nautilus and later (inclusive), when the
 ``pg_num``. This process manifests as periods of remapping of PGs and of
 backfill, and is expected behavior and normal.
 
+.. _rados_ops_pgs_get_pg_num:
 
 Get the Number of PGs
 =====================