]> git.proxmox.com Git - ceph.git/blobdiff - ceph/doc/rados/configuration/pool-pg.conf
import quincy beta 17.1.0
[ceph.git] / ceph / doc / rados / configuration / pool-pg.conf
index 34c3af9f091654d5e6c5e2d8cf459c9db3a84a5f..68021bfaedfc1762248d6f8a91368ab8f388c1ac 100644 (file)
@@ -3,12 +3,12 @@
        # By default, Ceph makes 3 replicas of RADOS objects. If you want to maintain four
        # copies of an object the default value--a primary copy and three replica
        # copies--reset the default values as shown in 'osd_pool_default_size'.
-       # If you want to allow Ceph to write a lesser number of copies in a degraded
-       # state, set 'osd_pool_default_min_size' to a number less than the
-       # 'osd_pool_default_size' value.
+       # If you want to allow Ceph to accept an I/O operation to a degraded PG,
+       # set 'osd_pool_default_min_size' to a number less than the
+       # 'osd pool default size' value.
 
        osd_pool_default_size = 3  # Write an object 3 times.
-       osd_pool_default_min_size = 2 # Allow writing two copies in a degraded state.
+       osd_pool_default_min size = 2 # Accept an I/O operation to a PG that has two copies of an object.
 
        # Ensure you have a realistic number of placement groups. We recommend
        # approximately 100 per OSD. E.g., total number of OSDs multiplied by 100