]> git.proxmox.com Git - pve-docs.git/blobdiff - pveceph.adoc
backup: refer to our hosted prune simulator
[pve-docs.git] / pveceph.adoc
index 84a45d5429882ac39d64eb4237766c1667548301..fd3fded3db404199c0d8c2998892d5828952188c 100644 (file)
@@ -462,6 +462,10 @@ state.
 NOTE: The default number of PGs works for 2-5 disks. Ceph throws a
 'HEALTH_WARNING' if you have too few or too many PGs in your cluster.
 
+WARNING: **Do not set a min_size of 1**. A replicated pool with min_size of 1
+allows I/O on an object when it has only 1 replica which could lead to data
+loss, incomplete PGs or unfound objects.
+
 It is advised to calculate the PG number depending on your setup, you can find
 the formula and the PG calculator footnote:[PG calculator
 https://ceph.com/pgcalc/] online. From Ceph Nautilus onwards it is possible to
@@ -790,7 +794,7 @@ are executed.
 
 Ceph monitoring and troubleshooting
 -----------------------------------
-A good start is to continuosly monitor the ceph health from the start of
+A good start is to continuously monitor the ceph health from the start of
 initial deployment. Either through the ceph tools itself, but also by accessing
 the status through the {pve} link:api-viewer/index.html[API].