]> git.proxmox.com Git - pve-docs.git/blobdiff - pveceph.adoc
pvesm: fixup use CephFS
[pve-docs.git] / pveceph.adoc
index f240a89e9d2e2808d10f37685843002a0b106baf..2b061e5627e6e9d16ff5e51411b4033f74d62d95 100644 (file)
@@ -282,14 +282,14 @@ Creating Ceph Pools
 [thumbnail="screenshot/gui-ceph-pools.png"]
 
 A pool is a logical group for storing objects. It holds **P**lacement
-**G**roups (PG), a collection of objects.
+**G**roups (`PG`, `pg_num`), a collection of objects.
 
-When no options are given, we set a
-default of **64 PGs**, a **size of 3 replicas** and a **min_size of 2 replicas**
-for serving objects in a degraded state.
+When no options are given, we set a default of **128 PGs**, a **size of 3
+replicas** and a **min_size of 2 replicas** for serving objects in a degraded
+state.
 
-NOTE: The default number of PGs works for 2-6 disks. Ceph throws a
-"HEALTH_WARNING" if you have too few or too many PGs in your cluster.
+NOTE: The default number of PGs works for 2-5 disks. Ceph throws a
+'HEALTH_WARNING' if you have too few or too many PGs in your cluster.
 
 It is advised to calculate the PG number depending on your setup, you can find
 the formula and the PG calculator footnote:[PG calculator
@@ -509,7 +509,7 @@ storage configuration after it was created successfully.
 Destroy CephFS
 ~~~~~~~~~~~~~~
 
-WARN: Destroying a CephFS will render all its data unusable, this cannot be
+WARNING: Destroying a CephFS will render all its data unusable, this cannot be
 undone!
 
 If you really want to destroy an existing CephFS you first need to stop, or
@@ -524,7 +524,7 @@ on each {pve} node hosting a MDS daemon.
 Then, you can remove (destroy) CephFS by issuing a:
 
 ----
-ceph rm fs NAME --yes-i-really-mean-it
+ceph fs rm NAME --yes-i-really-mean-it
 ----
 on a single node hosting Ceph. After this you may want to remove the created
 data and metadata pools, this can be done either over the Web GUI or the CLI