]> git.proxmox.com Git - pve-docs.git/blobdiff - pveceph.adoc
Fixed typo in Ceph Metadata Server documentation
[pve-docs.git] / pveceph.adoc
index 601520616efd59c8d3b9071f2eb10f19c5909cf0..c90a92e3c49b3820837e758a40953910c54ccb5e 100644 (file)
@@ -427,7 +427,7 @@ POSIX-compliant replicated filesystem. This allows one to have a clustered
 highly available shared filesystem in an easy way if ceph is already used.  Its
 Metadata Servers guarantee that files get balanced out over the whole Ceph
 cluster, this way even high load will not overload a single host, which can be
-be an issue with traditional shared filesystem approaches, like `NFS`, for
+an issue with traditional shared filesystem approaches, like `NFS`, for
 example.
 
 {pve} supports both, using an existing xref:storage_cephfs[CephFS as storage])
@@ -460,7 +460,7 @@ mds standby replay = true
 
 in the ceph.conf respective MDS section. With this enabled, this specific MDS
 will always poll the active one, so that it can take over faster as it is in a
-`warm' state. But naturally, the active polling will cause some additional
+`warm` state. But naturally, the active polling will cause some additional
 performance impact on your system and active `MDS`.
 
 Multiple Active MDS
@@ -509,7 +509,7 @@ storage configuration after it was created successfully.
 Destroy CephFS
 ~~~~~~~~~~~~~~
 
-WARN: Destroying a CephFS will render all its data unusable, this cannot be
+WARNING: Destroying a CephFS will render all its data unusable, this cannot be
 undone!
 
 If you really want to destroy an existing CephFS you first need to stop, or
@@ -524,7 +524,7 @@ on each {pve} node hosting a MDS daemon.
 Then, you can remove (destroy) CephFS by issuing a:
 
 ----
-ceph rm fs NAME --yes-i-really-mean-it
+ceph fs rm NAME --yes-i-really-mean-it
 ----
 on a single node hosting Ceph. After this you may want to remove the created
 data and metadata pools, this can be done either over the Web GUI or the CLI