]> git.proxmox.com Git - pve-docs.git/blobdiff - pveceph.adoc
Fix typo in pvesr.adoc
[pve-docs.git] / pveceph.adoc
index 38c7a8591b5a136399cda7f9a198072a68ab0f2e..ebf9ef7437aafd5ab12aeab32afc1d6dbe98b484 100644 (file)
@@ -243,7 +243,7 @@ The Ceph Monitor (MON)
 footnote:[Ceph Monitor http://docs.ceph.com/docs/luminous/start/intro/]
 maintains a master copy of the cluster map. For high availability you need to
 have at least 3 monitors. One monitor will already be installed if you
-used the installation wizard. You wont need more than 3 monitors as long
+used the installation wizard. You won't need more than 3 monitors as long
 as your cluster is small to midsize, only really large clusters will
 need more than that.
 
@@ -318,8 +318,7 @@ This is the default when creating OSDs since Ceph Luminous.
 pveceph createosd /dev/sd[X]
 ----
 
-Block.db and block.wal
-^^^^^^^^^^^^^^^^^^^^^^
+.Block.db and block.wal
 
 If you want to use a separate DB/WAL device for your OSDs, you can specify it
 through the '-db_dev' and '-wal_dev' options. The WAL is placed with the DB, if not
@@ -389,9 +388,9 @@ You can create pools through command line or on the GUI on each PVE host under
 pveceph createpool <name>
 ----
 
-If you would like to automatically get also a storage definition for your pool,
-active the checkbox "Add storages" on the GUI or use the command line option
-'--add_storages' on pool creation.
+If you would like to automatically also get a storage definition for your pool,
+mark the checkbox "Add storages" in the GUI or use the command line option
+'--add_storages' at pool creation.
 
 Further information on Ceph pool handling can be found in the Ceph pool
 operation footnote:[Ceph pool operation
@@ -487,7 +486,7 @@ You can then configure {pve} to use such pools to store VM or
 Container images. Simply use the GUI too add a new `RBD` storage (see
 section xref:ceph_rados_block_devices[Ceph RADOS Block Devices (RBD)]).
 
-You also need to copy the keyring to a predefined location for a external Ceph
+You also need to copy the keyring to a predefined location for an external Ceph
 cluster. If Ceph is installed on the Proxmox nodes itself, then this will be
 done automatically.
 
@@ -515,6 +514,8 @@ cluster, this way even high load will not overload a single host, which can be
 an issue with traditional shared filesystem approaches, like `NFS`, for
 example.
 
+[thumbnail="screenshot/gui-node-ceph-cephfs-panel.png"]
+
 {pve} supports both, using an existing xref:storage_cephfs[CephFS as storage]
 to save backups, ISO files or container templates and creating a
 hyper-converged CephFS itself.
@@ -548,8 +549,7 @@ will always poll the active one, so that it can take over faster as it is in a
 `warm` state. But naturally, the active polling will cause some additional
 performance impact on your system and active `MDS`.
 
-Multiple Active MDS
-^^^^^^^^^^^^^^^^^^^
+.Multiple Active MDS
 
 Since Luminous (12.2.x) you can also have multiple active metadata servers
 running, but this is normally only useful for a high count on parallel clients,
@@ -598,7 +598,7 @@ WARNING: Destroying a CephFS will render all its data unusable, this cannot be
 undone!
 
 If you really want to destroy an existing CephFS you first need to stop, or
-destroy, all metadata server (`M̀DS`). You can destroy them either over the Web
+destroy, all metadata servers (`M̀DS`). You can destroy them either over the Web
 GUI or the command line interface, with:
 
 ----
@@ -629,7 +629,7 @@ the status through the {pve} link:api-viewer/index.html[API].
 The following ceph commands below can be used to see if the cluster is healthy
 ('HEALTH_OK'), if there are warnings ('HEALTH_WARN'), or even errors
 ('HEALTH_ERR'). If the cluster is in an unhealthy state the status commands
-below will also give you an overview on the current events and actions take.
+below will also give you an overview of the current events and actions to take.
 
 ----
 # single time output
@@ -644,7 +644,7 @@ adjusted footnote:[Ceph log and debugging http://docs.ceph.com/docs/luminous/rad
 
 You can find more information about troubleshooting
 footnote:[Ceph troubleshooting http://docs.ceph.com/docs/luminous/rados/troubleshooting/]
-a Ceph cluster on its website.
+a Ceph cluster on the official website.
 
 
 ifdef::manvolnum[]