]> git.proxmox.com Git - pve-docs.git/blobdiff - pveceph.adoc
totp: fix copy/paste mistake
[pve-docs.git] / pveceph.adoc
index 56d745ac859259c8b9c2e524ea5dd5214f5b5bbc..089ac806169b2f7f3f13924f54d29dd3bbcfeb23 100644 (file)
@@ -241,22 +241,26 @@ The configuration step includes the following settings:
 [[pve_ceph_wizard_networks]]
 
 * *Public Network:* This network will be used for public storage communication
-  (e.g., for virtual machines using a Ceph RBD backed disk, or a CephFS mount).
-  This setting is required.
+  (e.g., for virtual machines using a Ceph RBD backed disk, or a CephFS mount),
+  and communication between the different Ceph services. This setting is
+  required.
   +
-  Separating your Ceph traffic from cluster communication, and possible the
-  front-facing (public) networks of your virtual gusts, is highly recommended.
-  Otherwise, Ceph's high-bandwidth IO-traffic could cause interference with
-  other low-latency dependent services.
+  Separating your Ceph traffic from the {pve} cluster communication (corosync),
+  and possible the front-facing (public) networks of your virtual guests, is
+  highly recommended. Otherwise, Ceph's high-bandwidth IO-traffic could cause
+  interference with other low-latency dependent services.
 
 [thumbnail="screenshot/gui-node-ceph-install-wizard-step2.png"]
 
 * *Cluster Network:* Specify to separate the xref:pve_ceph_osds[OSD] replication
-  and heartbeat traffic as well.
+  and heartbeat traffic as well. This setting is optional.
   +
   Using a physically separated network is recommended, as it will relieve the
   Ceph public and the virtual guests network, while also providing a significant
   Ceph performance improvements.
+  +
+  The Ceph cluster network can be configured and moved to another physically
+  separated network at a later time.
 
 You have two more options which are considered advanced and therefore should
 only changed if you know what you are doing.
@@ -282,7 +286,7 @@ CLI Installation of Ceph Packages
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
 Alternatively to the the recommended {pve}  Ceph installation wizard available
-in the web-interface, you can use the following CLI command on each node:
+in the web interface, you can use the following CLI command on each node:
 
 [source,bash]
 ----
@@ -414,7 +418,7 @@ network. It is recommended to use one OSD per physical disk.
 Create OSDs
 ~~~~~~~~~~~
 
-You can create an OSD either via the {pve} web-interface or via the CLI using
+You can create an OSD either via the {pve} web interface or via the CLI using
 `pveceph`. For example:
 
 [source,bash]
@@ -532,7 +536,7 @@ known as **P**lacement **G**roups (`PG`, `pg_num`).
 Create and Edit Pools
 ~~~~~~~~~~~~~~~~~~~~~
 
-You can create and edit pools from the command line or the web-interface of any
+You can create and edit pools from the command line or the web interface of any
 {pve} host under **Ceph -> Pools**.
 
 When no options are given, we set a default of **128 PGs**, a **size of 3
@@ -563,7 +567,7 @@ pveceph pool create <pool-name> --add_storages
 ----
 
 TIP: If you would also like to automatically define a storage for your
-pool, keep the `Add as Storage' checkbox checked in the web-interface, or use the
+pool, keep the `Add as Storage' checkbox checked in the web interface, or use the
 command-line option '--add_storages' at pool creation.
 
 Pool Options