]> git.proxmox.com Git - pve-docs.git/blobdiff - pveceph.adoc
totp: fix copy/paste mistake
[pve-docs.git] / pveceph.adoc
index 361e7c706d21cf174ba23bbbb1cf41567cfeed5f..089ac806169b2f7f3f13924f54d29dd3bbcfeb23 100644 (file)
@@ -134,7 +134,7 @@ That means that you should avoid maxing out your available memory already on
 normal operation, but rather leave some headroom to cope with outages.
 
 The OSD service itself will use additional memory. The Ceph BlueStore backend of
-the daemon requires by default **3-5 GiB of memory**, b (adjustable).
+the daemon requires by default **3-5 GiB of memory** (adjustable).
 
 .Network
 We recommend a network bandwidth of at least 10 Gbps, or more, to be used
@@ -241,22 +241,26 @@ The configuration step includes the following settings:
 [[pve_ceph_wizard_networks]]
 
 * *Public Network:* This network will be used for public storage communication
-  (e.g., for virtual machines using a Ceph RBD backed disk, or a CephFS mount).
-  This setting is required.
+  (e.g., for virtual machines using a Ceph RBD backed disk, or a CephFS mount),
+  and communication between the different Ceph services. This setting is
+  required.
   +
-  Separating your Ceph traffic from cluster communication, and possible the
-  front-facing (public) networks of your virtual gusts, is highly recommended.
-  Otherwise, Ceph's high-bandwidth IO-traffic could cause interference with
-  other low-latency dependent services.
+  Separating your Ceph traffic from the {pve} cluster communication (corosync),
+  and possible the front-facing (public) networks of your virtual guests, is
+  highly recommended. Otherwise, Ceph's high-bandwidth IO-traffic could cause
+  interference with other low-latency dependent services.
 
 [thumbnail="screenshot/gui-node-ceph-install-wizard-step2.png"]
 
 * *Cluster Network:* Specify to separate the xref:pve_ceph_osds[OSD] replication
-  and heartbeat traffic as well.
+  and heartbeat traffic as well. This setting is optional.
   +
   Using a physically separated network is recommended, as it will relieve the
   Ceph public and the virtual guests network, while also providing a significant
   Ceph performance improvements.
+  +
+  The Ceph cluster network can be configured and moved to another physically
+  separated network at a later time.
 
 You have two more options which are considered advanced and therefore should
 only changed if you know what you are doing.
@@ -282,7 +286,7 @@ CLI Installation of Ceph Packages
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
 Alternatively to the the recommended {pve}  Ceph installation wizard available
-in the web-interface, you can use the following CLI command on each node:
+in the web interface, you can use the following CLI command on each node:
 
 [source,bash]
 ----
@@ -414,7 +418,7 @@ network. It is recommended to use one OSD per physical disk.
 Create OSDs
 ~~~~~~~~~~~
 
-You can create an OSD either via the {pve} web-interface or via the CLI using
+You can create an OSD either via the {pve} web interface or via the CLI using
 `pveceph`. For example:
 
 [source,bash]
@@ -532,7 +536,7 @@ known as **P**lacement **G**roups (`PG`, `pg_num`).
 Create and Edit Pools
 ~~~~~~~~~~~~~~~~~~~~~
 
-You can create and edit pools from the command line or the web-interface of any
+You can create and edit pools from the command line or the web interface of any
 {pve} host under **Ceph -> Pools**.
 
 When no options are given, we set a default of **128 PGs**, a **size of 3
@@ -563,7 +567,7 @@ pveceph pool create <pool-name> --add_storages
 ----
 
 TIP: If you would also like to automatically define a storage for your
-pool, keep the `Add as Storage' checkbox checked in the web-interface, or use the
+pool, keep the `Add as Storage' checkbox checked in the web interface, or use the
 command-line option '--add_storages' at pool creation.
 
 Pool Options