]> git.proxmox.com Git - pve-docs.git/blobdiff - pveceph.adoc
fix #5429: network: override device names: include Type=ether
[pve-docs.git] / pveceph.adoc
index 26a177f91b63b012c20d2779c1d9c4e4259f30ad..089ac806169b2f7f3f13924f54d29dd3bbcfeb23 100644 (file)
@@ -134,7 +134,7 @@ That means that you should avoid maxing out your available memory already on
 normal operation, but rather leave some headroom to cope with outages.
 
 The OSD service itself will use additional memory. The Ceph BlueStore backend of
-the daemon requires by default **3-5 GiB of memory**, b (adjustable).
+the daemon requires by default **3-5 GiB of memory** (adjustable).
 
 .Network
 We recommend a network bandwidth of at least 10 Gbps, or more, to be used
@@ -241,22 +241,26 @@ The configuration step includes the following settings:
 [[pve_ceph_wizard_networks]]
 
 * *Public Network:* This network will be used for public storage communication
-  (e.g., for virtual machines using a Ceph RBD backed disk, or a CephFS mount).
-  This setting is required.
+  (e.g., for virtual machines using a Ceph RBD backed disk, or a CephFS mount),
+  and communication between the different Ceph services. This setting is
+  required.
   +
-  Separating your Ceph traffic from cluster communication, and possible the
-  front-facing (public) networks of your virtual gusts, is highly recommended.
-  Otherwise, Ceph's high-bandwidth IO-traffic could cause interference with
-  other low-latency dependent services.
+  Separating your Ceph traffic from the {pve} cluster communication (corosync),
+  and possible the front-facing (public) networks of your virtual guests, is
+  highly recommended. Otherwise, Ceph's high-bandwidth IO-traffic could cause
+  interference with other low-latency dependent services.
 
 [thumbnail="screenshot/gui-node-ceph-install-wizard-step2.png"]
 
 * *Cluster Network:* Specify to separate the xref:pve_ceph_osds[OSD] replication
-  and heartbeat traffic as well.
+  and heartbeat traffic as well. This setting is optional.
   +
   Using a physically separated network is recommended, as it will relieve the
   Ceph public and the virtual guests network, while also providing a significant
   Ceph performance improvements.
+  +
+  The Ceph cluster network can be configured and moved to another physically
+  separated network at a later time.
 
 You have two more options which are considered advanced and therefore should
 only changed if you know what you are doing.
@@ -282,7 +286,7 @@ CLI Installation of Ceph Packages
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
 Alternatively to the the recommended {pve}  Ceph installation wizard available
-in the web-interface, you can use the following CLI command on each node:
+in the web interface, you can use the following CLI command on each node:
 
 [source,bash]
 ----
@@ -414,7 +418,7 @@ network. It is recommended to use one OSD per physical disk.
 Create OSDs
 ~~~~~~~~~~~
 
-You can create an OSD either via the {pve} web-interface or via the CLI using
+You can create an OSD either via the {pve} web interface or via the CLI using
 `pveceph`. For example:
 
 [source,bash]
@@ -532,7 +536,7 @@ known as **P**lacement **G**roups (`PG`, `pg_num`).
 Create and Edit Pools
 ~~~~~~~~~~~~~~~~~~~~~
 
-You can create and edit pools from the command line or the web-interface of any
+You can create and edit pools from the command line or the web interface of any
 {pve} host under **Ceph -> Pools**.
 
 When no options are given, we set a default of **128 PGs**, a **size of 3
@@ -563,8 +567,8 @@ pveceph pool create <pool-name> --add_storages
 ----
 
 TIP: If you would also like to automatically define a storage for your
-pool, keep the `Add as Storage' checkbox checked in the web-interface, or use the
-command line option '--add_storages' at pool creation.
+pool, keep the `Add as Storage' checkbox checked in the web interface, or use the
+command-line option '--add_storages' at pool creation.
 
 Pool Options
 ^^^^^^^^^^^^
@@ -938,7 +942,7 @@ ensure that all CephFS related packages get installed.
 - xref:pveceph_fs_mds[Setup at least one MDS]
 
 After this is complete, you can simply create a CephFS through
-either the Web GUI's `Node -> CephFS` panel or the command line tool `pveceph`,
+either the Web GUI's `Node -> CephFS` panel or the command-line tool `pveceph`,
 for example:
 
 ----
@@ -978,7 +982,7 @@ Where `<STORAGE-NAME>` is the name of the CephFS storage in your {PVE}.
 
 * Now make sure that no metadata server (`MDS`) is running for that CephFS,
   either by stopping or destroying them. This can be done through the web
-  interface or via the command line interface, for the latter you would issue
+  interface or via the command-line interface, for the latter you would issue
   the following command:
 +
 ----