]> git.proxmox.com Git - pve-docs.git/commitdiff
consistently capitalize Ceph
authorMatthias Heiserer <m.heiserer@proxmox.com>
Wed, 9 Nov 2022 11:58:21 +0000 (12:58 +0100)
committerThomas Lamprecht <t.lamprecht@proxmox.com>
Wed, 9 Nov 2022 14:39:58 +0000 (15:39 +0100)
Signed-off-by: Matthias Heiserer <m.heiserer@proxmox.com>
Signed-off-by: Thomas Lamprecht <t.lamprecht@proxmox.com>
hyper-converged-infrastructure.adoc
pve-storage-rbd.adoc
pveceph.adoc

index ee9f1859405b3c5cd2b1975ed4d7393fedaaf297..461639295be32750f54aebf227af3d210b77cfe3 100644 (file)
@@ -48,9 +48,9 @@ Hyper-Converged Infrastructure: Storage
 infrastructure. You can, for example, deploy and manage the following two
 storage technologies by using the web interface only:
 
-- *ceph*: a both self-healing and self-managing shared, reliable and highly
+- *Ceph*: a both self-healing and self-managing shared, reliable and highly
   scalable storage system. Checkout
-  xref:chapter_pveceph[how to manage ceph services on {pve} nodes]
+  xref:chapter_pveceph[how to manage Ceph services on {pve} nodes]
 
 - *ZFS*: a combined file system and logical volume manager with extensive
   protection against data corruption, various RAID modes, fast and cheap
index 5f8619aa5955a98f563135c9b41f44cef3a7f8f5..5fe558a766b79d340743766f8da02d4d6377bb1d 100644 (file)
@@ -109,9 +109,9 @@ management, see the Ceph docs.footnoteref:[cephusermgmt,{cephdocs-url}/rados/ope
 Ceph client configuration (optional)
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
-Connecting to an external ceph storage doesn't always allow setting
+Connecting to an external Ceph storage doesn't always allow setting
 client-specific options in the config DB on the external cluster. You can add a
-`ceph.conf` beside the ceph keyring to change the ceph client configuration for
+`ceph.conf` beside the Ceph keyring to change the Ceph client configuration for
 the storage.
 
 The ceph.conf needs to have the same name as the storage.
index 54fb2142634a88338b0417d2989379427a216314..fdd4cf679ee64f89156ae9196a94e78af838c4aa 100644 (file)
@@ -636,7 +636,7 @@ pvesm add rbd <storage-name> --pool <replicated-pool> --data-pool <ec-pool>
 ----
 
 TIP: Do not forget to add the `keyring` and `monhost` option for any external
-ceph clusters, not managed by the local {pve} cluster.
+Ceph clusters, not managed by the local {pve} cluster.
 
 Destroy Pools
 ~~~~~~~~~~~~~
@@ -761,7 +761,7 @@ ceph osd crush rule create-replicated <rule-name> <root> <failure-domain> <class
 [frame="none",grid="none", align="left", cols="30%,70%"]
 |===
 |<rule-name>|name of the rule, to connect with a pool (seen in GUI & CLI)
-|<root>|which crush root it should belong to (default ceph root "default")
+|<root>|which crush root it should belong to (default Ceph root "default")
 |<failure-domain>|at which failure-domain the objects should be distributed (usually host)
 |<class>|what type of OSD backing store to use (e.g., nvme, ssd, hdd)
 |===
@@ -943,7 +943,7 @@ servers.
 pveceph fs destroy NAME --remove-storages --remove-pools
 ----
 +
-This will automatically destroy the underlying ceph pools as well as remove
+This will automatically destroy the underlying Ceph pools as well as remove
 the storages from pve config.
 
 After these steps, the CephFS should be completely removed and if you have