]> git.proxmox.com Git - pve-docs.git/blobdiff - pveceph.adoc
qm: IO thread: be more precise about how QEMU handles IO
[pve-docs.git] / pveceph.adoc
index cfe480670f5e2f7fee14652860691e0db0019cd8..fdd4cf679ee64f89156ae9196a94e78af838c4aa 100644 (file)
@@ -556,7 +556,7 @@ to recover from a certain amount of data loss. Erasure coded pools can offer
 more usable space compared to replicated pools, but they do that for the price
 of performance.
 
 more usable space compared to replicated pools, but they do that for the price
 of performance.
 
-For comparision: in classic, replicated pools, multiple replicas of the data
+For comparison: in classic, replicated pools, multiple replicas of the data
 are stored (`size`) while in erasure coded pool, data is split into `k` data
 chunks with additional `m` coding (checking) chunks. Those coding chunks can be
 used to recreate data should data chunks be missing.
 are stored (`size`) while in erasure coded pool, data is split into `k` data
 chunks with additional `m` coding (checking) chunks. Those coding chunks can be
 used to recreate data should data chunks be missing.
@@ -567,9 +567,9 @@ losing any data. The total amount of objects stored is `k + m`.
 Creating EC Pools
 ^^^^^^^^^^^^^^^^^
 
 Creating EC Pools
 ^^^^^^^^^^^^^^^^^
 
-You can create erasuce coded (EC) through using the `pveceph` CLI tooling. As
-EC code work different than replicated pools, planning a setup and the pool
-parameters used needs to adapt.
+Erasure coded (EC) pools can be created with the `pveceph` CLI tooling.
+Planning an EC pool needs to account for the fact, that they work differently
+than replicated pools.
 
 The default `min_size` of an EC pool depends on the `m` parameter. If `m = 1`,
 the `min_size` of the EC pool will be `k`. The `min_size` will be `k + 1` if
 
 The default `min_size` of an EC pool depends on the `m` parameter. If `m = 1`,
 the `min_size` of the EC pool will be `k`. The `min_size` will be `k + 1` if
@@ -592,7 +592,7 @@ To create a new EC pool, run the following command:
 
 [source,bash]
 ----
 
 [source,bash]
 ----
-pceveph pool create <pool-name> --erasure-coding k=2,m=1
+pveceph pool create <pool-name> --erasure-coding k=2,m=1
 ----
 
 Optional parameters are `failure-domain` and `device-class`. If you
 ----
 
 Optional parameters are `failure-domain` and `device-class`. If you
@@ -621,15 +621,14 @@ specify the profile to use with the `profile` parameter.
 For example:
 [source,bash]
 ----
 For example:
 [source,bash]
 ----
-pceveph pool create <pool-name> --erasure-coding profile=<profile-name>
+pveceph pool create <pool-name> --erasure-coding profile=<profile-name>
 ----
 
 Adding EC Pools as Storage
 ^^^^^^^^^^^^^^^^^^^^^^^^^^
 
 ----
 
 Adding EC Pools as Storage
 ^^^^^^^^^^^^^^^^^^^^^^^^^^
 
-You can also add an already existing EC pool as storage to {pve}, it works the
-same as adding any `RBD` pool but requires to pass the extra `data-pool`
-option.
+You can add an already existing EC pool as storage to {pve}. It works the same
+way as adding an `RBD` pool but requires the extra `data-pool` option.
 
 [source,bash]
 ----
 
 [source,bash]
 ----
@@ -637,7 +636,7 @@ pvesm add rbd <storage-name> --pool <replicated-pool> --data-pool <ec-pool>
 ----
 
 TIP: Do not forget to add the `keyring` and `monhost` option for any external
 ----
 
 TIP: Do not forget to add the `keyring` and `monhost` option for any external
-ceph clusters, not managed by the local {pve} cluster.
+Ceph clusters, not managed by the local {pve} cluster.
 
 Destroy Pools
 ~~~~~~~~~~~~~
 
 Destroy Pools
 ~~~~~~~~~~~~~
@@ -762,7 +761,7 @@ ceph osd crush rule create-replicated <rule-name> <root> <failure-domain> <class
 [frame="none",grid="none", align="left", cols="30%,70%"]
 |===
 |<rule-name>|name of the rule, to connect with a pool (seen in GUI & CLI)
 [frame="none",grid="none", align="left", cols="30%,70%"]
 |===
 |<rule-name>|name of the rule, to connect with a pool (seen in GUI & CLI)
-|<root>|which crush root it should belong to (default ceph root "default")
+|<root>|which crush root it should belong to (default Ceph root "default")
 |<failure-domain>|at which failure-domain the objects should be distributed (usually host)
 |<class>|what type of OSD backing store to use (e.g., nvme, ssd, hdd)
 |===
 |<failure-domain>|at which failure-domain the objects should be distributed (usually host)
 |<class>|what type of OSD backing store to use (e.g., nvme, ssd, hdd)
 |===
@@ -944,7 +943,7 @@ servers.
 pveceph fs destroy NAME --remove-storages --remove-pools
 ----
 +
 pveceph fs destroy NAME --remove-storages --remove-pools
 ----
 +
-This will automatically destroy the underlying ceph pools as well as remove
+This will automatically destroy the underlying Ceph pools as well as remove
 the storages from pve config.
 
 After these steps, the CephFS should be completely removed and if you have
 the storages from pve config.
 
 After these steps, the CephFS should be completely removed and if you have