]> git.proxmox.com Git - pve-docs.git/blobdiff - pve-storage-rbd.adoc
update generated docs
[pve-docs.git] / pve-storage-rbd.adoc
index f8edf85e75807bda2e4c437731ca5fbd3d8d188d..5d0b7b7df4490ccf8c36936823de302451424261 100644 (file)
@@ -1,6 +1,10 @@
+[[ceph_rados_block_devices]]
 Ceph RADOS Block Devices (RBD)
 ------------------------------
-include::attributes.txt[]
+ifdef::wiki[]
+:pve-toplevel:
+:title: Storage: RBD
+endif::wiki[]
 
 Storage pool type: `rbd`
 
@@ -16,13 +20,14 @@ storage, and you get the following advantages:
 * self healing
 * no single point of failure
 * scalable to the exabyte level 
-* kernel and unser space implementation available
+* kernel and user space implementation available
 
 NOTE: For smaller deployments, it is also possible to run Ceph
 services directly on your {pve} nodes. Recent hardware has plenty
 of CPU power and RAM, so running storage services and VMs on same node
 is possible.
 
+[[storage_rbd_config]]
 Configuration
 ~~~~~~~~~~~~~