]> git.proxmox.com Git - pve-docs.git/blobdiff - pve-storage-rbd.adoc
buildsys: not our job to handle editor files
[pve-docs.git] / pve-storage-rbd.adoc
index 4b2cd0af3f33a7f3e3623db4a0931473cb517885..c33b70e0fd1af14cfe17ba2d69605f14db50ee2b 100644 (file)
@@ -1,5 +1,9 @@
 Ceph RADOS Block Devices (RBD)
 ------------------------------
+ifdef::wiki[]
+:pve-toplevel:
+:title: Storage: RBD
+endif::wiki[]
 
 Storage pool type: `rbd`
 
@@ -15,7 +19,7 @@ storage, and you get the following advantages:
 * self healing
 * no single point of failure
 * scalable to the exabyte level 
-* kernel and unser space implementation available
+* kernel and user space implementation available
 
 NOTE: For smaller deployments, it is also possible to run Ceph
 services directly on your {pve} nodes. Recent hardware has plenty
@@ -45,7 +49,7 @@ krbd::
 Access rbd through krbd kernel module. This is required if you want to
 use the storage for containers.
 
-.Configuration Example ('/etc/pve/storage.cfg')
+.Configuration Example (`/etc/pve/storage.cfg`)
 ----
 rbd: ceph3
         monhost 10.1.1.20 10.1.1.21 10.1.1.22
@@ -54,15 +58,15 @@ rbd: ceph3
         username admin
 ----
 
-TIP: You can use the 'rbd' utility to do low-level management tasks.
+TIP: You can use the `rbd` utility to do low-level management tasks.
 
 Authentication
 ~~~~~~~~~~~~~~
 
-If you use cephx authentication, you need to copy the keyfile from
+If you use `cephx` authentication, you need to copy the keyfile from
 Ceph to Proxmox VE host.
 
-Create the directory '/etc/pve/priv/ceph' with
+Create the directory `/etc/pve/priv/ceph` with
 
  mkdir /etc/pve/priv/ceph
 
@@ -86,3 +90,12 @@ snapshot and clone functionality.
 |images rootdir |raw            |yes    |yes       |yes
 |==============================================================================
 
+ifdef::wiki[]
+
+See Also
+~~~~~~~~
+
+* link:/wiki/Storage[Storage]
+
+endif::wiki[]
+