]> git.proxmox.com Git - pve-docs.git/blobdiff - pve-storage-rbd.adoc
fixup: s/devies/devices/
[pve-docs.git] / pve-storage-rbd.adoc
index f8edf85e75807bda2e4c437731ca5fbd3d8d188d..a94cade8f5293fed44976d5225254f5917af47b2 100644 (file)
@@ -1,6 +1,10 @@
+[[ceph_rados_block_devices]]
 Ceph RADOS Block Devices (RBD)
 ------------------------------
-include::attributes.txt[]
+ifdef::wiki[]
+:pve-toplevel:
+:title: Storage: RBD
+endif::wiki[]
 
 Storage pool type: `rbd`
 
@@ -15,14 +19,15 @@ storage, and you get the following advantages:
 * full snapshot and clone capabilities
 * self healing
 * no single point of failure
-* scalable to the exabyte level 
-* kernel and unser space implementation available
+* scalable to the exabyte level
+* kernel and user space implementation available
 
 NOTE: For smaller deployments, it is also possible to run Ceph
 services directly on your {pve} nodes. Recent hardware has plenty
 of CPU power and RAM, so running storage services and VMs on same node
 is possible.
 
+[[storage_rbd_config]]
 Configuration
 ~~~~~~~~~~~~~
 
@@ -31,7 +36,8 @@ This backend supports the common storage properties `nodes`,
 
 monhost::
 
-List of monitor daemon IPs.
+List of monitor daemon IPs. Optional, only needed if Ceph is not running on the
+PVE cluster.
 
 pool::
 
@@ -39,18 +45,19 @@ Ceph pool name.
 
 username::
 
-RBD user Id.
+RBD user Id. Optional, only needed if Ceph is not running on the PVE cluster.
 
 krbd::
 
-Access rbd through krbd kernel module. This is required if you want to
-use the storage for containers.
+Enforce access to rados block devices through the krbd kernel module. Optional.
 
-.Configuration Example (`/etc/pve/storage.cfg`)
+NOTE: Containers will use `krbd` independent of the option value.
+
+.Configuration Example for a external Ceph cluster (`/etc/pve/storage.cfg`)
 ----
-rbd: ceph3
+rbd: ceph-external
         monhost 10.1.1.20 10.1.1.21 10.1.1.22
-        pool ceph3
+        pool ceph-external
         content images
         username admin
 ----
@@ -60,8 +67,8 @@ TIP: You can use the `rbd` utility to do low-level management tasks.
 Authentication
 ~~~~~~~~~~~~~~
 
-If you use `cephx` authentication, you need to copy the keyfile from
-Ceph to Proxmox VE host.
+If you use `cephx` authentication, you need to copy the keyfile from your
+external Ceph cluster to a Proxmox VE host.
 
 Create the directory `/etc/pve/priv/ceph` with
 
@@ -74,6 +81,9 @@ Then copy the keyring
 The keyring must be named to match your `<STORAGE_ID>`. Copying the
 keyring generally requires root privileges.
 
+If Ceph is installed locally on the PVE cluster, this is done automatically by
+'pveceph' or in the GUI.
+
 Storage Features
 ~~~~~~~~~~~~~~~~