]> git.proxmox.com Git - pve-docs.git/blobdiff - pve-storage-rbd.adoc
make dinstall: skip mediawiki deb for now
[pve-docs.git] / pve-storage-rbd.adoc
index c33b70e0fd1af14cfe17ba2d69605f14db50ee2b..a94cade8f5293fed44976d5225254f5917af47b2 100644 (file)
@@ -1,3 +1,4 @@
+[[ceph_rados_block_devices]]
 Ceph RADOS Block Devices (RBD)
 ------------------------------
 ifdef::wiki[]
 Ceph RADOS Block Devices (RBD)
 ------------------------------
 ifdef::wiki[]
@@ -18,7 +19,7 @@ storage, and you get the following advantages:
 * full snapshot and clone capabilities
 * self healing
 * no single point of failure
 * full snapshot and clone capabilities
 * self healing
 * no single point of failure
-* scalable to the exabyte level 
+* scalable to the exabyte level
 * kernel and user space implementation available
 
 NOTE: For smaller deployments, it is also possible to run Ceph
 * kernel and user space implementation available
 
 NOTE: For smaller deployments, it is also possible to run Ceph
@@ -26,6 +27,7 @@ services directly on your {pve} nodes. Recent hardware has plenty
 of CPU power and RAM, so running storage services and VMs on same node
 is possible.
 
 of CPU power and RAM, so running storage services and VMs on same node
 is possible.
 
+[[storage_rbd_config]]
 Configuration
 ~~~~~~~~~~~~~
 
 Configuration
 ~~~~~~~~~~~~~
 
@@ -34,7 +36,8 @@ This backend supports the common storage properties `nodes`,
 
 monhost::
 
 
 monhost::
 
-List of monitor daemon IPs.
+List of monitor daemon IPs. Optional, only needed if Ceph is not running on the
+PVE cluster.
 
 pool::
 
 
 pool::
 
@@ -42,18 +45,19 @@ Ceph pool name.
 
 username::
 
 
 username::
 
-RBD user Id.
+RBD user Id. Optional, only needed if Ceph is not running on the PVE cluster.
 
 krbd::
 
 
 krbd::
 
-Access rbd through krbd kernel module. This is required if you want to
-use the storage for containers.
+Enforce access to rados block devices through the krbd kernel module. Optional.
 
 
-.Configuration Example (`/etc/pve/storage.cfg`)
+NOTE: Containers will use `krbd` independent of the option value.
+
+.Configuration Example for a external Ceph cluster (`/etc/pve/storage.cfg`)
 ----
 ----
-rbd: ceph3
+rbd: ceph-external
         monhost 10.1.1.20 10.1.1.21 10.1.1.22
         monhost 10.1.1.20 10.1.1.21 10.1.1.22
-        pool ceph3
+        pool ceph-external
         content images
         username admin
 ----
         content images
         username admin
 ----
@@ -63,8 +67,8 @@ TIP: You can use the `rbd` utility to do low-level management tasks.
 Authentication
 ~~~~~~~~~~~~~~
 
 Authentication
 ~~~~~~~~~~~~~~
 
-If you use `cephx` authentication, you need to copy the keyfile from
-Ceph to Proxmox VE host.
+If you use `cephx` authentication, you need to copy the keyfile from your
+external Ceph cluster to a Proxmox VE host.
 
 Create the directory `/etc/pve/priv/ceph` with
 
 
 Create the directory `/etc/pve/priv/ceph` with
 
@@ -77,6 +81,9 @@ Then copy the keyring
 The keyring must be named to match your `<STORAGE_ID>`. Copying the
 keyring generally requires root privileges.
 
 The keyring must be named to match your `<STORAGE_ID>`. Copying the
 keyring generally requires root privileges.
 
+If Ceph is installed locally on the PVE cluster, this is done automatically by
+'pveceph' or in the GUI.
+
 Storage Features
 ~~~~~~~~~~~~~~~~
 
 Storage Features
 ~~~~~~~~~~~~~~~~