]> git.proxmox.com Git - pve-docs.git/blobdiff - pve-storage-rbd.adoc
followup #1850: pvecm: referencing all nodes in etc/hosts is not necessarry
[pve-docs.git] / pve-storage-rbd.adoc
index d7a6067473dbb561f345fbbcc399c1e574a58dca..ee073714ebcd51eb0d39af82d2161f96268ec81e 100644 (file)
@@ -1,6 +1,10 @@
+[[ceph_rados_block_devices]]
 Ceph RADOS Block Devices (RBD)
 ------------------------------
 Ceph RADOS Block Devices (RBD)
 ------------------------------
-include::attributes.txt[]
+ifdef::wiki[]
+:pve-toplevel:
+:title: Storage: RBD
+endif::wiki[]
 
 Storage pool type: `rbd`
 
 
 Storage pool type: `rbd`
 
@@ -15,7 +19,7 @@ storage, and you get the following advantages:
 * full snapshot and clone capabilities
 * self healing
 * no single point of failure
 * full snapshot and clone capabilities
 * self healing
 * no single point of failure
-* scalable to the exabyte level 
+* scalable to the exabyte level
 * kernel and user space implementation available
 
 NOTE: For smaller deployments, it is also possible to run Ceph
 * kernel and user space implementation available
 
 NOTE: For smaller deployments, it is also possible to run Ceph
@@ -23,6 +27,7 @@ services directly on your {pve} nodes. Recent hardware has plenty
 of CPU power and RAM, so running storage services and VMs on same node
 is possible.
 
 of CPU power and RAM, so running storage services and VMs on same node
 is possible.
 
+[[storage_rbd_config]]
 Configuration
 ~~~~~~~~~~~~~
 
 Configuration
 ~~~~~~~~~~~~~
 
@@ -31,7 +36,8 @@ This backend supports the common storage properties `nodes`,
 
 monhost::
 
 
 monhost::
 
-List of monitor daemon IPs.
+List of monitor daemon IPs. Optional, only needed if Ceph is not running on the
+PVE cluster.
 
 pool::
 
 
 pool::
 
@@ -39,18 +45,18 @@ Ceph pool name.
 
 username::
 
 
 username::
 
-RBD user Id.
+RBD user Id. Optional, only needed if Ceph is not running on the PVE cluster.
 
 krbd::
 
 Access rbd through krbd kernel module. This is required if you want to
 use the storage for containers.
 
 
 krbd::
 
 Access rbd through krbd kernel module. This is required if you want to
 use the storage for containers.
 
-.Configuration Example (`/etc/pve/storage.cfg`)
+.Configuration Example for a external Ceph cluster (`/etc/pve/storage.cfg`)
 ----
 ----
-rbd: ceph3
+rbd: ceph-external
         monhost 10.1.1.20 10.1.1.21 10.1.1.22
         monhost 10.1.1.20 10.1.1.21 10.1.1.22
-        pool ceph3
+        pool ceph-external
         content images
         username admin
 ----
         content images
         username admin
 ----
@@ -60,8 +66,8 @@ TIP: You can use the `rbd` utility to do low-level management tasks.
 Authentication
 ~~~~~~~~~~~~~~
 
 Authentication
 ~~~~~~~~~~~~~~
 
-If you use `cephx` authentication, you need to copy the keyfile from
-Ceph to Proxmox VE host.
+If you use `cephx` authentication, you need to copy the keyfile from your
+external Ceph cluster to a Proxmox VE host.
 
 Create the directory `/etc/pve/priv/ceph` with
 
 
 Create the directory `/etc/pve/priv/ceph` with
 
@@ -74,6 +80,9 @@ Then copy the keyring
 The keyring must be named to match your `<STORAGE_ID>`. Copying the
 keyring generally requires root privileges.
 
 The keyring must be named to match your `<STORAGE_ID>`. Copying the
 keyring generally requires root privileges.
 
+If Ceph is installed locally on the PVE cluster, this is done automatically by
+'pveceph' or in the GUI.
+
 Storage Features
 ~~~~~~~~~~~~~~~~
 
 Storage Features
 ~~~~~~~~~~~~~~~~