]> git.proxmox.com Git - pve-docs.git/blobdiff - pve-storage-cephfs.adoc
pvecm: re-add "multiple cluster in same net" section
[pve-docs.git] / pve-storage-cephfs.adoc
index 2613d640e28d1e3ac5d2375d841af75e8b87e4bf..45933f0007068a47f0b4e7323881c9c26e5b3474 100644 (file)
@@ -18,6 +18,15 @@ configuring a CephFS storage easier. As recent hardware has plenty of CPU power
 and RAM, running storage services and VMs on same node is possible without a
 big performance impact.
 
+To use the CephFS storage plugin you need update the debian stock Ceph client.
+Add our Ceph repository xref:sysadmin_package_repositories_ceph[Ceph repository].
+Once added, run an `apt update` and `apt dist-upgrade` cycle to get the newest
+packages.
+
+You need to make sure that there is no other Ceph repository configured,
+otherwise the installation will fail or there will be mixed package
+versions on the node, leading to unexpected behavior.
+
 [[storage_cephfs_config]]
 Configuration
 ~~~~~~~~~~~~~
@@ -71,13 +80,20 @@ Create the directory `/etc/pve/priv/ceph` with
 
 Then copy the secret
 
- scp <cephserver>:/etc/ceph/cephfs.secret /etc/pve/priv/ceph/<STORAGE_ID>.secret
+ scp cephfs.secret <proxmox>:/etc/pve/priv/ceph/<STORAGE_ID>.secret
 
 The secret must be named to match your `<STORAGE_ID>`. Copying the
 secret generally requires root privileges. The file must only contain the
 secret key itself, opposed to the `rbd` backend which also contains a
 `[client.userid]` section.
 
+A secret can be received from the ceph cluster (as ceph admin) by issuing the
+following command. Replace the `userid` with the actual client ID configured to
+access the cluster. For further ceph user management see the Ceph docs
+footnote:[Ceph user management http://docs.ceph.com/docs/luminous/rados/operations/user-management/].
+
+ ceph auth get-key client.userid > cephfs.secret
+
 If Ceph is installed locally on the PVE cluster, i.e., setup with `pveceph`,
 this is done automatically.