]> git.proxmox.com Git - pve-docs.git/blobdiff - pvesm.adoc
pvesm: fixup use CephFS
[pve-docs.git] / pvesm.adoc
index 5ca5e3faa587f4a99a0192c0f832383d8f50c744..677638536b6b9e42f43d71bca4fefe22a324386a 100644 (file)
@@ -1,8 +1,8 @@
-[[chapter-storage]]
+[[chapter_storage]]
 ifdef::manvolnum[]
-PVE({manvolnum})
-================
-include::attributes.txt[]
+pvesm(1)
+========
+:pve-toplevel:
 
 NAME
 ----
@@ -18,12 +18,14 @@ include::pvesm.1-synopsis.adoc[]
 DESCRIPTION
 -----------
 endif::manvolnum[]
-
 ifndef::manvolnum[]
 {pve} Storage
 =============
-include::attributes.txt[]
+:pve-toplevel:
 endif::manvolnum[]
+ifdef::wiki[]
+:title: Storage
+endif::wiki[]
 
 The {pve} storage model is very flexible. Virtual machine images
 can either be stored on one or several local storages, or on shared
@@ -51,7 +53,7 @@ Block level storage::
 Allows to store large 'raw' images. It is usually not possible to store
 other files (ISO, backups, ..) on such storage types. Most modern
 block level storage implementations support snapshots and clones.
-RADOS, Sheepdog and DRBD are distributed systems, replicating storage
+RADOS, Sheepdog and GlusterFS are distributed systems, replicating storage
 data to different nodes.
 
 File level storage::
@@ -67,20 +69,23 @@ snapshots and clones.
 |===========================================================
 |Description    |PVE type    |Level |Shared|Snapshots|Stable
 |ZFS (local)    |zfspool     |file  |no    |yes      |yes
-|Directory      |dir         |file  |no    |no       |yes
-|NFS            |nfs         |file  |yes   |no       |yes
-|GlusterFS      |glusterfs   |file  |yes   |no       |yes
-|LVM            |lvm         |block |no    |no       |yes
+|Directory      |dir         |file  |no    |no^1^    |yes
+|NFS            |nfs         |file  |yes   |no^1^    |yes
+|CIFS           |cifs        |file  |yes   |no^1^    |yes
+|GlusterFS      |glusterfs   |file  |yes   |no^1^    |yes
+|CephFS         |cephfs      |file  |yes   |yes      |yes
+|LVM            |lvm         |block |no^2^ |no       |yes
 |LVM-thin       |lvmthin     |block |no    |yes      |yes
 |iSCSI/kernel   |iscsi       |block |yes   |no       |yes
 |iSCSI/libiscsi |iscsidirect |block |yes   |no       |yes
 |Ceph/RBD       |rbd         |block |yes   |yes      |yes
 |Sheepdog       |sheepdog    |block |yes   |yes      |beta
-|DRBD9          |drbd        |block |yes   |yes      |beta
 |ZFS over iSCSI |zfs         |block |yes   |yes      |yes
 |=========================================================
 
-TIP: It is possible to use LVM on top of an iSCSI storage. That way
+^1^: On file based storages, snapshots are possible with the 'qcow2' format.
+
+^2^: It is possible to use LVM on top of an iSCSI storage. That way
 you get a `shared` LVM storage.
 
 
@@ -104,7 +109,7 @@ All storage types which have the ``Snapshots'' feature also support thin
 provisioning.
 
 CAUTION: If a storage runs full, all guests using volumes on that
-storage receives IO error. This can cause file system inconsistencies
+storage receive IO errors. This can cause file system inconsistencies
 and may corrupt your data. So it is advisable to avoid
 over-provisioning of your storage resources, or carefully observe
 free space to avoid such conditions.
@@ -367,8 +372,12 @@ See Also
 
 * link:/wiki/Storage:_NFS[Storage: NFS]
 
+* link:/wiki/Storage:_CIFS[Storage: CIFS]
+
 * link:/wiki/Storage:_RBD[Storage: RBD]
 
+* link:/wiki/Storage:_CephFS[Storage: CephFS]
+
 * link:/wiki/Storage:_ZFS[Storage: ZFS]
 
 * link:/wiki/Storage:_ZFS_over_iSCSI[Storage: ZFS over iSCSI]
@@ -383,6 +392,8 @@ include::pve-storage-dir.adoc[]
 
 include::pve-storage-nfs.adoc[]
 
+include::pve-storage-cifs.adoc[]
+
 include::pve-storage-glusterfs.adoc[]
 
 include::pve-storage-zfspool.adoc[]
@@ -397,6 +408,8 @@ include::pve-storage-iscsidirect.adoc[]
 
 include::pve-storage-rbd.adoc[]
 
+include::pve-storage-cephfs.adoc[]
+
 
 
 ifdef::manvolnum[]