]> git.proxmox.com Git - pve-docs.git/blobdiff - pvesm.adoc
update static/schema information
[pve-docs.git] / pvesm.adoc
index c8e2347ab87e52a199470bc799a9bfda583fcb82..d6da5f4bc60d2fa500beb1e0aa590cb09559fa90 100644 (file)
@@ -67,33 +67,36 @@ data to different nodes.
 .Available storage types
 [width="100%",cols="<2d,1*m,4*d",options="header"]
 |===========================================================
-|Description    |PVE type    |Level |Shared|Snapshots|Stable
-|ZFS (local)    |zfspool     |file  |no    |yes      |yes
-|Directory      |dir         |file  |no    |no^1^    |yes
-|BTRFS          |btrfs       |file  |no    |yes      |technology preview
-|NFS            |nfs         |file  |yes   |no^1^    |yes
-|CIFS           |cifs        |file  |yes   |no^1^    |yes
-|Proxmox Backup |pbs         |both  |yes   |n/a      |yes
-|GlusterFS      |glusterfs   |file  |yes   |no^1^    |yes
-|CephFS         |cephfs      |file  |yes   |yes      |yes
-|LVM            |lvm         |block |no^2^ |no       |yes
-|LVM-thin       |lvmthin     |block |no    |yes      |yes
-|iSCSI/kernel   |iscsi       |block |yes   |no       |yes
-|iSCSI/libiscsi |iscsidirect |block |yes   |no       |yes
-|Ceph/RBD       |rbd         |block |yes   |yes      |yes
-|ZFS over iSCSI |zfs         |block |yes   |yes      |yes
+|Description    |Plugin type |Level  |Shared|Snapshots|Stable
+|ZFS (local)    |zfspool     |both^1^|no    |yes      |yes
+|Directory      |dir         |file   |no    |no^2^    |yes
+|BTRFS          |btrfs       |file   |no    |yes      |technology preview
+|NFS            |nfs         |file   |yes   |no^2^    |yes
+|CIFS           |cifs        |file   |yes   |no^2^    |yes
+|Proxmox Backup |pbs         |both   |yes   |n/a      |yes
+|GlusterFS      |glusterfs   |file   |yes   |no^2^    |yes
+|CephFS         |cephfs      |file   |yes   |yes      |yes
+|LVM            |lvm         |block  |no^3^ |no       |yes
+|LVM-thin       |lvmthin     |block  |no    |yes      |yes
+|iSCSI/kernel   |iscsi       |block  |yes   |no       |yes
+|iSCSI/libiscsi |iscsidirect |block  |yes   |no       |yes
+|Ceph/RBD       |rbd         |block  |yes   |yes      |yes
+|ZFS over iSCSI |zfs         |block  |yes   |yes      |yes
 |===========================================================
 
-^1^: On file based storages, snapshots are possible with the 'qcow2' format.
+^1^: Disk images for VMs are stored in ZFS volume (zvol) datasets, which provide
+block device functionality.
 
-^2^: It is possible to use LVM on top of an iSCSI or FC-based storage.
-That way you get a `shared` LVM storage.
+^2^: On file based storages, snapshots are possible with the 'qcow2' format.
+
+^3^: It is possible to use LVM on top of an iSCSI or FC-based storage.
+That way you get a `shared` LVM storage
 
 
 Thin Provisioning
 ~~~~~~~~~~~~~~~~~
 
-A number of storages, and the Qemu image format `qcow2`, support 'thin
+A number of storages, and the QEMU image format `qcow2`, support 'thin
 provisioning'.  With thin provisioning activated, only the blocks that
 the guest system actually use will be written to the storage.
 
@@ -174,6 +177,12 @@ zfspool: local-zfs
        content images,rootdir
 ----
 
+CAUTION: It is problematic to have multiple storage configurations pointing to
+the exact same underlying storage. Such an _aliased_ storage configuration can
+lead to two different volume IDs ('volid') pointing to the exact same disk
+image. {pve} expects that the images' volume IDs point to, are unique. Choosing
+different content types for _aliased_ storage configurations can be fine, but
+is not recommended.
 
 Common Storage Properties
 ~~~~~~~~~~~~~~~~~~~~~~~~~
@@ -195,7 +204,7 @@ this property to select what this storage is used for.
 
 images:::
 
-KVM-Qemu VM images.
+QEMU/KVM VM images.
 
 rootdir:::
 
@@ -239,6 +248,12 @@ format::
 
 Default image format (`raw|qcow2|vmdk`)
 
+preallocation::
+
+Preallocation mode (`off|metadata|falloc|full`) for `raw` and `qcow2` images on
+file-based storages. The default is `metadata`, which is treated like `off` for
+`raw` images. When using network storages in combination with large `qcow2`
+images, using `off` can help to avoid timeouts.
 
 WARNING: It is not advisable to use the same storage pool on different
 {pve} clusters. Some storage operation need exclusive access to the
@@ -355,11 +370,11 @@ List volumes allocated by VMID
 
 List iso images
 
- pvesm list <STORAGE_ID> --iso
+ pvesm list <STORAGE_ID> --content iso
 
 List container templates
 
- pvesm list <STORAGE_ID> --vztmpl
+ pvesm list <STORAGE_ID> --content vztmpl
 
 Show file system path for a volume
 
@@ -436,6 +451,8 @@ include::pve-storage-cephfs.adoc[]
 
 include::pve-storage-btrfs.adoc[]
 
+include::pve-storage-zfs.adoc[]
+
 
 ifdef::manvolnum[]
 include::pve-copyright.adoc[]