]> git.proxmox.com Git - mirror_zfs.git/blobdiff - man/man8/zpool.8
zfs.8 & zpool.8: Standardize property value order
[mirror_zfs.git] / man / man8 / zpool.8
index 062b5ae290d07a87eae146e4c144df4ac756f450..cb9b48e1b57a08ef455b2979b53ba85164835468 100644 (file)
@@ -15,7 +15,7 @@
 .\" CDDL HEADER, with the fields enclosed by brackets "[]" replaced with your
 .\" own identifying information:
 .\" Portions Copyright [yyyy] [name of copyright owner]
-.TH zpool 8 "14 December 2012" "ZFS pool 28, filesystem 5" "System Administration Commands"
+.TH zpool 8 "May 11, 2016" "ZFS pool 28, filesystem 5" "System Administration Commands"
 .SH NAME
 zpool \- configures ZFS storage pools
 .SH SYNOPSIS
@@ -26,7 +26,7 @@ zpool \- configures ZFS storage pools
 
 .LP
 .nf
-\fBzpool add\fR [\fB-fn\fR] [\fB-o\fR \fIproperty=value\fR] \fIpool\fR \fIvdev\fR ...
+\fBzpool add\fR [\fB-fgLnP\fR] [\fB-o\fR \fIproperty=value\fR] \fIpool\fR \fIvdev\fR ...
 .fi
 
 .LP
@@ -67,7 +67,7 @@ zpool \- configures ZFS storage pools
 
 .LP
 .nf
-\fBzpool get\fR [\fB-pH\fR] "\fIall\fR" | \fIproperty\fR[,...] \fIpool\fR ...
+\fBzpool get\fR [\fB-Hp\fR] [\fB-o \fR\fIfield\fR[,...]] "\fIall\fR" | \fIproperty\fR[,...] \fIpool\fR ...
 .fi
 
 .LP
@@ -83,18 +83,21 @@ zpool \- configures ZFS storage pools
 .LP
 .nf
 \fBzpool import\fR [\fB-o \fImntopts\fR\fR] [\fB-o\fR \fIproperty=value\fR] ... [\fB-d\fR \fIdir\fR | \fB-c\fR \fIcachefile\fR]
-     [\fB-D\fR] [\fB-f\fR] [\fB-m\fR] [\fB-N\fR] [\fB-R\fR \fIroot\fR] [\fB-F\fR [\fB-n\fR] [\fB-X\fR\] [\fB-T\fR\]] \fB-a\fR
+     [\fB-D\fR] [\fB-f\fR] [\fB-m\fR] [\fB-N\fR] [\fB-R\fR \fIroot\fR] [\fB-F\fR [\fB-n\fR] [\fB-X\fR\] [\fB-T\fR\]] [\fB-s\fR] \fB-a\fR
 .fi
 
 .LP
 .nf
 \fBzpool import\fR [\fB-o \fImntopts\fR\fR] [\fB-o\fR \fIproperty=value\fR] ... [\fB-d\fR \fIdir\fR | \fB-c\fR \fIcachefile\fR]
-     [\fB-D\fR] [\fB-f\fR] [\fB-m\fR] [\fB-R\fR \fIroot\fR] [\fB-F\fR [\fB-n\fR] [\fB-X\fR] [\fB-T\fR\]] [\fB-t\fR]] \fIpool\fR |\fIid\fR [\fInewpool\fR]
+     [\fB-D\fR] [\fB-f\fR] [\fB-m\fR] [\fB-R\fR \fIroot\fR] [\fB-F\fR [\fB-n\fR] [\fB-X\fR] [\fB-T\fR\]] [\fB-t\fR]] [\fB-s\fR]
+     \fIpool\fR | \fIid\fR [\fInewpool\fR]
 .fi
 
 .LP
 .nf
-\fBzpool iostat\fR [\fB-T\fR d | u ] [\fB-v\fR] [\fB-y\fR] [\fIpool\fR] ... [\fIinterval\fR[\fIcount\fR]]
+\fB\fBzpool iostat\fR [\fB-T\fR \fBd\fR | \fBu\fR] [\fB-ghHLpPvy\fR] [\fB-G\fR|[\fB-lq\fR]]
+     [[\fIpool\fR ...]|[\fIpool vdev\fR ...]|[\fIvdev\fR ...]] [\fIinterval\fR[\fIcount\fR]]\fR
+
 .fi
 
 .LP
@@ -104,7 +107,7 @@ zpool \- configures ZFS storage pools
 
 .LP
 .nf
-\fBzpool list\fR [\fB-T\fR d | u ] [\fB-Hv\fR] [\fB-o\fR \fIproperty\fR[,...]] [\fIpool\fR] ...
+\fBzpool list\fR [\fB-T\fR d | u ] [\fB-HgLpPv\fR] [\fB-o\fR \fIproperty\fR[,...]] [\fIpool\fR] ...
      [\fIinterval\fR[\fIcount\fR]]
 .fi
 
@@ -150,17 +153,17 @@ zpool \- configures ZFS storage pools
 
 .LP
 .nf
-\fBzpool split\fR [\fB-n\fR] [\fB-R\fR \fIaltroot\fR] [\fB-o\fR \fIproperty=value\fR] \fIpool\fR \fInewpool\fR [\fIdevice\fR ...]
+\fBzpool split\fR [\fB-gLnP\fR] [\fB-R\fR \fIaltroot\fR] [\fB-o\fR \fIproperty=value\fR] \fIpool\fR \fInewpool\fR [\fIdevice\fR ...]
 .fi
 
 .LP
 .nf
-\fBzpool status\fR [\fB-xvD\fR] [\fB-T\fR d | u] [\fIpool\fR] ... [\fIinterval\fR [\fIcount\fR]]
+\fBzpool status\fR [\fB-gLPvxD\fR] [\fB-T\fR d | u] [\fIpool\fR] ... [\fIinterval\fR [\fIcount\fR]]
 .fi
 
 .LP
 .nf
-\fBzpool upgrade\fR 
+\fBzpool upgrade\fR
 .fi
 
 .LP
@@ -191,7 +194,7 @@ A "virtual device" describes a single device or a collection of devices organize
 \fB\fBdisk\fR\fR
 .ad
 .RS 10n
-.rt  
+.rt
 A block device, typically located under \fB/dev\fR. \fBZFS\fR can use individual partitions, though the recommended mode of operation is to use whole disks. A disk can be specified by a full path, or it can be a shorthand name (the relative portion of the path under "/dev"). For example, "sda" is equivalent to "/dev/sda". A whole disk can be specified by omitting the partition designation. When given a whole disk, \fBZFS\fR automatically labels the disk, if necessary.
 .RE
 
@@ -202,7 +205,7 @@ A block device, typically located under \fB/dev\fR. \fBZFS\fR can use individual
 \fB\fBfile\fR\fR
 .ad
 .RS 10n
-.rt  
+.rt
 A regular file. The use of files as a backing store is strongly discouraged. It is designed primarily for experimental purposes, as the fault tolerance of a file is only as good as the file system of which it is a part. A file must be specified by a full path.
 .RE
 
@@ -213,7 +216,7 @@ A regular file. The use of files as a backing store is strongly discouraged. It
 \fB\fBmirror\fR\fR
 .ad
 .RS 10n
-.rt  
+.rt
 A mirror of two or more devices. Data is replicated in an identical fashion across all components of a mirror. A mirror with \fIN\fR disks of size \fIX\fR can hold \fIX\fR bytes and can withstand (\fIN-1\fR) devices failing before data integrity is compromised.
 .RE
 
@@ -236,7 +239,7 @@ A mirror of two or more devices. Data is replicated in an identical fashion acro
 \fB\fBraidz3\fR\fR
 .ad
 .RS 10n
-.rt  
+.rt
 A variation on \fBRAID-5\fR that allows for better distribution of parity and eliminates the "\fBRAID-5\fR write hole" (in which data and parity become inconsistent after a power loss). Data and parity is striped across all disks within a \fBraidz\fR group.
 .sp
 A \fBraidz\fR group can have single-, double- , or triple parity, meaning that the \fBraidz\fR group can sustain one, two, or three failures, respectively, without losing any data. The \fBraidz1\fR \fBvdev\fR type specifies a single-parity \fBraidz\fR group; the \fBraidz2\fR \fBvdev\fR type specifies a double-parity \fBraidz\fR group; and the \fBraidz3\fR \fBvdev\fR type specifies a triple-parity \fBraidz\fR group. The \fBraidz\fR \fBvdev\fR type is an alias for \fBraidz1\fR.
@@ -251,7 +254,7 @@ A \fBraidz\fR group with \fIN\fR disks of size \fIX\fR with \fIP\fR parity disks
 \fB\fBspare\fR\fR
 .ad
 .RS 10n
-.rt  
+.rt
 A special pseudo-\fBvdev\fR which keeps track of available hot spares for a pool. For more information, see the "Hot Spares" section.
 .RE
 
@@ -262,7 +265,7 @@ A special pseudo-\fBvdev\fR which keeps track of available hot spares for a pool
 \fB\fBlog\fR\fR
 .ad
 .RS 10n
-.rt  
+.rt
 A separate-intent log device. If more than one log device is specified, then writes are load-balanced between devices. Log devices can be mirrored. However, \fBraidz\fR \fBvdev\fR types are not supported for the intent log. For more information, see the "Intent Log" section.
 .RE
 
@@ -273,7 +276,7 @@ A separate-intent log device. If more than one log device is specified, then wri
 \fB\fBcache\fR\fR
 .ad
 .RS 10n
-.rt  
+.rt
 A device used to cache storage pool data. A cache device cannot be configured as a mirror or \fBraidz\fR group. For more information, see the "Cache Devices" section.
 .RE
 
@@ -303,7 +306,7 @@ Virtual devices are specified one at a time on the command line, separated by wh
 In order to take advantage of these features, a pool must make use of some form of redundancy, using either mirrored or \fBraidz\fR groups. While \fBZFS\fR supports running in a non-redundant configuration, where each root vdev is simply a disk or file, this is strongly discouraged. A single case of bit corruption can render some or all of your data unavailable.
 .sp
 .LP
-A pool's health status is described by one of three states: online, degraded, or faulted. An online pool has all devices operating normally. A degraded pool is one in which one or more devices have failed, but the data is still available due to a redundant configuration. A faulted pool has corrupted metadata, or one or more faulted devices, and insufficient replicas to continue functioning. 
+A pool's health status is described by one of three states: online, degraded, or faulted. An online pool has all devices operating normally. A degraded pool is one in which one or more devices have failed, but the data is still available due to a redundant configuration. A faulted pool has corrupted metadata, or one or more faulted devices, and insufficient replicas to continue functioning.
 .sp
 .LP
 The health of the top-level vdev, such as mirror or \fBraidz\fR device, is potentially impacted by the state of its associated vdevs, or component devices. A top-level vdev or component device is in one of the following states:
@@ -314,7 +317,7 @@ The health of the top-level vdev, such as mirror or \fBraidz\fR device, is poten
 \fB\fBDEGRADED\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 One or more top-level vdevs is in the degraded state because one or more component devices are offline. Sufficient replicas exist to continue functioning.
 .sp
 One or more component devices is in the degraded or faulted state, but sufficient replicas exist to continue functioning. The underlying conditions are as follows:
@@ -339,15 +342,15 @@ The number of I/O errors exceeds acceptable levels. The device could not be mark
 \fB\fBFAULTED\fR\fR
 .ad
 .RS 12n
-.rt  
-One or more top-level vdevs is in the faulted state because one or more component devices are offline. Insufficient replicas exist to continue functioning. 
+.rt
+One or more top-level vdevs is in the faulted state because one or more component devices are offline. Insufficient replicas exist to continue functioning.
 .sp
 One or more component devices is in the faulted state, and insufficient replicas exist to continue functioning. The underlying conditions are as follows:
 .RS +4
 .TP
 .ie t \(bu
 .el o
-The device could be opened, but the contents did not match expected values. 
+The device could be opened, but the contents did not match expected values.
 .RE
 .RS +4
 .TP
@@ -364,7 +367,7 @@ The number of I/O errors exceeds acceptable levels and the device is faulted to
 \fB\fBOFFLINE\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 The device was explicitly taken offline by the "\fBzpool offline\fR" command.
 .RE
 
@@ -375,7 +378,7 @@ The device was explicitly taken offline by the "\fBzpool offline\fR" command.
 \fB\fBONLINE\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 The device is online and functioning.
 .RE
 
@@ -386,7 +389,7 @@ The device is online and functioning.
 \fB\fBREMOVED\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 The device was physically removed while the system was running. Device removal detection is hardware-dependent and may not be supported on all platforms.
 .RE
 
@@ -397,7 +400,7 @@ The device was physically removed while the system was running. Device removal d
 \fB\fBUNAVAIL\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 The device could not be opened. If a pool is imported when a device was unavailable, then the device will be identified by a unique identifier instead of its path since the path was never correct in the first place.
 .RE
 
@@ -407,7 +410,7 @@ If a device is removed and later re-attached to the system, \fBZFS\fR attempts t
 .SS "Hot Spares"
 .sp
 .LP
-\fBZFS\fR allows devices to be associated with pools as "hot spares". These devices are not actively used in the pool, but when an active device fails, it is automatically replaced by a hot spare. To create a pool with hot spares, specify a "spare" \fBvdev\fR with any number of devices. For example, 
+\fBZFS\fR allows devices to be associated with pools as "hot spares". These devices are not actively used in the pool, but when an active device fails, it is automatically replaced by a hot spare. To create a pool with hot spares, specify a "spare" \fBvdev\fR with any number of devices. For example,
 .sp
 .in +2
 .nf
@@ -478,7 +481,7 @@ Each pool has several properties associated with it. Some properties are read-on
 \fB\fBavailable\fR\fR
 .ad
 .RS 20n
-.rt  
+.rt
 Amount of storage available within the pool. This property can also be referred to by its shortened column name, "avail".
 .RE
 
@@ -489,7 +492,7 @@ Amount of storage available within the pool. This property can also be referred
 \fB\fBcapacity\fR\fR
 .ad
 .RS 20n
-.rt  
+.rt
 Percentage of pool space used. This property can also be referred to by its shortened column name, "cap".
 .RE
 
@@ -550,7 +553,7 @@ while \fB\fBfree\fR\fR increases.
 \fB\fBhealth\fR\fR
 .ad
 .RS 20n
-.rt  
+.rt
 The current health of the pool. Health can be "\fBONLINE\fR", "\fBDEGRADED\fR", "\fBFAULTED\fR", " \fBOFFLINE\fR", "\fBREMOVED\fR", or "\fBUNAVAIL\fR".
 .RE
 
@@ -561,7 +564,7 @@ The current health of the pool. Health can be "\fBONLINE\fR", "\fBDEGRADED\fR",
 \fB\fBguid\fR\fR
 .ad
 .RS 20n
-.rt  
+.rt
 A unique identifier for the pool.
 .RE
 
@@ -572,7 +575,7 @@ A unique identifier for the pool.
 \fB\fBsize\fR\fR
 .ad
 .RS 20n
-.rt  
+.rt
 Total size of the storage pool.
 .RE
 
@@ -596,7 +599,7 @@ Information about unsupported features that are enabled on the pool. See
 \fB\fBused\fR\fR
 .ad
 .RS 20n
-.rt  
+.rt
 Amount of storage space used within the pool.
 .RE
 
@@ -611,11 +614,11 @@ The following property can be set at creation time:
 .ne 2
 .mk
 .na
-\fB\fBashift\fR\fR
+\fB\fBashift\fR=\fIashift\fR\fR
 .ad
 .sp .6
 .RS 4n
-Pool sector size exponent, to the power of 2 (internally referred to as "ashift"). I/O operations will be aligned to the specified size boundaries. Additionally, the minimum (disk) write size will be set to the specified size, so this represents a space vs. performance trade-off. The typical case for setting this property is when performance is important and the underlying disks use 4KiB sectors but report 512B sectors to the OS (for compatibility reasons); in that case, set \fBashift=12\fR (which is 1<<12 = 4096).
+Pool sector size exponent, to the power of 2 (internally referred to as "ashift"). Values from 9 to 13, inclusive, are valid; also, the special value 0 (the default) means to auto-detect using the kernel's block layer and a ZFS internal exception list. I/O operations will be aligned to the specified size boundaries. Additionally, the minimum (disk) write size will be set to the specified size, so this represents a space vs. performance trade-off. The typical case for setting this property is when performance is important and the underlying disks use 4KiB sectors but report 512B sectors to the OS (for compatibility reasons); in that case, set \fBashift=12\fR (which is 1<<12 = 4096).
 .LP
 For optimal performance, the pool sector size should be greater than or equal to the sector size of the underlying disks. Since the property cannot be changed after pool creation, if in a given pool, you \fIever\fR want to use drives that \fIreport\fR 4KiB sectors, you must set \fBashift=12\fR at pool creation time.
 .LP
@@ -629,7 +632,7 @@ The following property can be set at creation time and import time:
 .ne 2
 .mk
 .na
-\fB\fBaltroot\fR\fR
+\fB\fBaltroot\fR=(unset) | \fIpath\fR\fR
 .ad
 .sp .6
 .RS 4n
@@ -643,7 +646,7 @@ The following property can only be set at import time:
 .ne 2
 .mk
 .na
-\fB\fBreadonly\fR=\fBon\fR | \fBoff\fR\fR
+\fB\fBreadonly\fR=\fBoff\fR | \fBon\fR\fR
 .ad
 .sp .6
 .RS 4n
@@ -661,7 +664,7 @@ The following properties can be set at creation time and import time, and later
 .ne 2
 .mk
 .na
-\fB\fBautoexpand\fR=\fBon\fR | \fBoff\fR\fR
+\fB\fBautoexpand\fR=\fBoff\fR | \fBon\fR\fR
 .ad
 .sp .6
 .RS 4n
@@ -672,7 +675,7 @@ Controls automatic pool expansion when the underlying LUN is grown. If set to \f
 .ne 2
 .mk
 .na
-\fB\fBautoreplace\fR=\fBon\fR | \fBoff\fR\fR
+\fB\fBautoreplace\fR=\fBoff\fR | \fBon\fR\fR
 .ad
 .sp .6
 .RS 4n
@@ -683,22 +686,22 @@ Controls automatic device replacement. If set to "\fBoff\fR", device replacement
 .ne 2
 .mk
 .na
-\fB\fBbootfs\fR=\fIpool\fR/\fIdataset\fR\fR
+\fB\fBbootfs\fR=(unset) | \fIpool\fR/\fIdataset\fR\fR
 .ad
 .sp .6
 .RS 4n
-Identifies the default bootable dataset for the root pool. This property is expected to be set mainly by the installation and upgrade programs.
+Identifies the default bootable dataset for the root pool. This property is expected to be set mainly by the installation and upgrade programs. Not all Linux distribution boot processes use the \fBbootfs\fR property.
 .RE
 
 .sp
 .ne 2
 .mk
 .na
-\fB\fBcachefile\fR=\fIpath\fR | \fBnone\fR\fR
+\fB\fBcachefile\fR=fBnone\fR | \fIpath\fR\fR
 .ad
 .sp .6
 .RS 4n
-Controls the location of where the pool configuration is cached. Discovering all pools on system startup requires a cached copy of the configuration data that is stored on the root file system. All pools in this cache are automatically imported when the system boots. Some environments, such as install and clustering, need to cache this information in a different location so that pools are not automatically imported. Setting this property caches the pool configuration in a different location that can later be imported with "\fBzpool import -c\fR". Setting it to the special value "\fBnone\fR" creates a temporary pool that is never cached, and the special value \fB\&''\fR (empty string) uses the default location. 
+Controls the location of where the pool configuration is cached. Discovering all pools on system startup requires a cached copy of the configuration data that is stored on the root file system. All pools in this cache are automatically imported when the system boots. Some environments, such as install and clustering, need to cache this information in a different location so that pools are not automatically imported. Setting this property caches the pool configuration in a different location that can later be imported with "\fBzpool import -c\fR". Setting it to the special value "\fBnone\fR" creates a temporary pool that is never cached, and the special value \fB\&''\fR (empty string) uses the default location.
 .sp
 Multiple pools can share the same cache file. Because the kernel destroys and recreates this file when pools are added and removed, care should be taken when attempting to access this file. When the last pool using a \fBcachefile\fR is exported or destroyed, the file is removed.
 .RE
@@ -707,7 +710,7 @@ Multiple pools can share the same cache file. Because the kernel destroys and re
 .ne 2
 .mk
 .na
-\fB\fBcomment\fR=\fB\fItext\fR\fR
+\fB\fBcomment\fR=(unset) | \fB\fItext\fR\fR
 .ad
 .sp .6
 .RS 4n
@@ -722,7 +725,7 @@ A text string consisting of printable ASCII characters that will be stored such
 .ad
 .sp .6
 .RS 4n
-Threshold for the number of block ditto copies. If the reference count for a deduplicated block increases above this number, a new ditto copy of this block is automatically stored. The default setting is 0 which causes no ditto copies to be created for deduplicated blocks.  The miniumum legal nonzero setting is 100.
+Threshold for the number of block ditto copies. If the reference count for a deduplicated block increases above this number, a new ditto copy of this block is automatically stored. The default setting is 0 which causes no ditto copies to be created for deduplicated blocks.  The minimum valid nonzero setting is 100.
 .RE
 
 .sp
@@ -752,7 +755,7 @@ Controls the system behavior in the event of catastrophic pool failure. This con
 \fB\fBwait\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 Blocks all \fBI/O\fR access until the device connectivity is recovered and the errors are cleared. This is the default behavior.
 .RE
 
@@ -763,7 +766,7 @@ Blocks all \fBI/O\fR access until the device connectivity is recovered and the e
 \fB\fBcontinue\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 Returns \fBEIO\fR to any new write \fBI/O\fR requests but allows reads to any of the remaining healthy devices. Any write requests that have yet to be committed to disk would be blocked.
 .RE
 
@@ -774,7 +777,7 @@ Returns \fBEIO\fR to any new write \fBI/O\fR requests but allows reads to any of
 \fB\fBpanic\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 Prints out a message to the console and generates a system crash dump.
 .RE
 
@@ -796,18 +799,20 @@ details on feature states.
 .ne 2
 .mk
 .na
-\fB\fBlistsnaps\fR=on | off\fR
+\fB\fBlistsnapshots\fR=on | off\fR
 .ad
 .sp .6
 .RS 4n
 Controls whether information about snapshots associated with this pool is output when "\fBzfs list\fR" is run without the \fB-t\fR option. The default value is "off".
+.sp
+This property can also be referred to by its shortened name, \fBlistsnaps\fR.
 .RE
 
 .sp
 .ne 2
 .mk
 .na
-\fB\fBversion\fR=\fIversion\fR\fR
+\fB\fBversion\fR=(unset) | \fIversion\fR\fR
 .ad
 .sp .6
 .RS 4n
@@ -836,7 +841,7 @@ Displays a help message.
 .ne 2
 .mk
 .na
-\fB\fBzpool add\fR [\fB-fn\fR] [\fB-o\fR \fIproperty=value\fR] \fIpool\fR \fIvdev\fR ...\fR
+\fB\fBzpool add\fR [\fB-fgLnP\fR] [\fB-o\fR \fIproperty=value\fR] \fIpool\fR \fIvdev\fR ...\fR
 .ad
 .sp .6
 .RS 4n
@@ -848,10 +853,32 @@ Adds the specified virtual devices to the given pool. The \fIvdev\fR specificati
 \fB\fB-f\fR\fR
 .ad
 .RS 6n
-.rt  
+.rt
 Forces use of \fBvdev\fRs, even if they appear in use or specify a conflicting replication level. Not all devices can be overridden in this manner.
 .RE
 
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-g\fR\fR
+.ad
+.RS 6n
+.rt
+Display vdev GUIDs instead of the normal device names. These GUIDs can be used in place of device names for the zpool detach/offline/remove/replace commands.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-L\fR\fR
+.ad
+.RS 6n
+.rt
+Display real paths for vdevs resolving all symbolic links. This can be used to look up the current block device name regardless of the /dev/disk/ path used to open it.
+.RE
+
 .sp
 .ne 2
 .mk
@@ -859,10 +886,21 @@ Forces use of \fBvdev\fRs, even if they appear in use or specify a conflicting r
 \fB\fB-n\fR\fR
 .ad
 .RS 6n
-.rt  
+.rt
 Displays the configuration that would be used without actually adding the \fBvdev\fRs. The actual pool creation can still fail due to insufficient privileges or device sharing.
 .RE
 
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-P\fR\fR
+.ad
+.RS 6n
+.rt
+Display full paths for vdevs instead of only the last component of the path.  This can be used in conjunction with the \fB-L\fR flag.
+.RE
+
 .sp
 .ne 2
 .mk
@@ -893,7 +931,7 @@ Attaches \fInew_device\fR to an existing \fBzpool\fR device. The existing device
 \fB\fB-f\fR\fR
 .ad
 .RS 6n
-.rt  
+.rt
 Forces use of \fInew_device\fR, even if its appears to be in use. Not all devices can be overridden in this manner.
 .RE
 
@@ -1047,7 +1085,7 @@ Destroys the given pool, freeing up any devices for other use. This command trie
 \fB\fB-f\fR\fR
 .ad
 .RS 6n
-.rt  
+.rt
 Forces any active datasets contained within the pool to be unmounted.
 .RE
 
@@ -1165,7 +1203,8 @@ This command will forcefully export the pool even if it has a shared spare that
 .ne 2
 .mk
 .na
-\fB\fBzpool get\fR [\fB-p\fR] "\fIall\fR" | \fIproperty\fR[,...] \fIpool\fR ...\fR
+\fB\fBzpool get\fR [\fB-Hp\fR] [\fB-o \fR\fIfield\fR[,...]]  "\fIall\fR" | \fIproperty\fR[,...]
+\fIpool\fR ...\fR
 .ad
 .sp .6
 .RS 4n
@@ -1173,7 +1212,7 @@ Retrieves the given list of properties (or all properties if "\fBall\fR" is used
 .sp
 .in +2
 .nf
-       name          Name of storage pool
+        name          Name of storage pool
         property      Property name
         value         Property value
         source        Property source, either 'default' or 'local'.
@@ -1182,28 +1221,40 @@ Retrieves the given list of properties (or all properties if "\fBall\fR" is used
 .sp
 
 See the "Properties" section for more information on the available pool properties.
+
 .sp
 .ne 2
 .mk
 .na
-\fB\fB-p\fR\fR
+\fB\fB-H\fR\fR
 .ad
 .RS 6n
 .rt
-Display numbers in parseable (exact) values.
+Scripted mode. Do not display headers, and separate fields by a single tab instead of arbitrary space.
 .RE
 
 .sp
 .ne 2
 .mk
 .na
-\fB\fB-H\fR\fR
+\fB\fB-p\fR\fR
 .ad
 .RS 6n
 .rt
-Scripted mode. Do not display headers, and separate fields by a single tab instead of arbitrary space.
+Display numbers in parseable (exact) values.
 .RE
 
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-o\fR \fIfield\fR\fR
+.ad
+.RS 12n
+.rt
+A comma-separated list of columns to display. \fBname,property,value,source\fR
+is the default value.
+.RE
 .RE
 
 .sp
@@ -1222,7 +1273,7 @@ Displays the command history of the specified pools or all pools if no pool is s
 \fB\fB-i\fR\fR
 .ad
 .RS 6n
-.rt  
+.rt
 Displays internally logged \fBZFS\fR events in addition to user initiated events.
 .RE
 
@@ -1233,7 +1284,7 @@ Displays internally logged \fBZFS\fR events in addition to user initiated events
 \fB\fB-l\fR\fR
 .ad
 .RS 6n
-.rt  
+.rt
 Displays log records in long format, which in addition to standard format includes, the user name, the hostname, and the zone in which the operation was performed.
 .RE
 
@@ -1247,7 +1298,7 @@ Displays log records in long format, which in addition to standard format includ
 .ad
 .sp .6
 .RS 4n
-Lists pools available to import. If the \fB-d\fR option is not specified, this command searches for devices in "/dev". The \fB-d\fR option can be specified multiple times, and all directories are searched. If the device appears to be part of an exported pool, this command displays a summary of the pool with the name of the pool, a numeric identifier, as well as the \fIvdev\fR layout and current health of the device for each device or file. Destroyed pools, pools that were previously destroyed with the "\fBzpool destroy\fR" command, are not listed unless the \fB-D\fR option is specified. 
+Lists pools available to import. If the \fB-d\fR option is not specified, this command searches for devices in "/dev". The \fB-d\fR option can be specified multiple times, and all directories are searched. If the device appears to be part of an exported pool, this command displays a summary of the pool with the name of the pool, a numeric identifier, as well as the \fIvdev\fR layout and current health of the device for each device or file. Destroyed pools, pools that were previously destroyed with the "\fBzpool destroy\fR" command, are not listed unless the \fB-D\fR option is specified.
 .sp
 The numeric identifier is unique, and can be used instead of the pool name when multiple exported pools of the same name are available.
 .sp
@@ -1257,7 +1308,7 @@ The numeric identifier is unique, and can be used instead of the pool name when
 \fB\fB-c\fR \fIcachefile\fR\fR
 .ad
 .RS 16n
-.rt  
+.rt
 Reads configuration from the given \fBcachefile\fR that was created with the "\fBcachefile\fR" pool property. This \fBcachefile\fR is used instead of searching for devices.
 .RE
 
@@ -1268,8 +1319,8 @@ Reads configuration from the given \fBcachefile\fR that was created with the "\f
 \fB\fB-d\fR \fIdir\fR\fR
 .ad
 .RS 16n
-.rt  
-Searches for devices or files in \fIdir\fR. The \fB-d\fR option can be specified multiple times. 
+.rt
+Searches for devices or files in \fIdir\fR. The \fB-d\fR option can be specified multiple times.
 .RE
 
 .sp
@@ -1279,7 +1330,7 @@ Searches for devices or files in \fIdir\fR. The \fB-d\fR option can be specified
 \fB\fB-D\fR\fR
 .ad
 .RS 16n
-.rt  
+.rt
 Lists destroyed pools only.
 .RE
 
@@ -1289,7 +1340,7 @@ Lists destroyed pools only.
 .ne 2
 .mk
 .na
-\fB\fBzpool import\fR [\fB-o\fR \fImntopts\fR] [ \fB-o\fR \fIproperty\fR=\fIvalue\fR] ... [\fB-d\fR \fIdir\fR | \fB-c\fR \fIcachefile\fR] [\fB-D\fR] [\fB-f\fR] [\fB-m\fR] [\fB-N\fR] [\fB-R\fR \fIroot\fR] [\fB-F\fR [\fB-n\fR]] \fB-a\fR\fR
+\fB\fBzpool import\fR [\fB-o\fR \fImntopts\fR] [ \fB-o\fR \fIproperty\fR=\fIvalue\fR] ... [\fB-d\fR \fIdir\fR | \fB-c\fR \fIcachefile\fR] [\fB-D\fR] [\fB-f\fR] [\fB-m\fR] [\fB-N\fR] [\fB-R\fR \fIroot\fR] [\fB-F\fR [\fB-n\fR]] [\fB-s\fR] \fB-a\fR\fR
 .ad
 .sp .6
 .RS 4n
@@ -1301,7 +1352,7 @@ Imports all pools found in the search directories. Identical to the previous com
 \fB\fB-o\fR \fImntopts\fR\fR
 .ad
 .RS 21n
-.rt  
+.rt
 Comma-separated list of mount options to use when mounting datasets within the pool. See \fBzfs\fR(8) for a description of dataset properties and mount options.
 .RE
 
@@ -1312,7 +1363,7 @@ Comma-separated list of mount options to use when mounting datasets within the p
 \fB\fB-o\fR \fIproperty=value\fR\fR
 .ad
 .RS 21n
-.rt  
+.rt
 Sets the specified property on the imported pool. See the "Properties" section for more information on the available pool properties.
 .RE
 
@@ -1323,7 +1374,7 @@ Sets the specified property on the imported pool. See the "Properties" section f
 \fB\fB-c\fR \fIcachefile\fR\fR
 .ad
 .RS 21n
-.rt  
+.rt
 Reads configuration from the given \fBcachefile\fR that was created with the "\fBcachefile\fR" pool property. This \fBcachefile\fR is used instead of searching for devices.
 .RE
 
@@ -1334,7 +1385,7 @@ Reads configuration from the given \fBcachefile\fR that was created with the "\f
 \fB\fB-d\fR \fIdir\fR\fR
 .ad
 .RS 21n
-.rt  
+.rt
 Searches for devices or files in \fIdir\fR. The \fB-d\fR option can be specified multiple times. This option is incompatible with the \fB-c\fR option.
 .RE
 
@@ -1345,7 +1396,7 @@ Searches for devices or files in \fIdir\fR. The \fB-d\fR option can be specified
 \fB\fB-D\fR\fR
 .ad
 .RS 21n
-.rt  
+.rt
 Imports destroyed pools only. The \fB-f\fR option is also required.
 .RE
 
@@ -1356,7 +1407,7 @@ Imports destroyed pools only. The \fB-f\fR option is also required.
 \fB\fB-f\fR\fR
 .ad
 .RS 21n
-.rt  
+.rt
 Forces import, even if the pool appears to be potentially active.
 .RE
 
@@ -1377,8 +1428,8 @@ Recovery mode for a non-importable pool. Attempt to return the pool to an import
 \fB\fB-a\fR\fR
 .ad
 .RS 21n
-.rt  
-Searches for and imports all pools found. 
+.rt
+Searches for and imports all pools found.
 .RE
 
 .sp
@@ -1398,7 +1449,7 @@ Allows a pool to import when there is a missing log device.
 \fB\fB-R\fR \fIroot\fR\fR
 .ad
 .RS 21n
-.rt  
+.rt
 Sets the "\fBcachefile\fR" property to "\fBnone\fR" and the "\fIaltroot\fR" property to "\fIroot\fR".
 .RE
 
@@ -1444,13 +1495,24 @@ Specify the txg to use for rollback.  Implies \fB-FX\fR. For more details about
 \fBWARNING\fR: This option can be extremely hazardous to the health of your pool and should only be used as a last resort.
 .RE
 
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-s\fR
+.ad
+.RS 21n
+.rt
+Scan using the default search path, the libblkid cache will not be consulted.  A custom search path may be specified by setting the \fBZPOOL_IMPORT_PATH\fR environment variable.
+.RE
+
 .RE
 
 .sp
 .ne 2
 .mk
 .na
-\fB\fBzpool import\fR [\fB-o\fR \fImntopts\fR] [ \fB-o\fR \fIproperty\fR=\fIvalue\fR] ... [\fB-d\fR \fIdir\fR | \fB-c\fR \fIcachefile\fR] [\fB-D\fR] [\fB-f\fR] [\fB-m\fR] [\fB-R\fR \fIroot\fR] [\fB-F\fR [\fB-n\fR]] [\fB-t\fR]] \fIpool\fR | \fIid\fR [\fInewpool\fR]\fR
+\fB\fBzpool import\fR [\fB-o\fR \fImntopts\fR] [ \fB-o\fR \fIproperty\fR=\fIvalue\fR] ... [\fB-d\fR \fIdir\fR | \fB-c\fR \fIcachefile\fR] [\fB-D\fR] [\fB-f\fR] [\fB-m\fR] [\fB-R\fR \fIroot\fR] [\fB-F\fR [\fB-n\fR]] [\fB-t\fR]] [\fB-s\fR] \fIpool\fR | \fIid\fR [\fInewpool\fR]\fR
 .ad
 .sp .6
 .RS 4n
@@ -1602,17 +1664,39 @@ Used with "\fBnewpool\fR". Specifies that "\fBnewpool\fR" is temporary. Temporar
 Allows a pool to import when there is a missing log device.
 .RE
 
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-s\fR
+.ad
+.sp .6
+.RS 4n
+Scan using the default search path, the libblkid cache will not be consulted.  A custom search path may be specified by setting the \fBZPOOL_IMPORT_PATH\fR environment variable.
+.RE
+
 .RE
 
 .sp
 .ne 2
 .mk
 .na
-\fB\fBzpool iostat\fR [\fB-T\fR \fBd\fR | \fBu\fR] [\fB-v\fR] [\fB-y\fR] [\fIpool\fR] ... [\fIinterval\fR[\fIcount\fR]]\fR
+\fB\fBzpool iostat\fR [\fB-T\fR \fBd\fR | \fBu\fR] [\fB-ghHLpPvy\fR] [\fB-w\fR|[\fB-lq\fR]] [[\fIpool\fR ...]|[\fIpool vdev\fR ...]|[\fIvdev\fR ...]] [\fIinterval\fR[\fIcount\fR]]\fR
+
 .ad
 .sp .6
 .RS 4n
-Displays \fBI/O\fR statistics for the given pools. When given an interval, the statistics are printed every \fIinterval\fR seconds until \fBCtrl-C\fR is pressed. If no \fIpools\fR are specified, statistics for every pool in the system is shown. If \fIcount\fR is specified, the command exits after \fIcount\fR reports are printed.
+Displays \fBI/O\fR statistics for the given \fIpool\fRs/\fIvdev\fRs. You can
+pass in a list of \fIpool\fRs, a \fIpool\fR and list of \fIvdev\fRs in that
+\fIpool\fR, or a list of any \fIvdev\fRs from any \fIpool\fR. If no items are
+specified, statistics for every pool in the system are shown.  When given an
+interval, the statistics are printed every \fIinterval\fR seconds until
+\fBCtrl-C\fR is pressed. If \fIcount\fR is specified, the command exits after
+\fIcount\fR reports are printed.  The first report printed is always the
+statistics since boot regardless of whether \fIinterval\fR and \fIcount\fR
+are passed.  However, this behavior can be suppressed with the -y flag.  Also
+note that the units of 'K', 'M', 'G'...  that are printed in the report are in
+base 1024.  To get the raw values, use the \fB-p\fR flag.
 .sp
 .ne 2
 .mk
@@ -1620,12 +1704,67 @@ Displays \fBI/O\fR statistics for the given pools. When given an interval, the s
 \fB\fB-T\fR \fBu\fR | \fBd\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 Display a time stamp.
 .sp
 Specify \fBu\fR for a printed representation of the internal representation of time. See \fBtime\fR(2). Specify \fBd\fR for standard date format. See \fBdate\fR(1).
 .RE
 
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-g\fR\fR
+.ad
+.RS 12n
+.rt
+Display vdev GUIDs instead of the normal device names. These GUIDs can be used in place of device names for the zpool detach/offline/remove/replace commands.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-H\fR\fR
+.ad
+.RS 12n
+.rt
+Scripted mode. Do not display headers, and separate fields by a single tab instead of arbitrary space.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-L\fR\fR
+.ad
+.RS 12n
+.rt
+Display real paths for vdevs resolving all symbolic links. This can be used to look up the current block device name regardless of the /dev/disk/ path used to open it.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-p\fR\fR
+.ad
+.RS 12n
+.rt
+Display numbers in parseable (exact) values.  Time values are in nanoseconds.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-P\fR\fR
+.ad
+.RS 12n
+.rt
+Display full paths for vdevs instead of only the last component of the path.  This can be used in conjunction with the \fB-L\fR flag.
+.RE
+
 .sp
 .ne 2
 .mk
@@ -1633,7 +1772,7 @@ Specify \fBu\fR for a printed representation of the internal representation of t
 \fB\fB-v\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 Verbose statistics. Reports usage statistics for individual \fIvdevs\fR within the pool, in addition to the pool-wide statistics.
 .RE
 
@@ -1647,9 +1786,177 @@ Verbose statistics. Reports usage statistics for individual \fIvdevs\fR within t
 .rt
 Omit statistics since boot.  Normally the first line of output reports the statistics since boot.  This option suppresses that first line of output.
 .RE
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-w\fR\fR
+.ad
+.RS 12n
+.rt
+Display latency histograms:
+
+.sp
+.ne 2
+.mk
+.na
+total_wait:
+.ad
+.RS 20n
+.rt
+Total IO time (queuing + disk IO time).
+.RE
+.ne 2
+.mk
+.na
+disk_wait:
+.ad
+.RS 20n
+.rt
+Disk IO time (time reading/writing the disk).
+.RE
+.ne 2
+.mk
+.na
+syncq_wait:
+.ad
+.RS 20n
+.rt
+Amount of time IO spent in synchronous priority queues.  Does not include
+disk time.
+.RE
+.ne 2
+.mk
+.na
+asyncq_wait:
+.ad
+.RS 20n
+.rt
+Amount of time IO spent in asynchronous priority queues.  Does not include
+disk time.
+.RE
+.ne 2
+.mk
+.na
+scrub:
+.ad
+.RS 20n
+.rt
+Amount of time IO spent in scrub queue. Does not include disk time.
+
+
+.RE
+
+All histogram buckets are power-of-two sized.  The time labels are the end
+ranges of the buckets, so for example, a 15ns bucket stores latencies from
+8-15ns.  The last bucket is also a catch-all for latencies higher than the
+maximum.
+.RE
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-l\fR\fR
+.ad
+.RS 12n
+.rt
+Include average latency statistics:
 
+.sp
+.ne 2
+.mk
+.na
+total_wait:
+.ad
+.RS 20n
+.rt
+Average total IO time (queuing + disk IO time).
+.RE
+.ne 2
+.mk
+.na
+disk_wait:
+.ad
+.RS 20n
+.rt
+Average disk IO time (time reading/writing the disk).
+.RE
+.ne 2
+.mk
+.na
+syncq_wait:
+.ad
+.RS 20n
+.rt
+Average amount of time IO spent in synchronous priority queues.  Does not
+include disk time.
+.RE
+.ne 2
+.mk
+.na
+asyncq_wait:
+.ad
+.RS 20n
+.rt
+Average amount of time IO spent in asynchronous priority queues.  Does not
+include disk time.
+.RE
+.ne 2
+.mk
+.na
+scrub:
+.ad
+.RS 20n
+.rt
+Average queuing time in scrub queue.  Does not include disk time.
 .RE
 
+.RE
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-q\fR\fR
+.ad
+.RS 12n
+.rt
+Include active queue statistics.  Each priority queue has both pending ("pend")
+and active ("activ") IOs.  Pending IOs are waiting to be issued to the disk, and
+active IOs have been issued to disk and are waiting for completion.  These stats
+are broken out by priority queue:
+.sp
+.ne 2
+.mk
+.na
+syncq_read/write:
+.ad
+.RS 20n
+.rt
+Current number of entries in synchronous priority queues.
+.RE
+.ne 2
+.mk
+.na
+asyncq_read/write:
+.ad
+.RS 20n
+.rt
+Current number of entries in asynchronous priority queues.
+.RE
+.ne 2
+.mk
+.na
+scrubq_read:
+.ad
+.RS 20n
+.rt
+Current number of entries in scrub queue.
+.RE
+
+All queue statistics are instantaneous measurements of the number of entries
+in the queues.  If you specify an interval, the measurements will be sampled
+from the end of the interval.
+.RE
 .sp
 .ne 2
 .mk
@@ -1676,7 +1983,7 @@ Treat exported or foreign devices as inactive.
 .ne 2
 .mk
 .na
-\fB\fBzpool list\fR [\fB-T\fR \fBd\fR | \fBu\fR] [\fB-Hv\fR] [\fB-o\fR \fIprops\fR[,...]] [\fIpool\fR] ... [\fIinterval\fR[\fIcount\fR]]\fR
+\fB\fBzpool list\fR [\fB-T\fR \fBd\fR | \fBu\fR] [\fB-HgLpPv\fR] [\fB-o\fR \fIprops\fR[,...]] [\fIpool\fR] ... [\fIinterval\fR[\fIcount\fR]]\fR
 .ad
 .sp .6
 .RS 4n
@@ -1688,17 +1995,62 @@ Lists the given pools along with a health status and space usage. If no \fIpools
 \fB\fB-H\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 Scripted mode. Do not display headers, and separate fields by a single tab instead of arbitrary space.
 .RE
 
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-g\fR\fR
+.ad
+.RS 12n
+.rt
+Display vdev GUIDs instead of the normal device names. These GUIDs can be used in place of device names for the zpool detach/offline/remove/replace commands.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-L\fR\fR
+.ad
+.RS 12n
+.rt
+Display real paths for vdevs resolving all symbolic links. This can be used to look up the current block device name regardless of the /dev/disk/ path used to open it.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-p\fR\fR
+.ad
+.RS 12n
+.rt
+Display numbers in parsable (exact) values.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-P\fR\fR
+.ad
+.RS 12n
+.rt
+Display full paths for vdevs instead of only the last component of the path.  This can be used in conjunction with the \fB-L\fR flag.
+.RE
+
+.sp
 .ne 2
 .mk
 .na
 \fB\fB-T\fR \fBd\fR | \fBu\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 Display a time stamp.
 .sp
 Specify \fBu\fR for a printed representation of the internal representation of time. See \fBtime\fR(2). Specify \fBd\fR for standard date format. See \fBdate\fR(1).
@@ -1711,7 +2063,7 @@ Specify \fBu\fR for a printed representation of the internal representation of t
 \fB\fB-o\fR \fIprops\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 Comma-separated list of properties to display. See the "Properties" section for a list of valid properties. The default list is "name, size, used, available, fragmentation, expandsize, capacity, dedupratio, health, altroot"
 .RE
 
@@ -1746,7 +2098,7 @@ This command is not applicable to spares or cache devices.
 \fB\fB-t\fR\fR
 .ad
 .RS 6n
-.rt  
+.rt
 Temporary. Upon reboot, the specified physical device reverts to its previous state.
 .RE
 
@@ -1770,7 +2122,7 @@ This command is not applicable to spares or cache devices.
 \fB\fB-e\fR\fR
 .ad
 .RS 6n
-.rt  
+.rt
 Expand the device to use all available space. If the device is part of a mirror or \fBraidz\fR then all devices must be expanded before the new space will become available to the pool.
 .RE
 
@@ -1828,7 +2180,7 @@ The size of \fInew_device\fR must be greater than or equal to the minimum size o
 \fB\fB-f\fR\fR
 .ad
 .RS 6n
-.rt  
+.rt
 Forces use of \fInew_device\fR, even if its appears to be in use. Not all devices can be overridden in this manner.
 .RE
 
@@ -1865,7 +2217,7 @@ Because scrubbing and resilvering are \fBI/O\fR-intensive operations, \fBZFS\fR
 \fB\fB-s\fR\fR
 .ad
 .RS 6n
-.rt  
+.rt
 Stop scrubbing.
 .RE
 
@@ -1886,7 +2238,7 @@ Sets the given property on the specified pool. See the "Properties" section for
 .ne 2
 .mk
 .na
-\fBzpool split\fR [\fB-n\fR] [\fB-R\fR \fIaltroot\fR] [\fB-o\fR \fIproperty=value\fR] \fIpool\fR \fInewpool\fR [\fIdevice\fR ...]
+\fBzpool split\fR [\fB-gLnP\fR] [\fB-R\fR \fIaltroot\fR] [\fB-o\fR \fIproperty=value\fR] \fIpool\fR \fInewpool\fR [\fIdevice\fR ...]
 .ad
 .sp .6
 .RS 4n
@@ -1894,6 +2246,28 @@ Split devices off \fIpool\fR creating \fInewpool\fR. All \fBvdev\fRs in \fIpool\
 
 The optional \fIdevice\fR specification causes the specified device(s) to be included in the new pool and, should any devices remain unspecified, the last device in each mirror is used as would be by default.
 
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-g\fR\fR
+.ad
+.RS 6n
+.rt
+Display vdev GUIDs instead of the normal device names. These GUIDs can be used in place of device names for the zpool detach/offline/remove/replace commands.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-L\fR\fR
+.ad
+.RS 6n
+.rt
+Display real paths for vdevs resolving all symbolic links. This can be used to look up the current block device name regardless of the /dev/disk/ path used to open it.
+.RE
+
 .sp
 .ne 2
 .mk
@@ -1905,6 +2279,17 @@ The optional \fIdevice\fR specification causes the specified device(s) to be inc
 Do dry run, do not actually perform the split. Print out the expected configuration of \fInewpool\fR.
 .RE
 
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-P\fR\fR
+.ad
+.RS 6n
+.rt
+Display full paths for vdevs instead of only the last component of the path.  This can be used in conjunction with the \fB-L\fR flag.
+.RE
+
 .sp
 .ne 2
 .mk
@@ -1913,7 +2298,7 @@ Do dry run, do not actually perform the split. Print out the expected configurat
 .ad
 .sp .6
 .RS 4n
-Set \fIaltroot\fR for \fInewpool\fR and automaticaly import it.  This can be useful to avoid mountpoint collisions if \fInewpool\fR is imported on the same filesystem as \fIpool\fR.
+Set \fIaltroot\fR for \fInewpool\fR and automatically import it.  This can be useful to avoid mountpoint collisions if \fInewpool\fR is imported on the same filesystem as \fIpool\fR.
 .RE
 
 .sp
@@ -1933,22 +2318,45 @@ Sets the specified property for \fInewpool\fR. See the “Properties” section
 .ne 2
 .mk
 .na
-\fBzpool status\fR [\fB-xvD\fR] [\fB-T\fR d | u] [\fIpool\fR] ... [\fIinterval\fR [\fIcount\fR]]
+\fBzpool status\fR [\fB-gLPvxD\fR] [\fB-T\fR d | u] [\fIpool\fR] ... [\fIinterval\fR [\fIcount\fR]]
 .ad
 .sp .6
 .RS 4n
 Displays the detailed health status for the given pools. If no \fIpool\fR is specified, then the status of each pool in the system is displayed. For more information on pool and device health, see the "Device Failure and Recovery" section.
 .sp
 If a scrub or resilver is in progress, this command reports the percentage done and the estimated time to completion. Both of these are only approximate, because the amount of data in the pool and the other workloads on the system can change.
+
 .sp
 .ne 2
 .mk
 .na
-\fB\fB-x\fR\fR
+\fB\fB-g\fR\fR
 .ad
 .RS 12n
-.rt  
-Only display status for pools that are exhibiting errors or are otherwise unavailable. Warnings about pools not using the latest on-disk format will not be included.
+.rt
+Display vdev GUIDs instead of the normal device names. These GUIDs can be used innplace of device names for the zpool detach/offline/remove/replace commands.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-L\fR\fR
+.ad
+.RS 12n
+.rt
+Display real paths for vdevs resolving all symbolic links. This can be used to look up the current block device name regardless of the /dev/disk/ path used to open it.
+.RE
+
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-P\fR\fR
+.ad
+.RS 12n
+.rt
+Display full paths for vdevs instead of only the last component of the path.  This can be used in conjunction with the \fB-L\fR flag.
 .RE
 
 .sp
@@ -1958,10 +2366,21 @@ Only display status for pools that are exhibiting errors or are otherwise unavai
 \fB\fB-v\fR\fR
 .ad
 .RS 12n
-.rt  
+.rt
 Displays verbose data error information, printing out a complete list of all data errors since the last complete pool scrub.
 .RE
 
+.sp
+.ne 2
+.mk
+.na
+\fB\fB-x\fR\fR
+.ad
+.RS 12n
+.rt
+Only display status for pools that are exhibiting errors or are otherwise unavailable. Warnings about pools not using the latest on-disk format will not be included.
+.RE
+
 .sp
 .ne 2
 .mk
@@ -1987,6 +2406,8 @@ Display a time stamp.
 Specify \fBu\fR for a printed representation of the internal representation of time. See \fBtime\fR(2). Specify \fBd\fR for standard date format. See \fBdate\fR(1).
 .RE
 
+.RE
+
 .sp
 .ne 2
 .mk
@@ -2277,7 +2698,7 @@ The following command adds two disks for use as cache devices to a ZFS storage p
 
 .sp
 .LP
-Once added, the cache devices gradually fill with content from main memory. Depending on the size of your cache devices, it could take over an hour for them to fill. Capacity and reads can be monitored using the \fBiostat\fR option as follows: 
+Once added, the cache devices gradually fill with content from main memory. Depending on the size of your cache devices, it could take over an hour for them to fill. Capacity and reads can be monitored using the \fBiostat\fR option as follows:
 
 .sp
 .in +2
@@ -2339,7 +2760,7 @@ The command to remove the mirrored log \fBmirror-2\fR is:
 .LP
 The following command displays the detailed information for the \fIdata\fR
 pool. This pool is comprised of a single \fIraidz\fR vdev where one of its
-devices increased its capacity by 10GB. In this example, the pool will not 
+devices increased its capacity by 10GB. In this example, the pool will not
 be able to utilized this extra capacity until all the devices under the
 \fIraidz\fR vdev have been expanded.
 
@@ -2367,8 +2788,8 @@ The following exit values are returned:
 \fB\fB0\fR\fR
 .ad
 .RS 5n
-.rt  
-Successful completion. 
+.rt
+Successful completion.
 .RE
 
 .sp
@@ -2378,7 +2799,7 @@ Successful completion.
 \fB\fB1\fR\fR
 .ad
 .RS 5n
-.rt  
+.rt
 An error occurred.
 .RE
 
@@ -2389,7 +2810,7 @@ An error occurred.
 \fB\fB2\fR\fR
 .ad
 .RS 5n
-.rt  
+.rt
 Invalid command line options were specified.
 .RE
 
@@ -2401,6 +2822,28 @@ Cause \fBzpool\fR to dump core on exit for the purposes of running \fB::findleak
 .B "ZPOOL_IMPORT_PATH"
 The search path for devices or files to use with the pool. This is a colon-separated list of directories in which \fBzpool\fR looks for device nodes and files.
 Similar to the \fB-d\fR option in \fIzpool import\fR.
+.TP
+.B "ZPOOL_VDEV_NAME_GUID"
+Cause \fBzpool\fR subcommands to output vdev guids by default.  This behavior
+is identical to the \fBzpool status -g\fR command line option.
+.TP
+.B "ZPOOL_VDEV_NAME_FOLLOW_LINKS"
+Cause \fBzpool\fR subcommands to follow links for vdev names by default.  This behavior is identical to the \fBzpool status -L\fR command line option.
+.TP
+.B "ZPOOL_VDEV_NAME_PATH"
+Cause \fBzpool\fR subcommands to output full vdev path names by default.  This
+behavior is identical to the \fBzpool status -p\fR command line option.
+.TP
+.B "ZFS_VDEV_DEVID_OPT_OUT"
+Older ZFS on Linux implementations had issues when attempting to display pool
+config VDEV names if a "devid" NVP value is present in the pool's config.
+
+For example, a pool that originated on illumos platform would have a devid
+value in the config and \fBzpool status\fR would fail when listing the config.
+This would also be true for future Linux based pools.
+
+A pool can be stripped of any "devid" values on import or prevented from adding
+them on \fBzpool create\fR or \fBzpool add\fR by setting ZFS_VDEV_DEVID_OPT_OUT.
 
 .SH SEE ALSO
 .sp