]> git.proxmox.com Git - mirror_zfs.git/commit - include/sys/fs/zfs.h
Import vdev ashift optimization from FreeBSD
authorRyan Moeller <ryan@iXsystems.com>
Fri, 21 Aug 2020 19:53:17 +0000 (15:53 -0400)
committerGitHub <noreply@github.com>
Fri, 21 Aug 2020 19:53:17 +0000 (12:53 -0700)
commit6fe3498ca3406ffb10f729ab4f9cf63f10c74ede
tree59f4761a8918487531a124c72a937511dc7620d8
parent6706552ea6bdc74122b530ba5e8a6956f5160428
Import vdev ashift optimization from FreeBSD

Many modern devices use physical allocation units that are much
larger than the minimum logical allocation size accessible by
external commands. Two prevalent examples of this are 512e disk
drives (512b logical sector, 4K physical sector) and flash devices
(512b logical sector, 4K or larger allocation block size, and 128k
or larger erase block size). Operations that modify less than the
physical sector size result in a costly read-modify-write or garbage
collection sequence on these devices.

Simply exporting the true physical sector of the device to ZFS would
yield optimal performance, but has two serious drawbacks:

 1. Existing pools created with devices that have different logical
    and physical block sizes, but were configured to use the logical
    block size (e.g. because the OS version used for pool construction
    reported the logical block size instead of the physical block
    size) will suddenly find that the vdev allocation size has
    increased. This can be easily tolerated for active members of
    the array, but ZFS would prevent replacement of a vdev with
    another identical device because it now appears that the smaller
    allocation size required by the pool is not supported by the new
    device.

 2. The device's physical block size may be too large to be supported
    by ZFS. The optimal allocation size for the vdev may be quite
    large. For example, a RAID controller may export a vdev that
    requires read-modify-write cycles unless accessed using 64k
    aligned/sized requests. ZFS currently has an 8k minimum block
    size limit.

Reporting both the logical and physical allocation sizes for vdevs
solves these problems. A device may be used so long as the logical
block size is compatible with the configuration. By comparing the
logical and physical block sizes, new configurations can be optimized
and administrators can be notified of any existing pools that are
sub-optimal.

Reviewed-by: Ryan Moeller <ryan@iXsystems.com>
Reviewed-by: Brian Behlendorf <behlendorf1@llnl.gov>
Co-authored-by: Matthew Macy <mmacy@freebsd.org>
Signed-off-by: Matt Macy <mmacy@FreeBSD.org>
Closes #10619
23 files changed:
cmd/zpool/zpool_main.c
include/libzfs.h
include/os/freebsd/spl/sys/mod_os.h
include/sys/fs/zfs.h
include/sys/vdev.h
include/sys/vdev_impl.h
lib/libzfs/libzfs_status.c
man/man5/zfs-module-parameters.5
man/man8/zpool.8
module/os/freebsd/zfs/sysctl_os.c
module/os/freebsd/zfs/vdev_file.c
module/os/freebsd/zfs/vdev_geom.c
module/os/linux/zfs/vdev_disk.c
module/os/linux/zfs/vdev_file.c
module/zfs/arc.c
module/zfs/spa.c
module/zfs/spa_config.c
module/zfs/vdev.c
module/zfs/vdev_indirect.c
module/zfs/vdev_mirror.c
module/zfs/vdev_missing.c
module/zfs/vdev_raidz.c
module/zfs/vdev_root.c