]> git.proxmox.com Git - mirror_zfs.git/blobdiff - module/zfs/zfs_log.c
Project Quota on ZFS
[mirror_zfs.git] / module / zfs / zfs_log.c
index 84d64b4df6b1f5e71226a3a17b3a6c809491c453..ce7b84927e1e1c3efa99f36622299b179b7ef87f 100644 (file)
  * CDDL HEADER END
  */
 /*
- * Copyright 2008 Sun Microsystems, Inc.  All rights reserved.
- * Use is subject to license terms.
+ * Copyright (c) 2005, 2010, Oracle and/or its affiliates. All rights reserved.
+ * Copyright (c) 2015 by Delphix. All rights reserved.
  */
 
+
 #include <sys/types.h>
 #include <sys/param.h>
 #include <sys/systm.h>
 #include <sys/ddi.h>
 #include <sys/dsl_dataset.h>
 
-#define        ZFS_HANDLE_REPLAY(zilog, tx) \
-       if (zilog->zl_replay) { \
-               dsl_dataset_dirty(dmu_objset_ds(zilog->zl_os), tx); \
-               zilog->zl_replayed_seq[dmu_tx_get_txg(tx) & TXG_MASK] = \
-                   zilog->zl_replaying_seq; \
-               return; \
-       }
-
 /*
  * These zfs_log_* functions must be called within a dmu tx, in one
  * of 2 contexts depending on zilog->z_replay:
@@ -77,7 +70,7 @@
 int
 zfs_log_create_txtype(zil_create_t type, vsecattr_t *vsecp, vattr_t *vap)
 {
-       int isxvattr = (vap->va_mask & AT_XVATTR);
+       int isxvattr = (vap->va_mask & ATTR_XVATTR);
        switch (type) {
        case Z_FILE:
                if (vsecp == NULL && !isxvattr)
@@ -173,8 +166,29 @@ zfs_log_xvattr(lr_attr_t *lrattr, xvattr_t *xvap)
                    XAT0_AV_MODIFIED;
        if (XVA_ISSET_REQ(xvap, XAT_CREATETIME))
                ZFS_TIME_ENCODE(&xoap->xoa_createtime, crtime);
-       if (XVA_ISSET_REQ(xvap, XAT_AV_SCANSTAMP))
+       if (XVA_ISSET_REQ(xvap, XAT_AV_SCANSTAMP)) {
+               ASSERT(!XVA_ISSET_REQ(xvap, XAT_PROJID));
+
                bcopy(xoap->xoa_av_scanstamp, scanstamp, AV_SCANSTAMP_SZ);
+       } else if (XVA_ISSET_REQ(xvap, XAT_PROJID)) {
+               /*
+                * XAT_PROJID and XAT_AV_SCANSTAMP will never be valid
+                * at the same time, so we can share the same space.
+                */
+               bcopy(&xoap->xoa_projid, scanstamp, sizeof (uint64_t));
+       }
+       if (XVA_ISSET_REQ(xvap, XAT_REPARSE))
+               *attrs |= (xoap->xoa_reparse == 0) ? 0 :
+                   XAT0_REPARSE;
+       if (XVA_ISSET_REQ(xvap, XAT_OFFLINE))
+               *attrs |= (xoap->xoa_offline == 0) ? 0 :
+                   XAT0_OFFLINE;
+       if (XVA_ISSET_REQ(xvap, XAT_SPARSE))
+               *attrs |= (xoap->xoa_sparse == 0) ? 0 :
+                   XAT0_SPARSE;
+       if (XVA_ISSET_REQ(xvap, XAT_PROJINHERIT))
+               *attrs |= (xoap->xoa_projinherit == 0) ? 0 :
+                   XAT0_PROJINHERIT;
 }
 
 static void *
@@ -211,9 +225,36 @@ zfs_log_fuid_domains(zfs_fuid_info_t *fuidp, void *start)
 }
 
 /*
- * zfs_log_create() is used to handle TX_CREATE, TX_CREATE_ATTR, TX_MKDIR,
- * TX_MKDIR_ATTR and TX_MKXATTR
- * transactions.
+ * If zp is an xattr node, check whether the xattr owner is unlinked.
+ * We don't want to log anything if the owner is unlinked.
+ */
+static int
+zfs_xattr_owner_unlinked(znode_t *zp)
+{
+       int unlinked = 0;
+       znode_t *dzp;
+       igrab(ZTOI(zp));
+       /*
+        * if zp is XATTR node, keep walking up via z_xattr_parent until we
+        * get the owner
+        */
+       while (zp->z_pflags & ZFS_XATTR) {
+               ASSERT3U(zp->z_xattr_parent, !=, 0);
+               if (zfs_zget(ZTOZSB(zp), zp->z_xattr_parent, &dzp) != 0) {
+                       unlinked = 1;
+                       break;
+               }
+               iput(ZTOI(zp));
+               zp = dzp;
+               unlinked = zp->z_unlinked;
+       }
+       iput(ZTOI(zp));
+       return (unlinked);
+}
+
+/*
+ * Handles TX_CREATE, TX_CREATE_ATTR, TX_MKDIR, TX_MKDIR_ATTR and
+ * TK_MKXATTR transactions.
  *
  * TX_CREATE and TX_MKDIR are standard creates, but they may have FUID
  * domain information appended prior to the name.  In this case the
@@ -236,10 +277,9 @@ zfs_log_create(zilog_t *zilog, dmu_tx_t *tx, uint64_t txtype,
     zfs_fuid_info_t *fuidp, vattr_t *vap)
 {
        itx_t *itx;
-       uint64_t seq;
        lr_create_t *lr;
        lr_acl_create_t *lracl;
-       size_t aclsize;
+       size_t aclsize = 0;
        size_t xvatsize = 0;
        size_t txsize;
        xvattr_t *xvap = (xvattr_t *)vap;
@@ -248,11 +288,9 @@ zfs_log_create(zilog_t *zilog, dmu_tx_t *tx, uint64_t txtype,
        size_t namesize = strlen(name) + 1;
        size_t fuidsz = 0;
 
-       if (zilog == NULL)
+       if (zil_replaying(zilog, tx) || zfs_xattr_owner_unlinked(dzp))
                return;
 
-       ZFS_HANDLE_REPLAY(zilog, tx); /* exits if replay */
-
        /*
         * If we have FUIDs present then add in space for
         * domains and ACE fuid's if any.
@@ -262,7 +300,7 @@ zfs_log_create(zilog_t *zilog, dmu_tx_t *tx, uint64_t txtype,
                fuidsz += fuidp->z_fuid_cnt * sizeof (uint64_t);
        }
 
-       if (vap->va_mask & AT_XVATTR)
+       if (vap->va_mask & ATTR_XVATTR)
                xvatsize = ZIL_XVAT_SIZE(xvap->xva_mapsize);
 
        if ((int)txtype == TX_CREATE_ATTR || (int)txtype == TX_MKDIR_ATTR ||
@@ -271,7 +309,6 @@ zfs_log_create(zilog_t *zilog, dmu_tx_t *tx, uint64_t txtype,
                txsize = sizeof (*lr) + namesize + fuidsz + xvatsize;
                lrsize = sizeof (*lr);
        } else {
-               aclsize = (vsecp) ? vsecp->vsa_aclentsz : 0;
                txsize =
                    sizeof (lr_acl_create_t) + namesize + fuidsz +
                    ZIL_ACE_LENGTH(aclsize) + xvatsize;
@@ -283,26 +320,32 @@ zfs_log_create(zilog_t *zilog, dmu_tx_t *tx, uint64_t txtype,
        lr = (lr_create_t *)&itx->itx_lr;
        lr->lr_doid = dzp->z_id;
        lr->lr_foid = zp->z_id;
-       lr->lr_mode = zp->z_phys->zp_mode;
-       if (!IS_EPHEMERAL(zp->z_phys->zp_uid)) {
-               lr->lr_uid = (uint64_t)zp->z_phys->zp_uid;
+       /* Store dnode slot count in 8 bits above object id. */
+       LR_FOID_SET_SLOTS(lr->lr_foid, zp->z_dnodesize >> DNODE_SHIFT);
+       lr->lr_mode = zp->z_mode;
+       if (!IS_EPHEMERAL(KUID_TO_SUID(ZTOI(zp)->i_uid))) {
+               lr->lr_uid = (uint64_t)KUID_TO_SUID(ZTOI(zp)->i_uid);
        } else {
                lr->lr_uid = fuidp->z_fuid_owner;
        }
-       if (!IS_EPHEMERAL(zp->z_phys->zp_gid)) {
-               lr->lr_gid = (uint64_t)zp->z_phys->zp_gid;
+       if (!IS_EPHEMERAL(KGID_TO_SGID(ZTOI(zp)->i_gid))) {
+               lr->lr_gid = (uint64_t)KGID_TO_SGID(ZTOI(zp)->i_gid);
        } else {
                lr->lr_gid = fuidp->z_fuid_group;
        }
-       lr->lr_gen = zp->z_phys->zp_gen;
-       lr->lr_crtime[0] = zp->z_phys->zp_crtime[0];
-       lr->lr_crtime[1] = zp->z_phys->zp_crtime[1];
-       lr->lr_rdev = zp->z_phys->zp_rdev;
+       (void) sa_lookup(zp->z_sa_hdl, SA_ZPL_GEN(ZTOZSB(zp)), &lr->lr_gen,
+           sizeof (uint64_t));
+       (void) sa_lookup(zp->z_sa_hdl, SA_ZPL_CRTIME(ZTOZSB(zp)),
+           lr->lr_crtime, sizeof (uint64_t) * 2);
+
+       if (sa_lookup(zp->z_sa_hdl, SA_ZPL_RDEV(ZTOZSB(zp)), &lr->lr_rdev,
+           sizeof (lr->lr_rdev)) != 0)
+               lr->lr_rdev = 0;
 
        /*
         * Fill in xvattr info if any
         */
-       if (vap->va_mask & AT_XVATTR) {
+       if (vap->va_mask & ATTR_XVATTR) {
                zfs_log_xvattr((lr_attr_t *)((caddr_t)lr + lrsize), xvap);
                end = (caddr_t)lr + lrsize + xvatsize;
        } else {
@@ -336,178 +379,141 @@ zfs_log_create(zilog_t *zilog, dmu_tx_t *tx, uint64_t txtype,
         */
        bcopy(name, end, namesize);
 
-       seq = zil_itx_assign(zilog, itx, tx);
-       dzp->z_last_itx = seq;
-       zp->z_last_itx = seq;
+       zil_itx_assign(zilog, itx, tx);
 }
 
 /*
- * zfs_log_remove() handles both TX_REMOVE and TX_RMDIR transactions.
+ * Handles both TX_REMOVE and TX_RMDIR transactions.
  */
 void
 zfs_log_remove(zilog_t *zilog, dmu_tx_t *tx, uint64_t txtype,
-       znode_t *dzp, char *name)
+    znode_t *dzp, char *name, uint64_t foid)
 {
        itx_t *itx;
-       uint64_t seq;
        lr_remove_t *lr;
        size_t namesize = strlen(name) + 1;
 
-       if (zilog == NULL)
+       if (zil_replaying(zilog, tx) || zfs_xattr_owner_unlinked(dzp))
                return;
 
-       ZFS_HANDLE_REPLAY(zilog, tx); /* exits if replay */
-
        itx = zil_itx_create(txtype, sizeof (*lr) + namesize);
        lr = (lr_remove_t *)&itx->itx_lr;
        lr->lr_doid = dzp->z_id;
        bcopy(name, (char *)(lr + 1), namesize);
 
-       seq = zil_itx_assign(zilog, itx, tx);
-       dzp->z_last_itx = seq;
+       itx->itx_oid = foid;
+
+       zil_itx_assign(zilog, itx, tx);
 }
 
 /*
- * zfs_log_link() handles TX_LINK transactions.
+ * Handles TX_LINK transactions.
  */
 void
 zfs_log_link(zilog_t *zilog, dmu_tx_t *tx, uint64_t txtype,
-       znode_t *dzp, znode_t *zp, char *name)
+    znode_t *dzp, znode_t *zp, char *name)
 {
        itx_t *itx;
-       uint64_t seq;
        lr_link_t *lr;
        size_t namesize = strlen(name) + 1;
 
-       if (zilog == NULL)
+       if (zil_replaying(zilog, tx))
                return;
 
-       ZFS_HANDLE_REPLAY(zilog, tx); /* exits if replay */
-
        itx = zil_itx_create(txtype, sizeof (*lr) + namesize);
        lr = (lr_link_t *)&itx->itx_lr;
        lr->lr_doid = dzp->z_id;
        lr->lr_link_obj = zp->z_id;
        bcopy(name, (char *)(lr + 1), namesize);
 
-       seq = zil_itx_assign(zilog, itx, tx);
-       dzp->z_last_itx = seq;
-       zp->z_last_itx = seq;
+       zil_itx_assign(zilog, itx, tx);
 }
 
 /*
- * zfs_log_symlink() handles TX_SYMLINK transactions.
+ * Handles TX_SYMLINK transactions.
  */
 void
 zfs_log_symlink(zilog_t *zilog, dmu_tx_t *tx, uint64_t txtype,
     znode_t *dzp, znode_t *zp, char *name, char *link)
 {
        itx_t *itx;
-       uint64_t seq;
        lr_create_t *lr;
        size_t namesize = strlen(name) + 1;
        size_t linksize = strlen(link) + 1;
 
-       if (zilog == NULL)
+       if (zil_replaying(zilog, tx))
                return;
 
-       ZFS_HANDLE_REPLAY(zilog, tx); /* exits if replay */
-
        itx = zil_itx_create(txtype, sizeof (*lr) + namesize + linksize);
        lr = (lr_create_t *)&itx->itx_lr;
        lr->lr_doid = dzp->z_id;
        lr->lr_foid = zp->z_id;
-       lr->lr_mode = zp->z_phys->zp_mode;
-       lr->lr_uid = zp->z_phys->zp_uid;
-       lr->lr_gid = zp->z_phys->zp_gid;
-       lr->lr_gen = zp->z_phys->zp_gen;
-       lr->lr_crtime[0] = zp->z_phys->zp_crtime[0];
-       lr->lr_crtime[1] = zp->z_phys->zp_crtime[1];
+       lr->lr_uid = KUID_TO_SUID(ZTOI(zp)->i_uid);
+       lr->lr_gid = KGID_TO_SGID(ZTOI(zp)->i_gid);
+       lr->lr_mode = zp->z_mode;
+       (void) sa_lookup(zp->z_sa_hdl, SA_ZPL_GEN(ZTOZSB(zp)), &lr->lr_gen,
+           sizeof (uint64_t));
+       (void) sa_lookup(zp->z_sa_hdl, SA_ZPL_CRTIME(ZTOZSB(zp)),
+           lr->lr_crtime, sizeof (uint64_t) * 2);
        bcopy(name, (char *)(lr + 1), namesize);
        bcopy(link, (char *)(lr + 1) + namesize, linksize);
 
-       seq = zil_itx_assign(zilog, itx, tx);
-       dzp->z_last_itx = seq;
-       zp->z_last_itx = seq;
+       zil_itx_assign(zilog, itx, tx);
 }
 
 /*
- * zfs_log_rename() handles TX_RENAME transactions.
+ * Handles TX_RENAME transactions.
  */
 void
 zfs_log_rename(zilog_t *zilog, dmu_tx_t *tx, uint64_t txtype,
-       znode_t *sdzp, char *sname, znode_t *tdzp, char *dname, znode_t *szp)
+    znode_t *sdzp, char *sname, znode_t *tdzp, char *dname, znode_t *szp)
 {
        itx_t *itx;
-       uint64_t seq;
        lr_rename_t *lr;
        size_t snamesize = strlen(sname) + 1;
        size_t dnamesize = strlen(dname) + 1;
 
-       if (zilog == NULL)
+       if (zil_replaying(zilog, tx))
                return;
 
-       ZFS_HANDLE_REPLAY(zilog, tx); /* exits if replay */
-
        itx = zil_itx_create(txtype, sizeof (*lr) + snamesize + dnamesize);
        lr = (lr_rename_t *)&itx->itx_lr;
        lr->lr_sdoid = sdzp->z_id;
        lr->lr_tdoid = tdzp->z_id;
        bcopy(sname, (char *)(lr + 1), snamesize);
        bcopy(dname, (char *)(lr + 1) + snamesize, dnamesize);
+       itx->itx_oid = szp->z_id;
 
-       seq = zil_itx_assign(zilog, itx, tx);
-       sdzp->z_last_itx = seq;
-       tdzp->z_last_itx = seq;
-       szp->z_last_itx = seq;
+       zil_itx_assign(zilog, itx, tx);
 }
 
 /*
- * zfs_log_write() handles TX_WRITE transactions.
+ * zfs_log_write() handles TX_WRITE transactions. The specified callback is
+ * called as soon as the write is on stable storage (be it via a DMU sync or a
+ * ZIL commit).
  */
-ssize_t zfs_immediate_write_sz = 32768;
-
-#define        ZIL_MAX_LOG_DATA (SPA_MAXBLOCKSIZE - sizeof (zil_trailer_t) - \
-    sizeof (lr_write_t))
+long zfs_immediate_write_sz = 32768;
 
 void
 zfs_log_write(zilog_t *zilog, dmu_tx_t *tx, int txtype,
-       znode_t *zp, offset_t off, ssize_t resid, int ioflag)
+    znode_t *zp, offset_t off, ssize_t resid, int ioflag,
+    zil_callback_t callback, void *callback_data)
 {
+       uint32_t blocksize = zp->z_blksz;
        itx_wr_state_t write_state;
-       boolean_t slogging;
        uintptr_t fsync_cnt;
 
-       if (zilog == NULL || zp->z_unlinked)
+       if (zil_replaying(zilog, tx) || zp->z_unlinked ||
+           zfs_xattr_owner_unlinked(zp)) {
+               if (callback != NULL)
+                       callback(callback_data);
                return;
+       }
 
-       ZFS_HANDLE_REPLAY(zilog, tx); /* exits if replay */
-
-       /*
-        * Writes are handled in three different ways:
-        *
-        * WR_INDIRECT:
-        *    In this mode, if we need to commit the write later, then the block
-        *    is immediately written into the file system (using dmu_sync),
-        *    and a pointer to the block is put into the log record.
-        *    When the txg commits the block is linked in.
-        *    This saves additionally writing the data into the log record.
-        *    There are a few requirements for this to occur:
-        *      - write is greater than zfs_immediate_write_sz
-        *      - not using slogs (as slogs are assumed to always be faster
-        *        than writing into the main pool)
-        *      - the write occupies only one block
-        * WR_COPIED:
-        *    If we know we'll immediately be committing the
-        *    transaction (FSYNC or FDSYNC), the we allocate a larger
-        *    log record here for the data and copy the data in.
-        * WR_NEED_COPY:
-        *    Otherwise we don't allocate a buffer, and *if* we need to
-        *    flush the write later then a buffer is allocated and
-        *    we retrieve the data using the dmu.
-        */
-       slogging = spa_has_slogs(zilog->zl_spa);
-       if (resid > zfs_immediate_write_sz && !slogging && resid <= zp->z_blksz)
+       if (zilog->zl_logbias == ZFS_LOGBIAS_THROUGHPUT)
+               write_state = WR_INDIRECT;
+       else if (!spa_has_slogs(zilog->zl_spa) &&
+           resid >= zfs_immediate_write_sz)
                write_state = WR_INDIRECT;
        else if (ioflag & (FSYNC | FDSYNC))
                write_state = WR_COPIED;
@@ -521,46 +527,41 @@ zfs_log_write(zilog_t *zilog, dmu_tx_t *tx, int txtype,
        while (resid) {
                itx_t *itx;
                lr_write_t *lr;
-               ssize_t len;
+               itx_wr_state_t wr_state = write_state;
+               ssize_t len = resid;
 
-               /*
-                * If the write would overflow the largest block then split it.
-                */
-               if (write_state != WR_INDIRECT && resid > ZIL_MAX_LOG_DATA)
-                       len = SPA_MAXBLOCKSIZE >> 1;
-               else
-                       len = resid;
+               if (wr_state == WR_COPIED && resid > ZIL_MAX_COPIED_DATA)
+                       wr_state = WR_NEED_COPY;
+               else if (wr_state == WR_INDIRECT)
+                       len = MIN(blocksize - P2PHASE(off, blocksize), resid);
 
                itx = zil_itx_create(txtype, sizeof (*lr) +
-                   (write_state == WR_COPIED ? len : 0));
+                   (wr_state == WR_COPIED ? len : 0));
                lr = (lr_write_t *)&itx->itx_lr;
-               if (write_state == WR_COPIED && dmu_read(zp->z_zfsvfs->z_os,
-                   zp->z_id, off, len, lr + 1) != 0) {
-                       kmem_free(itx, offsetof(itx_t, itx_lr) +
-                           itx->itx_lr.lrc_reclen);
+               if (wr_state == WR_COPIED && dmu_read(ZTOZSB(zp)->z_os,
+                   zp->z_id, off, len, lr + 1, DMU_READ_NO_PREFETCH) != 0) {
+                       zil_itx_destroy(itx);
                        itx = zil_itx_create(txtype, sizeof (*lr));
                        lr = (lr_write_t *)&itx->itx_lr;
-                       write_state = WR_NEED_COPY;
+                       wr_state = WR_NEED_COPY;
                }
 
-               itx->itx_wr_state = write_state;
-               if (write_state == WR_NEED_COPY)
-                       itx->itx_sod += len;
+               itx->itx_wr_state = wr_state;
                lr->lr_foid = zp->z_id;
                lr->lr_offset = off;
                lr->lr_length = len;
                lr->lr_blkoff = 0;
                BP_ZERO(&lr->lr_blkptr);
 
-               itx->itx_private = zp->z_zfsvfs;
+               itx->itx_private = ZTOZSB(zp);
 
-               if ((zp->z_sync_cnt != 0) || (fsync_cnt != 0) ||
-                   (ioflag & (FSYNC | FDSYNC)))
-                       itx->itx_sync = B_TRUE;
-               else
+               if (!(ioflag & (FSYNC | FDSYNC)) && (zp->z_sync_cnt == 0) &&
+                   (fsync_cnt == 0))
                        itx->itx_sync = B_FALSE;
 
-               zp->z_last_itx = zil_itx_assign(zilog, itx, tx);
+               itx->itx_callback = callback;
+               itx->itx_callback_data = callback_data;
+               zil_itx_assign(zilog, itx, tx);
 
                off += len;
                resid -= len;
@@ -568,21 +569,19 @@ zfs_log_write(zilog_t *zilog, dmu_tx_t *tx, int txtype,
 }
 
 /*
- * zfs_log_truncate() handles TX_TRUNCATE transactions.
+ * Handles TX_TRUNCATE transactions.
  */
 void
 zfs_log_truncate(zilog_t *zilog, dmu_tx_t *tx, int txtype,
-       znode_t *zp, uint64_t off, uint64_t len)
+    znode_t *zp, uint64_t off, uint64_t len)
 {
        itx_t *itx;
-       uint64_t seq;
        lr_truncate_t *lr;
 
-       if (zilog == NULL || zp->z_unlinked)
+       if (zil_replaying(zilog, tx) || zp->z_unlinked ||
+           zfs_xattr_owner_unlinked(zp))
                return;
 
-       ZFS_HANDLE_REPLAY(zilog, tx); /* exits if replay */
-
        itx = zil_itx_create(txtype, sizeof (*lr));
        lr = (lr_truncate_t *)&itx->itx_lr;
        lr->lr_foid = zp->z_id;
@@ -590,36 +589,31 @@ zfs_log_truncate(zilog_t *zilog, dmu_tx_t *tx, int txtype,
        lr->lr_length = len;
 
        itx->itx_sync = (zp->z_sync_cnt != 0);
-       seq = zil_itx_assign(zilog, itx, tx);
-       zp->z_last_itx = seq;
+       zil_itx_assign(zilog, itx, tx);
 }
 
 /*
- * zfs_log_setattr() handles TX_SETATTR transactions.
+ * Handles TX_SETATTR transactions.
  */
 void
 zfs_log_setattr(zilog_t *zilog, dmu_tx_t *tx, int txtype,
-       znode_t *zp, vattr_t *vap, uint_t mask_applied, zfs_fuid_info_t *fuidp)
+    znode_t *zp, vattr_t *vap, uint_t mask_applied, zfs_fuid_info_t *fuidp)
 {
        itx_t           *itx;
-       uint64_t        seq;
        lr_setattr_t    *lr;
        xvattr_t        *xvap = (xvattr_t *)vap;
        size_t          recsize = sizeof (lr_setattr_t);
        void            *start;
 
-
-       if (zilog == NULL || zp->z_unlinked)
+       if (zil_replaying(zilog, tx) || zp->z_unlinked)
                return;
 
-       ZFS_HANDLE_REPLAY(zilog, tx); /* exits if replay */
-
        /*
         * If XVATTR set, then log record size needs to allow
         * for lr_attr_t + xvattr mask, mapsize and create time
         * plus actual attribute values
         */
-       if (vap->va_mask & AT_XVATTR)
+       if (vap->va_mask & ATTR_XVATTR)
                recsize = sizeof (*lr) + ZIL_XVAT_SIZE(xvap->xva_mapsize);
 
        if (fuidp)
@@ -630,12 +624,12 @@ zfs_log_setattr(zilog_t *zilog, dmu_tx_t *tx, int txtype,
        lr->lr_foid = zp->z_id;
        lr->lr_mask = (uint64_t)mask_applied;
        lr->lr_mode = (uint64_t)vap->va_mode;
-       if ((mask_applied & AT_UID) && IS_EPHEMERAL(vap->va_uid))
+       if ((mask_applied & ATTR_UID) && IS_EPHEMERAL(vap->va_uid))
                lr->lr_uid = fuidp->z_fuid_owner;
        else
                lr->lr_uid = (uint64_t)vap->va_uid;
 
-       if ((mask_applied & AT_GID) && IS_EPHEMERAL(vap->va_gid))
+       if ((mask_applied & ATTR_GID) && IS_EPHEMERAL(vap->va_gid))
                lr->lr_gid = fuidp->z_fuid_group;
        else
                lr->lr_gid = (uint64_t)vap->va_gid;
@@ -644,7 +638,7 @@ zfs_log_setattr(zilog_t *zilog, dmu_tx_t *tx, int txtype,
        ZFS_TIME_ENCODE(&vap->va_atime, lr->lr_atime);
        ZFS_TIME_ENCODE(&vap->va_mtime, lr->lr_mtime);
        start = (lr_setattr_t *)(lr + 1);
-       if (vap->va_mask & AT_XVATTR) {
+       if (vap->va_mask & ATTR_XVATTR) {
                zfs_log_xvattr((lr_attr_t *)start, xvap);
                start = (caddr_t)start + ZIL_XVAT_SIZE(xvap->xva_mapsize);
        }
@@ -657,19 +651,17 @@ zfs_log_setattr(zilog_t *zilog, dmu_tx_t *tx, int txtype,
                (void) zfs_log_fuid_domains(fuidp, start);
 
        itx->itx_sync = (zp->z_sync_cnt != 0);
-       seq = zil_itx_assign(zilog, itx, tx);
-       zp->z_last_itx = seq;
+       zil_itx_assign(zilog, itx, tx);
 }
 
 /*
- * zfs_log_acl() handles TX_ACL transactions.
+ * Handles TX_ACL transactions.
  */
 void
 zfs_log_acl(zilog_t *zilog, dmu_tx_t *tx, znode_t *zp,
     vsecattr_t *vsecp, zfs_fuid_info_t *fuidp)
 {
        itx_t *itx;
-       uint64_t seq;
        lr_acl_v0_t *lrv0;
        lr_acl_t *lr;
        int txtype;
@@ -677,12 +669,10 @@ zfs_log_acl(zilog_t *zilog, dmu_tx_t *tx, znode_t *zp,
        size_t txsize;
        size_t aclbytes = vsecp->vsa_aclentsz;
 
-       if (zilog == NULL || zp->z_unlinked)
+       if (zil_replaying(zilog, tx) || zp->z_unlinked)
                return;
 
-       ZFS_HANDLE_REPLAY(zilog, tx); /* exits if replay */
-
-       txtype = (zp->z_zfsvfs->z_version < ZPL_VERSION_FUID) ?
+       txtype = (ZTOZSB(zp)->z_version < ZPL_VERSION_FUID) ?
            TX_ACL_V0 : TX_ACL;
 
        if (txtype == TX_ACL)
@@ -727,6 +717,10 @@ zfs_log_acl(zilog_t *zilog, dmu_tx_t *tx, znode_t *zp,
        }
 
        itx->itx_sync = (zp->z_sync_cnt != 0);
-       seq = zil_itx_assign(zilog, itx, tx);
-       zp->z_last_itx = seq;
+       zil_itx_assign(zilog, itx, tx);
 }
+
+#if defined(_KERNEL) && defined(HAVE_SPL)
+module_param(zfs_immediate_write_sz, long, 0644);
+MODULE_PARM_DESC(zfs_immediate_write_sz, "Largest data block to write to zil");
+#endif