]> git.proxmox.com Git - mirror_spl.git/blobdiff - module/spl/spl-condvar.c
Add cv_timedwait_sig_hires to allow interruptible sleep
[mirror_spl.git] / module / spl / spl-condvar.c
index 60cf726f944e4832c23de3119f077b26e7fa57a5..1e2d0fc10d2ffd65ea19e9c870ce29054340bd36 100644 (file)
@@ -1,4 +1,4 @@
-/*****************************************************************************\
+/*
  *  Copyright (C) 2007-2010 Lawrence Livermore National Security, LLC.
  *  Copyright (C) 2007 The Regents of the University of California.
  *  Produced at Lawrence Livermore National Laboratory (cf, DISCLAIMER).
  *
  *  You should have received a copy of the GNU General Public License along
  *  with the SPL.  If not, see <http://www.gnu.org/licenses/>.
- *****************************************************************************
+ *
  *  Solaris Porting Layer (SPL) Credential Implementation.
-\*****************************************************************************/
+ */
 
 #include <sys/condvar.h>
-#include <spl-debug.h>
-
-#ifdef SS_DEBUG_SUBSYS
-#undef SS_DEBUG_SUBSYS
-#endif
-
-#define SS_DEBUG_SUBSYS SS_CONDVAR
+#include <sys/time.h>
+#include <linux/hrtimer.h>
 
 void
 __cv_init(kcondvar_t *cvp, char *name, kcv_type_t type, void *arg)
 {
-       int flags = KM_SLEEP;
-
-       SENTRY;
        ASSERT(cvp);
        ASSERT(name == NULL);
        ASSERT(type == CV_DEFAULT);
@@ -50,14 +42,6 @@ __cv_init(kcondvar_t *cvp, char *name, kcv_type_t type, void *arg)
        atomic_set(&cvp->cv_waiters, 0);
        atomic_set(&cvp->cv_refs, 1);
        cvp->cv_mutex = NULL;
-
-        /* We may be called when there is a non-zero preempt_count or
-        * interrupts are disabled is which case we must not sleep.
-        */
-        if (current_thread_info()->preempt_count || irqs_disabled())
-               flags = KM_NOSLEEP;
-
-       SEXIT;
 }
 EXPORT_SYMBOL(__cv_init);
 
@@ -67,16 +51,15 @@ cv_destroy_wakeup(kcondvar_t *cvp)
        if (!atomic_read(&cvp->cv_waiters) && !atomic_read(&cvp->cv_refs)) {
                ASSERT(cvp->cv_mutex == NULL);
                ASSERT(!waitqueue_active(&cvp->cv_event));
-               return 1;
+               return (1);
        }
 
-       return 0;
+       return (0);
 }
 
 void
 __cv_destroy(kcondvar_t *cvp)
 {
-       SENTRY;
        ASSERT(cvp);
        ASSERT(cvp->cv_magic == CV_MAGIC);
 
@@ -91,8 +74,6 @@ __cv_destroy(kcondvar_t *cvp)
        ASSERT3S(atomic_read(&cvp->cv_refs), ==, 0);
        ASSERT3S(atomic_read(&cvp->cv_waiters), ==, 0);
        ASSERT3S(waitqueue_active(&cvp->cv_event), ==, 0);
-
-       SEXIT;
 }
 EXPORT_SYMBOL(__cv_destroy);
 
@@ -100,35 +81,40 @@ static void
 cv_wait_common(kcondvar_t *cvp, kmutex_t *mp, int state, int io)
 {
        DEFINE_WAIT(wait);
-       SENTRY;
+       kmutex_t *m;
 
        ASSERT(cvp);
-        ASSERT(mp);
+       ASSERT(mp);
        ASSERT(cvp->cv_magic == CV_MAGIC);
        ASSERT(mutex_owned(mp));
        atomic_inc(&cvp->cv_refs);
 
-       if (cvp->cv_mutex == NULL)
-               cvp->cv_mutex = mp;
-
+       m = ACCESS_ONCE(cvp->cv_mutex);
+       if (!m)
+               m = xchg(&cvp->cv_mutex, mp);
        /* Ensure the same mutex is used by all callers */
-       ASSERT(cvp->cv_mutex == mp);
+       ASSERT(m == NULL || m == mp);
 
        prepare_to_wait_exclusive(&cvp->cv_event, &wait, state);
        atomic_inc(&cvp->cv_waiters);
 
-       /* Mutex should be dropped after prepare_to_wait() this
+       /*
+        * Mutex should be dropped after prepare_to_wait() this
         * ensures we're linked in to the waiters list and avoids the
-        * race where 'cvp->cv_waiters > 0' but the list is empty. */
+        * race where 'cvp->cv_waiters > 0' but the list is empty.
+        */
        mutex_exit(mp);
        if (io)
                io_schedule();
        else
                schedule();
-       mutex_enter(mp);
 
        /* No more waiters a different mutex could be used */
        if (atomic_dec_and_test(&cvp->cv_waiters)) {
+               /*
+                * This is set without any lock, so it's racy. But this is
+                * just for debug anyway, so make it best-effort
+                */
                cvp->cv_mutex = NULL;
                wake_up(&cvp->cv_destroy);
        }
@@ -136,7 +122,11 @@ cv_wait_common(kcondvar_t *cvp, kmutex_t *mp, int state, int io)
        finish_wait(&cvp->cv_event, &wait);
        atomic_dec(&cvp->cv_refs);
 
-       SEXIT;
+       /*
+        * Hold mutex after we release the cvp, otherwise we could dead lock
+        * with a thread holding the mutex and call cv_destroy.
+        */
+       mutex_enter(mp);
 }
 
 void
@@ -147,11 +137,11 @@ __cv_wait(kcondvar_t *cvp, kmutex_t *mp)
 EXPORT_SYMBOL(__cv_wait);
 
 void
-__cv_wait_interruptible(kcondvar_t *cvp, kmutex_t *mp)
+__cv_wait_sig(kcondvar_t *cvp, kmutex_t *mp)
 {
        cv_wait_common(cvp, mp, TASK_INTERRUPTIBLE, 0);
 }
-EXPORT_SYMBOL(__cv_wait_interruptible);
+EXPORT_SYMBOL(__cv_wait_sig);
 
 void
 __cv_wait_io(kcondvar_t *cvp, kmutex_t *mp)
@@ -160,48 +150,55 @@ __cv_wait_io(kcondvar_t *cvp, kmutex_t *mp)
 }
 EXPORT_SYMBOL(__cv_wait_io);
 
-/* 'expire_time' argument is an absolute wall clock time in jiffies.
+/*
+ * 'expire_time' argument is an absolute wall clock time in jiffies.
  * Return value is time left (expire_time - now) or -1 if timeout occurred.
  */
 static clock_t
-__cv_timedwait_common(kcondvar_t *cvp, kmutex_t *mp,
-                     clock_t expire_time, int state)
+__cv_timedwait_common(kcondvar_t *cvp, kmutex_t *mp, clock_t expire_time,
+    int state)
 {
        DEFINE_WAIT(wait);
+       kmutex_t *m;
        clock_t time_left;
-       SENTRY;
 
        ASSERT(cvp);
-        ASSERT(mp);
+       ASSERT(mp);
        ASSERT(cvp->cv_magic == CV_MAGIC);
        ASSERT(mutex_owned(mp));
        atomic_inc(&cvp->cv_refs);
 
-       if (cvp->cv_mutex == NULL)
-               cvp->cv_mutex = mp;
-
+       m = ACCESS_ONCE(cvp->cv_mutex);
+       if (!m)
+               m = xchg(&cvp->cv_mutex, mp);
        /* Ensure the same mutex is used by all callers */
-       ASSERT(cvp->cv_mutex == mp);
+       ASSERT(m == NULL || m == mp);
 
        /* XXX - Does not handle jiffie wrap properly */
        time_left = expire_time - jiffies;
        if (time_left <= 0) {
+               /* XXX - doesn't reset cv_mutex */
                atomic_dec(&cvp->cv_refs);
-               SRETURN(-1);
+               return (-1);
        }
 
        prepare_to_wait_exclusive(&cvp->cv_event, &wait, state);
        atomic_inc(&cvp->cv_waiters);
 
-       /* Mutex should be dropped after prepare_to_wait() this
+       /*
+        * Mutex should be dropped after prepare_to_wait() this
         * ensures we're linked in to the waiters list and avoids the
-        * race where 'cvp->cv_waiters > 0' but the list is empty. */
+        * race where 'cvp->cv_waiters > 0' but the list is empty.
+        */
        mutex_exit(mp);
        time_left = schedule_timeout(time_left);
-       mutex_enter(mp);
 
        /* No more waiters a different mutex could be used */
        if (atomic_dec_and_test(&cvp->cv_waiters)) {
+               /*
+                * This is set without any lock, so it's racy. But this is
+                * just for debug anyway, so make it best-effort
+                */
                cvp->cv_mutex = NULL;
                wake_up(&cvp->cv_destroy);
        }
@@ -209,57 +206,170 @@ __cv_timedwait_common(kcondvar_t *cvp, kmutex_t *mp,
        finish_wait(&cvp->cv_event, &wait);
        atomic_dec(&cvp->cv_refs);
 
-       SRETURN(time_left > 0 ? time_left : -1);
+       /*
+        * Hold mutex after we release the cvp, otherwise we could dead lock
+        * with a thread holding the mutex and call cv_destroy.
+        */
+       mutex_enter(mp);
+       return (time_left > 0 ? time_left : -1);
 }
 
 clock_t
 __cv_timedwait(kcondvar_t *cvp, kmutex_t *mp, clock_t exp_time)
 {
-       return __cv_timedwait_common(cvp, mp, exp_time, TASK_UNINTERRUPTIBLE);
+       return (__cv_timedwait_common(cvp, mp, exp_time, TASK_UNINTERRUPTIBLE));
 }
 EXPORT_SYMBOL(__cv_timedwait);
 
 clock_t
-__cv_timedwait_interruptible(kcondvar_t *cvp, kmutex_t *mp, clock_t exp_time)
+__cv_timedwait_sig(kcondvar_t *cvp, kmutex_t *mp, clock_t exp_time)
+{
+       return (__cv_timedwait_common(cvp, mp, exp_time, TASK_INTERRUPTIBLE));
+}
+EXPORT_SYMBOL(__cv_timedwait_sig);
+
+/*
+ * 'expire_time' argument is an absolute clock time in nanoseconds.
+ * Return value is time left (expire_time - now) or -1 if timeout occurred.
+ */
+static clock_t
+__cv_timedwait_hires(kcondvar_t *cvp, kmutex_t *mp, hrtime_t expire_time,
+    int state)
+{
+       DEFINE_WAIT(wait);
+       kmutex_t *m;
+       hrtime_t time_left, now;
+       ktime_t ktime_left;
+
+       ASSERT(cvp);
+       ASSERT(mp);
+       ASSERT(cvp->cv_magic == CV_MAGIC);
+       ASSERT(mutex_owned(mp));
+       atomic_inc(&cvp->cv_refs);
+
+       m = ACCESS_ONCE(cvp->cv_mutex);
+       if (!m)
+               m = xchg(&cvp->cv_mutex, mp);
+       /* Ensure the same mutex is used by all callers */
+       ASSERT(m == NULL || m == mp);
+
+       now = gethrtime();
+       time_left = expire_time - now;
+       if (time_left <= 0) {
+               atomic_dec(&cvp->cv_refs);
+               return (-1);
+       }
+
+       prepare_to_wait_exclusive(&cvp->cv_event, &wait, state);
+       atomic_inc(&cvp->cv_waiters);
+
+       /*
+        * Mutex should be dropped after prepare_to_wait() this
+        * ensures we're linked in to the waiters list and avoids the
+        * race where 'cvp->cv_waiters > 0' but the list is empty.
+        */
+       mutex_exit(mp);
+       /*
+        * Allow a 100 us range to give kernel an opportunity to coalesce
+        * interrupts
+        */
+       ktime_left = ktime_set(0, time_left);
+       schedule_hrtimeout_range(&ktime_left, 100 * NSEC_PER_USEC,
+           HRTIMER_MODE_REL);
+
+       /* No more waiters a different mutex could be used */
+       if (atomic_dec_and_test(&cvp->cv_waiters)) {
+               /*
+                * This is set without any lock, so it's racy. But this is
+                * just for debug anyway, so make it best-effort
+                */
+               cvp->cv_mutex = NULL;
+               wake_up(&cvp->cv_destroy);
+       }
+
+       finish_wait(&cvp->cv_event, &wait);
+       atomic_dec(&cvp->cv_refs);
+
+       mutex_enter(mp);
+       time_left = expire_time - gethrtime();
+       return (time_left > 0 ? NSEC_TO_TICK(time_left) : -1);
+}
+
+/*
+ * Compatibility wrapper for the cv_timedwait_hires() Illumos interface.
+ */
+static clock_t
+cv_timedwait_hires_common(kcondvar_t *cvp, kmutex_t *mp, hrtime_t tim, hrtime_t res,
+    int flag, int state)
+{
+       if (res > 1) {
+               /*
+                * Align expiration to the specified resolution.
+                */
+               if (flag & CALLOUT_FLAG_ROUNDUP)
+                       tim += res - 1;
+               tim = (tim / res) * res;
+       }
+
+       ASSERT(!(flag & CALLOUT_FLAG_ABSOLUTE));
+       /* get abs expire time */
+       tim += gethrtime();
+
+       return (__cv_timedwait_hires(cvp, mp, tim, state));
+}
+
+clock_t
+cv_timedwait_hires(kcondvar_t *cvp, kmutex_t *mp, hrtime_t tim, hrtime_t res,
+    int flag)
 {
-       return __cv_timedwait_common(cvp, mp, exp_time, TASK_INTERRUPTIBLE);
+       return (cv_timedwait_hires_common(cvp, mp, tim, res, flag,
+           TASK_UNINTERRUPTIBLE));
 }
-EXPORT_SYMBOL(__cv_timedwait_interruptible);
+EXPORT_SYMBOL(cv_timedwait_hires);
+
+clock_t
+cv_timedwait_sig_hires(kcondvar_t *cvp, kmutex_t *mp, hrtime_t tim, hrtime_t res,
+    int flag)
+{
+       return (cv_timedwait_hires_common(cvp, mp, tim, res, flag,
+           TASK_INTERRUPTIBLE));
+}
+EXPORT_SYMBOL(cv_timedwait_sig_hires);
 
 void
 __cv_signal(kcondvar_t *cvp)
 {
-       SENTRY;
        ASSERT(cvp);
        ASSERT(cvp->cv_magic == CV_MAGIC);
        atomic_inc(&cvp->cv_refs);
 
-       /* All waiters are added with WQ_FLAG_EXCLUSIVE so only one
+       /*
+        * All waiters are added with WQ_FLAG_EXCLUSIVE so only one
         * waiter will be set runable with each call to wake_up().
         * Additionally wake_up() holds a spin_lock assoicated with
-        * the wait queue to ensure we don't race waking up processes. */
+        * the wait queue to ensure we don't race waking up processes.
+        */
        if (atomic_read(&cvp->cv_waiters) > 0)
                wake_up(&cvp->cv_event);
 
        atomic_dec(&cvp->cv_refs);
-       SEXIT;
 }
 EXPORT_SYMBOL(__cv_signal);
 
 void
 __cv_broadcast(kcondvar_t *cvp)
 {
-       SENTRY;
        ASSERT(cvp);
        ASSERT(cvp->cv_magic == CV_MAGIC);
        atomic_inc(&cvp->cv_refs);
 
-       /* Wake_up_all() will wake up all waiters even those which
-        * have the WQ_FLAG_EXCLUSIVE flag set. */
+       /*
+        * Wake_up_all() will wake up all waiters even those which
+        * have the WQ_FLAG_EXCLUSIVE flag set.
+        */
        if (atomic_read(&cvp->cv_waiters) > 0)
                wake_up_all(&cvp->cv_event);
 
        atomic_dec(&cvp->cv_refs);
-       SEXIT;
 }
 EXPORT_SYMBOL(__cv_broadcast);