]> git.proxmox.com Git - mirror_ubuntu-jammy-kernel.git/commitdiff
nohz: Re-evaluate the tick for the new task after a context switch
authorFrederic Weisbecker <fweisbec@gmail.com>
Sat, 20 Apr 2013 15:11:50 +0000 (17:11 +0200)
committerFrederic Weisbecker <fweisbec@gmail.com>
Mon, 22 Apr 2013 18:29:07 +0000 (20:29 +0200)
When a task is scheduled in, it may have some properties
of its own that could make the CPU reconsider the need for
the tick: posix cpu timers, perf events, ...

So notify the full dynticks subsystem when a task gets
scheduled in and re-check the tick dependency at this
stage. This is done through a self IPI to avoid messing
up with any current lock scenario.

Signed-off-by: Frederic Weisbecker <fweisbec@gmail.com>
Cc: Chris Metcalf <cmetcalf@tilera.com>
Cc: Christoph Lameter <cl@linux.com>
Cc: Geoff Levand <geoff@infradead.org>
Cc: Gilad Ben Yossef <gilad@benyossef.com>
Cc: Hakan Akkan <hakanakkan@gmail.com>
Cc: Ingo Molnar <mingo@kernel.org>
Cc: Kevin Hilman <khilman@linaro.org>
Cc: Li Zhong <zhong@linux.vnet.ibm.com>
Cc: Oleg Nesterov <oleg@redhat.com>
Cc: Paul E. McKenney <paulmck@linux.vnet.ibm.com>
Cc: Paul Gortmaker <paul.gortmaker@windriver.com>
Cc: Peter Zijlstra <peterz@infradead.org>
Cc: Steven Rostedt <rostedt@goodmis.org>
Cc: Thomas Gleixner <tglx@linutronix.de>
include/linux/tick.h
kernel/sched/core.c
kernel/time/tick-sched.c

index e31e67623ea157bacbcfdbfa5482f39acba7d87d..9180f4b85e6deedd827fa071add91940c3ac48e5 100644 (file)
@@ -163,12 +163,14 @@ extern int tick_nohz_full_cpu(int cpu);
 extern void tick_nohz_full_check(void);
 extern void tick_nohz_full_kick(void);
 extern void tick_nohz_full_kick_all(void);
+extern void tick_nohz_task_switch(struct task_struct *tsk);
 #else
 static inline void tick_nohz_init(void) { }
 static inline int tick_nohz_full_cpu(int cpu) { return 0; }
 static inline void tick_nohz_full_check(void) { }
 static inline void tick_nohz_full_kick(void) { }
 static inline void tick_nohz_full_kick_all(void) { }
+static inline void tick_nohz_task_switch(struct task_struct *tsk) { }
 #endif
 
 
index 9ad35005f1cbe57bdaf9fceb1c317d9a9f12ea47..dd09def88567bf9f418825c0f684b105b0667be7 100644 (file)
@@ -1896,6 +1896,8 @@ static void finish_task_switch(struct rq *rq, struct task_struct *prev)
                kprobe_flush_task(prev);
                put_task_struct(prev);
        }
+
+       tick_nohz_task_switch(current);
 }
 
 #ifdef CONFIG_SMP
index d0ed1905a85ca34614c9da6b164d3b5b6742b5c0..12a900dbb819d20ca42cac3318e0d54f6ef3ddf5 100644 (file)
@@ -232,6 +232,26 @@ void tick_nohz_full_kick_all(void)
        preempt_enable();
 }
 
+/*
+ * Re-evaluate the need for the tick as we switch the current task.
+ * It might need the tick due to per task/process properties:
+ * perf events, posix cpu timers, ...
+ */
+void tick_nohz_task_switch(struct task_struct *tsk)
+{
+       unsigned long flags;
+
+       if (!tick_nohz_full_cpu(smp_processor_id()))
+               return;
+
+       local_irq_save(flags);
+
+       if (tick_nohz_tick_stopped() && !can_stop_full_tick())
+               tick_nohz_full_kick();
+
+       local_irq_restore(flags);
+}
+
 int tick_nohz_full_cpu(int cpu)
 {
        if (!have_nohz_full_mask)