]> git.proxmox.com Git - proxmox-backup.git/blobdiff - src/server/worker_task.rs
server/worker_task: refactor locking of the task list
[proxmox-backup.git] / src / server / worker_task.rs
index 833301ce60d42247369f86afdf4aa3dec806277e..34d31f99fec575853de7c9f71e2902baaf78176e 100644 (file)
@@ -1,21 +1,28 @@
-use failure::*;
-use lazy_static::lazy_static;
-use chrono::Local;
-
-use tokio::sync::oneshot;
-use futures::*;
-use std::sync::{Arc, Mutex};
 use std::collections::HashMap;
-use std::sync::atomic::{AtomicBool, Ordering};
-use std::io::{BufRead, BufReader};
 use std::fs::File;
-use serde_json::Value;
+use std::io::{Read, BufRead, BufReader};
+use std::panic::UnwindSafe;
+use std::sync::atomic::{AtomicBool, Ordering};
+use std::sync::{Arc, Mutex};
+
+use anyhow::{bail, format_err, Error};
+use futures::*;
+use lazy_static::lazy_static;
+use nix::unistd::Pid;
+use serde_json::{json, Value};
+use serde::{Serialize, Deserialize};
+use tokio::sync::oneshot;
+
+use proxmox::sys::linux::procfs;
+use proxmox::try_block;
+use proxmox::tools::fs::{create_path, open_file_locked, replace_file, CreateOptions};
 
 use super::UPID;
 
-use crate::tools::{self, FileLogger};
+use crate::tools::FileLogger;
+use crate::api2::types::Userid;
 
-macro_rules! PROXMOX_BACKUP_VAR_RUN_DIR_M { () => ("/var/run/proxmox-backup") }
+macro_rules! PROXMOX_BACKUP_VAR_RUN_DIR_M { () => ("/run/proxmox-backup") }
 macro_rules! PROXMOX_BACKUP_LOG_DIR_M { () => ("/var/log/proxmox-backup") }
 macro_rules! PROXMOX_BACKUP_TASK_DIR_M { () => (concat!( PROXMOX_BACKUP_LOG_DIR_M!(), "/tasks")) }
 
@@ -29,44 +36,69 @@ lazy_static! {
     static ref WORKER_TASK_LIST: Mutex<HashMap<usize, Arc<WorkerTask>>> = Mutex::new(HashMap::new());
 
     static ref MY_PID: i32 = unsafe { libc::getpid() };
-    static ref MY_PID_PSTART: u64 = tools::procfs::read_proc_pid_stat(*MY_PID).unwrap().starttime;
+    static ref MY_PID_PSTART: u64 = procfs::PidStat::read_from_pid(Pid::from_raw(*MY_PID))
+        .unwrap()
+        .starttime;
 }
 
 /// Test if the task is still running
-pub fn worker_is_active(upid: &UPID) -> bool {
+pub async fn worker_is_active(upid: &UPID) -> Result<bool, Error> {
+    if (upid.pid == *MY_PID) && (upid.pstart == *MY_PID_PSTART) {
+        return Ok(WORKER_TASK_LIST.lock().unwrap().contains_key(&upid.task_id));
+    }
+
+    if !procfs::check_process_running_pstart(upid.pid, upid.pstart).is_some() {
+        return Ok(false);
+    }
 
+    let socketname = format!(
+        "\0{}/proxmox-task-control-{}.sock", PROXMOX_BACKUP_VAR_RUN_DIR, upid.pid);
+
+    let cmd = json!({
+        "command": "status",
+        "upid": upid.to_string(),
+    });
+
+    let status = super::send_command(socketname, cmd).await?;
+
+    if let Some(active) = status.as_bool() {
+        Ok(active)
+    } else {
+        bail!("got unexpected result {:?} (expected bool)", status);
+    }
+}
+
+/// Test if the task is still running (fast but inaccurate implementation)
+///
+/// If the task is spanned from a different process, we simply return if
+/// that process is still running. This information is good enough to detect
+/// stale tasks...
+pub fn worker_is_active_local(upid: &UPID) -> bool {
     if (upid.pid == *MY_PID) && (upid.pstart == *MY_PID_PSTART) {
-        if WORKER_TASK_LIST.lock().unwrap().contains_key(&upid.task_id) {
-            true
-        } else {
-            false
-        }
+        WORKER_TASK_LIST.lock().unwrap().contains_key(&upid.task_id)
     } else {
-        match tools::procfs::check_process_running_pstart(upid.pid, upid.pstart) {
-            Some(_) => true,
-            _ => false,
-        }
+        procfs::check_process_running_pstart(upid.pid, upid.pstart).is_some()
     }
 }
 
 pub fn create_task_control_socket() -> Result<(), Error> {
 
     let socketname = format!(
-        "{}/proxmox-task-control-{}.sock", PROXMOX_BACKUP_VAR_RUN_DIR, *MY_PID);
+        "\0{}/proxmox-task-control-{}.sock", PROXMOX_BACKUP_VAR_RUN_DIR, *MY_PID);
 
-    let control_future = super::create_control_socket(socketname, true, |param| {
+    let control_future = super::create_control_socket(socketname, |param| {
         let param = param.as_object()
-            .ok_or(format_err!("unable to parse parameters (expected json object)"))?;
-        if param.keys().count() != 2 { bail!("worng number of parameters"); }
+            .ok_or_else(|| format_err!("unable to parse parameters (expected json object)"))?;
+        if param.keys().count() != 2 { bail!("wrong number of parameters"); }
 
-        let command = param.get("command")
-            .ok_or(format_err!("unable to parse parameters (missing command)"))?;
+        let command = param["command"].as_str()
+            .ok_or_else(|| format_err!("unable to parse parameters (missing command)"))?;
 
-        // this is the only command for now
-        if command != "abort-task" { bail!("got unknown command '{}'", command); }
+        // we have only two commands for now
+        if !(command == "abort-task" || command == "status") { bail!("got unknown command '{}'", command); }
 
         let upid_str = param["upid"].as_str()
-            .ok_or(format_err!("unable to parse parameters (missing upid)"))?;
+            .ok_or_else(|| format_err!("unable to parse parameters (missing upid)"))?;
 
         let upid = upid_str.parse::<UPID>()?;
 
@@ -75,12 +107,24 @@ pub fn create_task_control_socket() -> Result<(), Error> {
         }
 
         let hash = WORKER_TASK_LIST.lock().unwrap();
-        if let Some(ref worker) = hash.get(&upid.task_id) {
-            worker.request_abort();
-        } else {
-            // assume task is already stopped
+
+        match command {
+            "abort-task" => {
+                if let Some(ref worker) = hash.get(&upid.task_id) {
+                    worker.request_abort();
+                } else {
+                    // assume task is already stopped
+                }
+                Ok(Value::Null)
+            }
+            "status" => {
+                let active = hash.contains_key(&upid.task_id);
+                Ok(active.into())
+            }
+            _ => {
+                bail!("got unknown command '{}'", command);
+            }
         }
-        Ok(Value::Null)
     })?;
 
     tokio::spawn(control_future);
@@ -88,7 +132,30 @@ pub fn create_task_control_socket() -> Result<(), Error> {
     Ok(())
 }
 
-fn parse_worker_status_line(line: &str) -> Result<(String, UPID, Option<(i64, String)>), Error> {
+pub fn abort_worker_async(upid: UPID) {
+    tokio::spawn(async move {
+        if let Err(err) = abort_worker(upid).await {
+            eprintln!("abort worker failed - {}", err);
+        }
+    });
+}
+
+pub async fn abort_worker(upid: UPID) -> Result<(), Error> {
+
+    let target_pid = upid.pid;
+
+    let socketname = format!(
+        "\0{}/proxmox-task-control-{}.sock", PROXMOX_BACKUP_VAR_RUN_DIR, target_pid);
+
+    let cmd = json!({
+        "command": "abort-task",
+        "upid": upid.to_string(),
+    });
+
+    super::send_command(socketname, cmd).map_ok(|_| ()).await
+}
+
+fn parse_worker_status_line(line: &str) -> Result<(String, UPID, Option<TaskState>), Error> {
 
     let data = line.splitn(3, ' ').collect::<Vec<&str>>();
 
@@ -98,7 +165,8 @@ fn parse_worker_status_line(line: &str) -> Result<(String, UPID, Option<(i64, St
         1 => Ok((data[0].to_owned(), data[0].parse::<UPID>()?, None)),
         3 => {
             let endtime = i64::from_str_radix(data[1], 16)?;
-            Ok((data[0].to_owned(), data[0].parse::<UPID>()?, Some((endtime, data[2].to_owned()))))
+            let state = TaskState::from_endtime_and_message(endtime, data[2])?;
+            Ok((data[0].to_owned(), data[0].parse::<UPID>()?, Some(state)))
         }
         _ => bail!("wrong number of components"),
     }
@@ -108,39 +176,64 @@ fn parse_worker_status_line(line: &str) -> Result<(String, UPID, Option<(i64, St
 pub fn create_task_log_dirs() -> Result<(), Error> {
 
     try_block!({
-        let (backup_uid, backup_gid) = tools::getpwnam_ugid("backup")?;
-        let uid = Some(nix::unistd::Uid::from_raw(backup_uid));
-        let gid = Some(nix::unistd::Gid::from_raw(backup_gid));
-
-        tools::create_dir_chown(PROXMOX_BACKUP_LOG_DIR, None, uid, gid)?;
-        tools::create_dir_chown(PROXMOX_BACKUP_TASK_DIR, None, uid, gid)?;
-        tools::create_dir_chown(PROXMOX_BACKUP_VAR_RUN_DIR, None, uid, gid)?;
+        let backup_user = crate::backup::backup_user()?;
+        let opts = CreateOptions::new()
+            .owner(backup_user.uid)
+            .group(backup_user.gid);
+
+        create_path(PROXMOX_BACKUP_LOG_DIR, None, Some(opts.clone()))?;
+        create_path(PROXMOX_BACKUP_TASK_DIR, None, Some(opts.clone()))?;
+        create_path(PROXMOX_BACKUP_VAR_RUN_DIR, None, Some(opts))?;
         Ok(())
     }).map_err(|err: Error| format_err!("unable to create task log dir - {}", err))?;
 
     Ok(())
 }
 
-fn upid_read_status(upid: &UPID) -> Result<String, Error> {
-    let mut status = String::from("unknown");
+/// Read endtime (time of last log line) and exitstatus from task log file
+/// If there is not a single line with at valid datetime, we assume the
+/// starttime to be the endtime
+pub fn upid_read_status(upid: &UPID) -> Result<TaskState, Error> {
+
+    let mut status = TaskState::Unknown { endtime: upid.starttime };
 
     let path = upid.log_path();
 
-    let file = File::open(path)?;
-    let reader = BufReader::new(file);
-
-    for line in reader.lines() {
-        let line = line?;
-
-        let mut iter = line.splitn(2, ": TASK ");
-        if iter.next() == None { continue; }
-        match iter.next() {
-            None => continue,
-            Some(rest) => {
-                if rest == "OK" {
-                    status = String::from(rest);
-                } else if rest.starts_with("ERROR: ") {
-                    status = String::from(rest);
+    let mut file = File::open(path)?;
+
+    /// speedup - only read tail
+    use std::io::Seek;
+    use std::io::SeekFrom;
+    let _ = file.seek(SeekFrom::End(-8192)); // ignore errors
+
+    let mut data = Vec::with_capacity(8192);
+    file.read_to_end(&mut data)?;
+
+    // task logs should end with newline, we do not want it here
+    if data.len() > 0 && data[data.len()-1] == b'\n' {
+        data.pop();
+    }
+
+    let last_line = {
+        let mut start = 0;
+        for pos in (0..data.len()).rev() {
+            if data[pos] == b'\n' {
+                start = data.len().min(pos + 1);
+                break;
+            }
+        }
+        &data[start..]
+    };
+
+    let last_line = std::str::from_utf8(last_line)
+        .map_err(|err| format_err!("upid_read_status: utf8 parse failed: {}", err))?;
+
+    let mut iter = last_line.splitn(2, ": ");
+    if let Some(time_str) = iter.next() {
+        if let Ok(endtime) = proxmox::tools::time::parse_rfc3339(time_str) {
+            if let Some(rest) = iter.next().and_then(|rest| rest.strip_prefix("TASK ")) {
+                if let Ok(state) = TaskState::from_endtime_and_message(endtime, rest) {
+                    status = state;
                 }
             }
         }
@@ -149,6 +242,76 @@ fn upid_read_status(upid: &UPID) -> Result<String, Error> {
     Ok(status)
 }
 
+/// Task State
+#[derive(Debug, PartialEq, Eq, Serialize, Deserialize)]
+pub enum TaskState {
+    /// The Task ended with an undefined state
+    Unknown { endtime: i64 },
+    /// The Task ended and there were no errors or warnings
+    OK { endtime: i64 },
+    /// The Task had 'count' amount of warnings and no errors
+    Warning { count: u64, endtime: i64 },
+    /// The Task ended with the error described in 'message'
+    Error { message: String, endtime: i64 },
+}
+
+impl TaskState {
+    pub fn endtime(&self) -> i64 {
+        match *self {
+            TaskState::Unknown { endtime } => endtime,
+            TaskState::OK { endtime } => endtime,
+            TaskState::Warning { endtime, .. } => endtime,
+            TaskState::Error { endtime, .. } => endtime,
+        }
+    }
+
+    fn result_text(&self) -> String {
+        match self {
+            TaskState::Error { message, .. } => format!("TASK ERROR: {}", message),
+            other => format!("TASK {}", other),
+        }
+    }
+
+    fn from_endtime_and_message(endtime: i64, s: &str) -> Result<Self, Error> {
+        if s == "unknown" {
+            Ok(TaskState::Unknown { endtime })
+        } else if s == "OK" {
+            Ok(TaskState::OK { endtime })
+        } else if s.starts_with("WARNINGS: ") {
+            let count: u64 = s[10..].parse()?;
+            Ok(TaskState::Warning{ count, endtime })
+        } else if s.len() > 0 {
+            let message = if s.starts_with("ERROR: ") { &s[7..] } else { s }.to_string();
+            Ok(TaskState::Error{ message, endtime })
+        } else {
+            bail!("unable to parse Task Status '{}'", s);
+        }
+    }
+}
+
+impl std::cmp::PartialOrd for TaskState {
+    fn partial_cmp(&self, other: &Self) -> Option<std::cmp::Ordering> {
+        Some(self.endtime().cmp(&other.endtime()))
+    }
+}
+
+impl std::cmp::Ord for TaskState {
+    fn cmp(&self, other: &Self) -> std::cmp::Ordering {
+        self.endtime().cmp(&other.endtime())
+    }
+}
+
+impl std::fmt::Display for TaskState {
+    fn fmt(&self, f: &mut std::fmt::Formatter<'_>) -> std::fmt::Result {
+        match self {
+            TaskState::Unknown { .. } => write!(f, "unknown"),
+            TaskState::OK { .. }=> write!(f, "OK"),
+            TaskState::Warning { count, .. } => write!(f, "WARNINGS: {}", count),
+            TaskState::Error { message, .. } => write!(f, "{}", message),
+        }
+    }
+}
+
 /// Task details including parsed UPID
 ///
 /// If there is no `state`, the task is still running.
@@ -159,9 +322,16 @@ pub struct TaskListInfo {
     /// UPID string representation
     pub upid_str: String,
     /// Task `(endtime, status)` if already finished
-    ///
-    /// The `status` ise iether `unknown`, `OK`, or `ERROR: ...`
-    pub state: Option<(i64, String)>, // endtime, status
+    pub state: Option<TaskState>, // endtime, status
+}
+
+fn lock_task_list_files(exclusive: bool) -> Result<std::fs::File, Error> {
+    let backup_user = crate::backup::backup_user()?;
+
+    let lock = open_file_locked(PROXMOX_BACKUP_TASK_LOCK_FN, std::time::Duration::new(10, 0), exclusive)?;
+    nix::unistd::chown(PROXMOX_BACKUP_TASK_LOCK_FN, Some(backup_user.uid), Some(backup_user.gid))?;
+
+    Ok(lock)
 }
 
 // atomically read/update the task list, update status of finished tasks
@@ -169,12 +339,9 @@ pub struct TaskListInfo {
 // Returns a sorted list of known tasks,
 fn update_active_workers(new_upid: Option<&UPID>) -> Result<Vec<TaskListInfo>, Error> {
 
-    let (backup_uid, backup_gid) = tools::getpwnam_ugid("backup")?;
-    let uid = Some(nix::unistd::Uid::from_raw(backup_uid));
-    let gid = Some(nix::unistd::Gid::from_raw(backup_gid));
+    let backup_user = crate::backup::backup_user()?;
 
-    let lock = tools::open_file_locked(PROXMOX_BACKUP_TASK_LOCK_FN, std::time::Duration::new(10, 0))?;
-    nix::unistd::chown(PROXMOX_BACKUP_TASK_LOCK_FN, uid, gid)?;
+    let lock = lock_task_list_files(true)?;
 
     let reader = match File::open(PROXMOX_BACKUP_ACTIVE_TASK_FN) {
         Ok(f) => Some(BufReader::new(f)),
@@ -196,27 +363,23 @@ fn update_active_workers(new_upid: Option<&UPID>) -> Result<Vec<TaskListInfo>, E
             let line = line?;
             match parse_worker_status_line(&line) {
                 Err(err) => bail!("unable to parse active worker status '{}' - {}", line, err),
-                Ok((upid_str, upid, state)) => {
-
-                    let running = worker_is_active(&upid);
-
-                    if running {
+                Ok((upid_str, upid, state)) => match state {
+                    None if worker_is_active_local(&upid) => {
                         active_list.push(TaskListInfo { upid, upid_str, state: None });
-                    } else {
-                        match state {
-                            None => {
-                                println!("Detected stoped UPID {}", upid_str);
-                                let status = upid_read_status(&upid).unwrap_or(String::from("unknown"));
-                                finish_list.push(TaskListInfo {
-                                    upid, upid_str, state: Some((Local::now().timestamp(), status))
-                                });
-                            }
-                            Some((endtime, status)) => {
-                                finish_list.push(TaskListInfo {
-                                    upid, upid_str, state: Some((endtime, status))
-                                })
-                            }
-                        }
+                    },
+                    None => {
+                        println!("Detected stopped UPID {}", upid_str);
+                        let now = proxmox::tools::time::epoch_i64();
+                        let status = upid_read_status(&upid)
+                            .unwrap_or_else(|_| TaskState::Unknown { endtime: now });
+                        finish_list.push(TaskListInfo {
+                            upid, upid_str, state: Some(status)
+                        });
+                    },
+                    Some(status) => {
+                        finish_list.push(TaskListInfo {
+                            upid, upid_str, state: Some(status)
+                        })
                     }
                 }
             }
@@ -249,26 +412,24 @@ fn update_active_workers(new_upid: Option<&UPID>) -> Result<Vec<TaskListInfo>, E
     let mut task_list: Vec<TaskListInfo> = vec![];
     for (_, info) in task_hash { task_list.push(info); }
 
-    task_list.sort_unstable_by(|a, b| {
+    task_list.sort_unstable_by(|b, a| { // lastest on top
         match (&a.state, &b.state) {
-            (Some(s1), Some(s2)) => s1.0.cmp(&s2.0),
+            (Some(s1), Some(s2)) => s1.cmp(&s2),
             (Some(_), None) => std::cmp::Ordering::Less,
             (None, Some(_)) => std::cmp::Ordering::Greater,
             _ => a.upid.starttime.cmp(&b.upid.starttime),
         }
     });
 
-    let mut raw = String::new();
-    for info in &task_list {
-        if let Some((endtime, status)) = &info.state {
-            raw.push_str(&format!("{} {:08X} {}\n", info.upid_str, endtime, status));
-        } else {
-            raw.push_str(&info.upid_str);
-            raw.push('\n');
-        }
-    }
+    let raw = render_task_list(&task_list[..]);
 
-    tools::file_set_contents_full(PROXMOX_BACKUP_ACTIVE_TASK_FN, raw.as_bytes(), None, uid, gid)?;
+    replace_file(
+        PROXMOX_BACKUP_ACTIVE_TASK_FN,
+        raw.as_bytes(),
+        CreateOptions::new()
+            .owner(backup_user.uid)
+            .group(backup_user.gid),
+    )?;
 
     drop(lock);
 
@@ -282,6 +443,26 @@ pub fn read_task_list() -> Result<Vec<TaskListInfo>, Error> {
     update_active_workers(None)
 }
 
+fn render_task_line(info: &TaskListInfo) -> String {
+    let mut raw = String::new();
+    if let Some(status) = &info.state {
+        raw.push_str(&format!("{} {:08X} {}\n", info.upid_str, status.endtime(), status));
+    } else {
+        raw.push_str(&info.upid_str);
+        raw.push('\n');
+    }
+
+    raw
+}
+
+fn render_task_list(list: &[TaskListInfo]) -> String {
+    let mut raw = String::new();
+    for info in list {
+        raw.push_str(&render_task_line(&info));
+    }
+    raw
+}
+
 /// Launch long running worker tasks.
 ///
 /// A worker task can either be a whole thread, or a simply tokio
@@ -306,6 +487,8 @@ impl std::fmt::Display for WorkerTask {
 struct WorkerTaskData {
     logger: FileLogger,
     progress: f64, // 0..1
+    warn_count: u64,
+    pub abort_listeners: Vec<oneshot::Sender<()>>,
 }
 
 impl Drop for WorkerTask {
@@ -317,44 +500,46 @@ impl Drop for WorkerTask {
 
 impl WorkerTask {
 
-    fn new(worker_type: &str, worker_id: Option<String>, username: &str, to_stdout: bool) -> Result<Arc<Self>, Error> {
+    pub fn new(worker_type: &str, worker_id: Option<String>, userid: Userid, to_stdout: bool) -> Result<Arc<Self>, Error> {
         println!("register worker");
 
-        let upid = UPID::new(worker_type, worker_id, username)?;
+        let upid = UPID::new(worker_type, worker_id, userid)?;
         let task_id = upid.task_id;
 
         let mut path = std::path::PathBuf::from(PROXMOX_BACKUP_TASK_DIR);
 
         path.push(format!("{:02X}", upid.pstart % 256));
 
-        let (backup_uid, backup_gid) = tools::getpwnam_ugid("backup")?;
-        let uid = Some(nix::unistd::Uid::from_raw(backup_uid));
-        let gid = Some(nix::unistd::Gid::from_raw(backup_gid));
+        let backup_user = crate::backup::backup_user()?;
 
-        tools::create_dir_chown(&path, None, uid, gid)?;
+        create_path(&path, None, Some(CreateOptions::new().owner(backup_user.uid).group(backup_user.gid)))?;
 
         path.push(upid.to_string());
 
         println!("FILE: {:?}", path);
 
         let logger = FileLogger::new(&path, to_stdout)?;
-        nix::unistd::chown(&path, uid, gid)?;
-
-        update_active_workers(Some(&upid))?;
+        nix::unistd::chown(&path, Some(backup_user.uid), Some(backup_user.gid))?;
 
         let worker = Arc::new(Self {
-            upid: upid,
+            upid: upid.clone(),
             abort_requested: AtomicBool::new(false),
             data: Mutex::new(WorkerTaskData {
                 logger,
                 progress: 0.0,
+                warn_count: 0,
+                abort_listeners: vec![],
             }),
         });
 
-        let mut hash = WORKER_TASK_LIST.lock().unwrap();
+        // scope to drop the lock again after inserting
+        {
+            let mut hash = WORKER_TASK_LIST.lock().unwrap();
+            hash.insert(task_id, worker.clone());
+            super::set_worker_count(hash.len());
+        }
 
-        hash.insert(task_id, worker.clone());
-        super::set_worker_count(hash.len());
+        update_active_workers(Some(&upid))?;
 
         Ok(worker)
     }
@@ -363,24 +548,20 @@ impl WorkerTask {
     pub fn spawn<F, T>(
         worker_type: &str,
         worker_id: Option<String>,
-        username: &str,
+        userid: Userid,
         to_stdout: bool,
         f: F,
     ) -> Result<String, Error>
         where F: Send + 'static + FnOnce(Arc<WorkerTask>) -> T,
-              T: Send + 'static + Future<Item=(), Error=Error>,
+              T: Send + 'static + Future<Output = Result<(), Error>>,
     {
-        let worker = WorkerTask::new(worker_type, worker_id, username, to_stdout)?;
-        let task_id = worker.upid.task_id;
+        let worker = WorkerTask::new(worker_type, worker_id, userid, to_stdout)?;
         let upid_str = worker.upid.to_string();
-
-        tokio::spawn(f(worker.clone()).then(move |result| {
-            WORKER_TASK_LIST.lock().unwrap().remove(&task_id);
-            worker.log_result(result);
-            let _ = update_active_workers(None);
-            super::set_worker_count(WORKER_TASK_LIST.lock().unwrap().len());
-            Ok(())
-        }));
+        let f = f(worker.clone());
+        tokio::spawn(async move {
+            let result = f.await;
+            worker.log_result(&result);
+        });
 
         Ok(upid_str)
     }
@@ -389,48 +570,77 @@ impl WorkerTask {
     pub fn new_thread<F>(
         worker_type: &str,
         worker_id: Option<String>,
-        username: &str,
+        userid: Userid,
         to_stdout: bool,
         f: F,
     ) -> Result<String, Error>
-        where F: Send + 'static + FnOnce(Arc<WorkerTask>) -> Result<(), Error>
+        where F: Send + UnwindSafe + 'static + FnOnce(Arc<WorkerTask>) -> Result<(), Error>
     {
         println!("register worker thread");
 
-        let (p, c) = oneshot::channel::<()>();
-
-        let worker = WorkerTask::new(worker_type, worker_id, username, to_stdout)?;
-        let task_id = worker.upid.task_id;
+        let worker = WorkerTask::new(worker_type, worker_id, userid, to_stdout)?;
         let upid_str = worker.upid.to_string();
 
-        let _child = std::thread::spawn(move || {
-            let result = f(worker.clone());
-            WORKER_TASK_LIST.lock().unwrap().remove(&task_id);
-            worker.log_result(result);
-            let _ = update_active_workers(None);
-            p.send(()).unwrap();
-            super::set_worker_count(WORKER_TASK_LIST.lock().unwrap().len());
-        });
+        let _child = std::thread::Builder::new().name(upid_str.clone()).spawn(move || {
+            let worker1 = worker.clone();
+            let result = match std::panic::catch_unwind(move || f(worker1)) {
+                Ok(r) => r,
+                Err(panic) => {
+                    match panic.downcast::<&str>() {
+                        Ok(panic_msg) => {
+                            Err(format_err!("worker panicked: {}", panic_msg))
+                        }
+                        Err(_) => {
+                            Err(format_err!("worker panicked: unknown type."))
+                        }
+                    }
+                }
+            };
 
-        tokio::spawn(c.then(|_| Ok(())));
+            worker.log_result(&result);
+        });
 
         Ok(upid_str)
     }
 
-    fn log_result(&self, result: Result<(), Error>) {
+    /// create state from self and a result
+    pub fn create_state(&self, result: &Result<(), Error>) -> TaskState {
+        let warn_count = self.data.lock().unwrap().warn_count;
+
+        let endtime = proxmox::tools::time::epoch_i64();
+
         if let Err(err) = result {
-            self.log(&format!("TASK ERROR: {}", err));
+            TaskState::Error { message: err.to_string(), endtime }
+        } else if warn_count > 0 {
+            TaskState::Warning { count: warn_count, endtime }
         } else {
-            self.log("TASK OK");
+            TaskState::OK { endtime }
         }
     }
 
+    /// Log task result, remove task from running list
+    pub fn log_result(&self, result: &Result<(), Error>) {
+        let state = self.create_state(result);
+        self.log(state.result_text());
+
+        WORKER_TASK_LIST.lock().unwrap().remove(&self.upid.task_id);
+        let _ = update_active_workers(None);
+        super::set_worker_count(WORKER_TASK_LIST.lock().unwrap().len());
+    }
+
     /// Log a message.
     pub fn log<S: AsRef<str>>(&self, msg: S) {
         let mut data = self.data.lock().unwrap();
         data.logger.log(msg);
     }
 
+    /// Log a message as warning.
+    pub fn warn<S: AsRef<str>>(&self, msg: S) {
+        let mut data = self.data.lock().unwrap();
+        data.logger.log(format!("WARN: {}", msg.as_ref()));
+        data.warn_count += 1;
+    }
+
     /// Set progress indicator
     pub fn progress(&self, progress: f64) {
         if progress >= 0.0 && progress <= 1.0 {
@@ -443,7 +653,18 @@ impl WorkerTask {
 
     /// Request abort
     pub fn request_abort(&self) {
+        eprintln!("set abort flag for worker {}", self.upid);
         self.abort_requested.store(true, Ordering::SeqCst);
+        // noitify listeners
+        let mut data = self.data.lock().unwrap();
+        loop {
+            match data.abort_listeners.pop() {
+                None => { break; },
+                Some(ch) => {
+                    let _ = ch.send(()); // ignore erros here
+                },
+            }
+        }
     }
 
     /// Test if abort was requested.
@@ -454,8 +675,25 @@ impl WorkerTask {
     /// Fail if abort was requested.
     pub fn fail_on_abort(&self) -> Result<(), Error> {
         if self.abort_requested() {
-            bail!("task '{}': abort requested - aborting task", self.upid);
+            bail!("abort requested - aborting task");
         }
         Ok(())
     }
+
+    /// Get a future which resolves on task abort
+    pub fn abort_future(&self) ->  oneshot::Receiver<()> {
+        let (tx, rx) = oneshot::channel::<()>();
+
+        let mut data = self.data.lock().unwrap();
+        if self.abort_requested() {
+            let _ = tx.send(());
+        } else {
+            data.abort_listeners.push(tx);
+        }
+        rx
+    }
+
+    pub fn upid(&self) -> &UPID {
+        &self.upid
+    }
 }