]> git.proxmox.com Git - pve-ha-manager.git/blobdiff - debian/changelog
bump version to 4.0.5
[pve-ha-manager.git] / debian / changelog
index 3ad30b3e092b7fe936eb2ddfcc61ccd3d85fe13b..994fb64cc19fe71c1c1f241bf585399614c9ef06 100644 (file)
@@ -1,3 +1,86 @@
+pve-ha-manager (4.0.5) bookworm; urgency=medium
+
+  * env: notify: use named templates instead of passing template strings
+
+ -- Proxmox Support Team <support@proxmox.com>  Tue, 04 Jun 2024 11:10:05 +0200
+
+pve-ha-manager (4.0.4) bookworm; urgency=medium
+
+  * d/postinst: make deb-systemd-invoke non-fatal
+
+ -- Proxmox Support Team <support@proxmox.com>  Mon, 22 Apr 2024 13:47:18 +0200
+
+pve-ha-manager (4.0.3) bookworm; urgency=medium
+
+  * manager: send notifications via new notification module
+
+  * fix #4984: manager: add service to migration-target usage only if online
+
+  * crs: avoid auto-vivification when adding node to service usage
+
+ -- Proxmox Support Team <support@proxmox.com>  Fri, 17 Nov 2023 14:49:03 +0100
+
+pve-ha-manager (4.0.2) bookworm; urgency=medium
+
+  * cluster resource manager: clear stale maintenance node, which can be
+    caused by simultaneous cluster shutdown
+
+ -- Proxmox Support Team <support@proxmox.com>  Tue, 13 Jun 2023 08:35:52 +0200
+
+pve-ha-manager (4.0.1) bookworm; urgency=medium
+
+  * test, simulator: make it possible to add already running service
+
+  * lrm: do not migrate via rebalance-on-start if service already running upon
+    rebalance on start
+
+  * api: fix/add return description for status endpoint
+
+  * resources: pve: avoid relying on internal configuration details, use new
+    helpers in pve-container and qemu-server
+
+ -- Proxmox Support Team <support@proxmox.com>  Fri, 09 Jun 2023 10:41:06 +0200
+
+pve-ha-manager (4.0.0) bookworm; urgency=medium
+
+  * re-build for Proxmox VE 8 / Debian 12 Bookworm
+
+ -- Proxmox Support Team <support@proxmox.com>  Wed, 24 May 2023 19:26:51 +0200
+
+pve-ha-manager (3.6.1) bullseye; urgency=medium
+
+  * cli: assert that node exist when changing CRS request state to avoid
+    creating a phantom node by mistake
+
+  * manager: ensure node-request state gets transferred to new active CRM, so
+    that the request for (manual) maintenance mode is upheld, even if the node
+    that is in maintenace mode is also the current active CRM and gets
+    rebooted.
+
+  * lrm: ignore shutdown policy if (manual) maintenance mode is requested to
+    avoid exiting from maintenance mode to early.
+
+ -- Proxmox Support Team <support@proxmox.com>  Thu, 20 Apr 2023 14:16:14 +0200
+
+pve-ha-manager (3.6.0) bullseye; urgency=medium
+
+  * fix #4371: add CRM command to switch an online node manually into
+    maintenance (without reboot), moving away all active services, but
+    automatically migrate them back once the maintenance mode is disabled
+    again.
+
+  * manager: service start: make EWRONG_NODE a non-fatal error, but try to
+    find its the actual node the service is residing on
+
+  * manager: add new intermediate 'request_started' state for stop->start
+    transitions
+
+  * request start: optionally enable automatic selection of the best rated
+    node by the CRS on service start up, bypassing the very high priority of
+    the current node on which a service is located.
+
+ -- Proxmox Support Team <support@proxmox.com>  Mon, 20 Mar 2023 13:38:26 +0100
+
 pve-ha-manager (3.5.1) bullseye; urgency=medium
 
   * manager: update crs scheduling mode once per round to avoid the need for a