]> git.proxmox.com Git - pve-ha-manager.git/blobdiff - debian/changelog
bump version to 4.0.4
[pve-ha-manager.git] / debian / changelog
index baf6421f2c56ae82f0848f33e02b967da59eb1e8..345960f1ea6db1f75a9e87e2360dc183b662b2f6 100644 (file)
@@ -1,3 +1,130 @@
+pve-ha-manager (4.0.4) bookworm; urgency=medium
+
+  * d/postinst: make deb-systemd-invoke non-fatal
+
+ -- Proxmox Support Team <support@proxmox.com>  Mon, 22 Apr 2024 13:47:18 +0200
+
+pve-ha-manager (4.0.3) bookworm; urgency=medium
+
+  * manager: send notifications via new notification module
+
+  * fix #4984: manager: add service to migration-target usage only if online
+
+  * crs: avoid auto-vivification when adding node to service usage
+
+ -- Proxmox Support Team <support@proxmox.com>  Fri, 17 Nov 2023 14:49:03 +0100
+
+pve-ha-manager (4.0.2) bookworm; urgency=medium
+
+  * cluster resource manager: clear stale maintenance node, which can be
+    caused by simultaneous cluster shutdown
+
+ -- Proxmox Support Team <support@proxmox.com>  Tue, 13 Jun 2023 08:35:52 +0200
+
+pve-ha-manager (4.0.1) bookworm; urgency=medium
+
+  * test, simulator: make it possible to add already running service
+
+  * lrm: do not migrate via rebalance-on-start if service already running upon
+    rebalance on start
+
+  * api: fix/add return description for status endpoint
+
+  * resources: pve: avoid relying on internal configuration details, use new
+    helpers in pve-container and qemu-server
+
+ -- Proxmox Support Team <support@proxmox.com>  Fri, 09 Jun 2023 10:41:06 +0200
+
+pve-ha-manager (4.0.0) bookworm; urgency=medium
+
+  * re-build for Proxmox VE 8 / Debian 12 Bookworm
+
+ -- Proxmox Support Team <support@proxmox.com>  Wed, 24 May 2023 19:26:51 +0200
+
+pve-ha-manager (3.6.1) bullseye; urgency=medium
+
+  * cli: assert that node exist when changing CRS request state to avoid
+    creating a phantom node by mistake
+
+  * manager: ensure node-request state gets transferred to new active CRM, so
+    that the request for (manual) maintenance mode is upheld, even if the node
+    that is in maintenace mode is also the current active CRM and gets
+    rebooted.
+
+  * lrm: ignore shutdown policy if (manual) maintenance mode is requested to
+    avoid exiting from maintenance mode to early.
+
+ -- Proxmox Support Team <support@proxmox.com>  Thu, 20 Apr 2023 14:16:14 +0200
+
+pve-ha-manager (3.6.0) bullseye; urgency=medium
+
+  * fix #4371: add CRM command to switch an online node manually into
+    maintenance (without reboot), moving away all active services, but
+    automatically migrate them back once the maintenance mode is disabled
+    again.
+
+  * manager: service start: make EWRONG_NODE a non-fatal error, but try to
+    find its the actual node the service is residing on
+
+  * manager: add new intermediate 'request_started' state for stop->start
+    transitions
+
+  * request start: optionally enable automatic selection of the best rated
+    node by the CRS on service start up, bypassing the very high priority of
+    the current node on which a service is located.
+
+ -- Proxmox Support Team <support@proxmox.com>  Mon, 20 Mar 2023 13:38:26 +0100
+
+pve-ha-manager (3.5.1) bullseye; urgency=medium
+
+  * manager: update crs scheduling mode once per round to avoid the need for a
+    restart of the currently active manager.
+
+  * api: status: add CRS info to manager if not set to default
+
+ -- Proxmox Support Team <support@proxmox.com>  Sat, 19 Nov 2022 15:51:11 +0100
+
+pve-ha-manager (3.5.0) bullseye; urgency=medium
+
+  * env: datacenter config: include crs (cluster-resource-scheduling) setting
+
+  * manager: use static resource scheduler when configured
+
+  * manager: avoid scoring nodes if maintenance fallback node is valid
+
+  * manager: avoid scoring nodes when not trying next and current node is
+    valid
+
+  * usage: static: use service count on nodes as a fallback
+
+ -- Proxmox Support Team <support@proxmox.com>  Fri, 18 Nov 2022 15:02:55 +0100
+
+pve-ha-manager (3.4.0) bullseye; urgency=medium
+
+  * switch to native version formatting
+
+  * fix accounting of online services when moving services due to their source
+    node going gracefully nonoperational (maintenance mode). This ensures a
+    better balance of services on the cluster after such an operation.
+
+ -- Proxmox Support Team <support@proxmox.com>  Fri, 22 Jul 2022 09:21:20 +0200
+
+pve-ha-manager (3.3-4) bullseye; urgency=medium
+
+  * lrm: fix getting stuck on restart due to finished worker state not
+    being collected
+
+ -- Proxmox Support Team <support@proxmox.com>  Wed, 27 Apr 2022 14:01:55 +0200
+
+pve-ha-manager (3.3-3) bullseye; urgency=medium
+
+  * lrm: avoid possible job starvation on huge workloads
+
+  * lrm: increase run_worker loop-time for doing actually work to 80%
+    duty-cycle
+
+ -- Proxmox Support Team <support@proxmox.com>  Thu, 20 Jan 2022 18:05:33 +0100
+
 pve-ha-manager (3.3-2) bullseye; urgency=medium
 
   * fix #3826: fix restarting LRM/CRM when triggered by package management