]> git.proxmox.com Git - pve-docs.git/blobdiff - ha-manager.adoc
ha-manager: error fixes and small additions
[pve-docs.git] / ha-manager.adoc
index 8e50524d7b97a3165f08a54856fbba4a44618fad..af89f9e27f89a8a19587d3cd5a06ceee22b15fcc 100644 (file)
@@ -48,50 +48,97 @@ percentage of uptime in a given year.
 |99.99999      |3.15 seconds
 |===========================================================
 
-There are several ways to increase availability:
+There are several ways to increase availability. The most elegant
+solution is to rewrite your software, so that you can run it on
+several host at the same time. The software itself need to have a way
+to detect errors and do failover. This is relatively easy if you just
+want to serve read-only web pages. But in general this is complex, and
+sometimes impossible because you cannot modify the software
+yourself. The following solutions works without modifying the
+software:
+
+* Use reliable "server" components
+
+NOTE: Computer components with same functionality can have varying
+reliability numbers, depending on the component quality. Most vendors
+sell components with higher reliability as "server" components -
+usually at higher price.
 
 * Eliminate single point of failure (redundant components)
 
- - use an uniteruptable power supply (UPS)
+ - use an uninterruptible power supply (UPS)
  - use redundant power supplies on the main boards
  - use ECC-RAM
  - use redundant network hardware
- - use distributed, redundant storage
+ - use RAID for local storage
+ - use distributed, redundant storage for VM data
 
 * Reduce downtime
 
- - automatic error detection
- - automatic failover
+ - rapidly accessible administrators (24/7)
+ - availability of spare parts (other nodes in a {pve} cluster)
+ - automatic error detection ('ha-manager')
+ - automatic failover ('ha-manager')
 
 Virtualization environments like {pve} makes it much easier to reach
-high availability because they remove the "hardware" dependency. It is
-also easy to setup and use redundant storage and network devices. So
-if one host fail, you can simply start those services on another host
-within your cluster. Even better, 'ha-manager' is able to
-automatically detect errors and do automatic failover.
-
-'ha-manager' handles management of user-defined cluster services. This
-includes handling of user requests which may start, stop, relocate,
+high availability because they remove the "hardware" dependency. They
+also support to setup and use redundant storage and network
+devices. So if one host fail, you can simply start those services on
+another host within your cluster.
+
+Even better, {pve} provides a software stack called 'ha-manager',
+which can do that automatically for you. It is able to automatically
+detect errors and do automatic failover.
+
+{pve} 'ha-manager' works like an "automated" administrator. First, you
+configure what resources (VMs, containers, ...) it should
+manage. 'ha-manager' then observes correct functionality, and handles
+service failover to another node in case of errors. 'ha-manager' can
+also handle normal user requests which may start, stop, relocate and
 migrate a service.
-The cluster resource manager daemon also handles restarting and relocating
-services to another node in the event of failures.
 
-A service (also called resource) is uniquely identified by a service ID
-(SID) which consists of the service type and an type specific id, e.g.:
-'vm:100'. That example would be a service of type vm (Virtual machine)
-with the VMID 100.
+But high availability comes at a price. High quality components are
+more expensive, and making them redundant duplicates the costs at
+least. Additional spare parts increase costs further. So you should
+carefully calculate the benefits, and compare with those additional
+costs.
+
+TIP: Increasing availability from 99% to 99.9% is relatively
+simply. But increasing availability from 99.9999% to 99.99999% is very
+hard and costly. 'ha-manager' has typical error detection and failover
+times of about 2 minutes, so you can get no more than 99.999%
+availability.
 
 Requirements
 ------------
 
-* at least three nodes
+* at least three cluster nodes (to get reliable quorum)
 
-* shared storage
+* shared storage for VMs and containers
 
-* hardware redundancy
+* hardware redundancy (everywhere)
 
 * hardware watchdog - if not available we fall back to the
-  linux kernel soft dog
+  linux kernel software watchdog ('softdog')
+
+* optional hardware fencing devices
+
+
+Resources
+---------
+
+We call the primary management unit handled by 'ha-manager' a
+resource. A resource (also called "service") is uniquely
+identified by a service ID (SID), which consists of the resource type
+and an type specific ID, e.g.: 'vm:100'. That example would be a
+resource of type 'vm' (virtual machine) with the ID 100.
+
+For now we have two important resources types - virtual machines and
+containers. One basic idea here is that we can bundle related software
+into such VM or container, so there is no need to compose one big
+service from other services, like it was done with 'rgmanager'. In
+general, a HA enabled resource should not depend on other resources.
+
 
 How It Works
 ------------
@@ -111,7 +158,7 @@ status file and executes the respective commands.
 'pve-ha-crm'::
 
 The cluster resource manager (CRM), it controls the cluster wide
-actions of the services, processes the LRM result includes the state
+actions of the services, processes the LRM results and includes the state
 machine which controls the state of each service.
 
 .Locks in the LRM & CRM
@@ -141,10 +188,12 @@ It can be in three states:
 
 After the LRM gets in the active state it reads the manager status
 file in '/etc/pve/ha/manager_status' and determines the commands it
-has to execute for the service it owns.
+has to execute for the services it owns.
 For each command a worker gets started, this workers are running in
 parallel and are limited to maximal 4 by default. This default setting
 may be changed through the datacenter configuration key "max_worker".
+When finished the worker process gets collected and its result saved for
+the CRM.
 
 .Maximal Concurrent Worker Adjustment Tips
 [NOTE]
@@ -186,7 +235,7 @@ waits there for the manager lock, which can only be held by one node
 at a time.  The node which successfully acquires the manager lock gets
 promoted to the CRM master.
 
-It can be in three states: TODO
+It can be in three states:
 
 * *wait for agent lock*: the LRM waits for our exclusive lock. This is
   also used as idle sate if no service is configured
@@ -195,9 +244,9 @@ It can be in three states: TODO
   and quorum was lost.
 
 It main task is to manage the services which are configured to be highly
-available and try to get always bring them in the wanted state, e.g.: a
+available and try to always enforce them to the wanted state, e.g.: a
 enabled service will be started if its not running, if it crashes it will
-be started again. Thus it dictates the LRM the wanted actions.
+be started again. Thus it dictates the LRM the actions it needs to execute.
 
 When an node leaves the cluster quorum, its state changes to unknown.
 If the current CRM then can secure the failed nodes lock, the services
@@ -206,12 +255,12 @@ will be 'stolen' and restarted on another node.
 When a cluster member determines that it is no longer in the cluster
 quorum, the LRM waits for a new quorum to form. As long as there is no
 quorum the node cannot reset the watchdog. This will trigger a reboot
-after 60 seconds.
+after the watchdog then times out, this happens after 60 seconds.
 
 Configuration
 -------------
 
-The HA stack is well integrated int the Proxmox VE API2. So, for
+The HA stack is well integrated in the Proxmox VE API2. So, for
 example, HA can be configured via 'ha-manager' or the PVE web
 interface, which both provide an easy to use tool.
 
@@ -228,6 +277,16 @@ services which are required to run always on another node first.
 After that you can stop the LRM and CRM services. But note that the
 watchdog triggers if you stop it with active services.
 
+Updates
+~~~~~~~
+When updating the ha-manager you should do one node after the other, never
+all at once. Further you have to ensure that no service located at the node
+is in the error state, a node with erroneous service is not able to be upgraded
+and if tried nonetheless it may even trigger a Node reset when doing so!
+When dealing with erroneous services first check what happened to them, then
+bring them in a secure state, after that disable or remove them from HA. 
+Only after that you may start upgrading a Nodes LRM and CRM.
+
 Fencing
 -------
 
@@ -246,12 +305,6 @@ If you have a hardware watchdog available remove its module from the blacklist
 and restart 'the watchdog-mux' service.
 
 
-Resource/Service Agents
--------------------------
-
-A resource or also called service can be managed by the
-ha-manager. Currently we support virtual machines and container.
-
 Groups
 ------
 
@@ -293,7 +346,7 @@ maximal number of tries to relocate the service to a different node.
 A relocate only happens after the max_restart value is exceeded on the
 actual node. The default is set to one.
 
-Note that the relocate count state will only reset to zero when the
+NOTE: The relocate count state will only reset to zero when the
 service had at least one successful start. That means if a service is
 re-enabled without fixing the error only the restart policy gets
 repeated.