]> git.proxmox.com Git - pve-docs.git/blobdiff - pvecm.adoc
Improve cluster note deletion operation
[pve-docs.git] / pvecm.adoc
index 8e3687adfa0adb4e5b515edba099a332566dd45e..9b82c50ed00b79648e18ae28f6121ba51634eca5 100644 (file)
@@ -193,42 +193,10 @@ not be what you want or need.
 
 Move all virtual machines from the node. Make sure you have no local
 data or backups you want to keep, or save them accordingly.
+In the following example we will remove the node hp4 from the cluster.
 
-Log in to one remaining node via ssh. Issue a `pvecm nodes` command to
-identify the node ID:
-
-----
-hp1# pvecm status
-
-Quorum information
-~~~~~~~~~~~~~~~~~~
-Date:             Mon Apr 20 12:30:13 2015
-Quorum provider:  corosync_votequorum
-Nodes:            4
-Node ID:          0x00000001
-Ring ID:          1928
-Quorate:          Yes
-
-Votequorum information
-~~~~~~~~~~~~~~~~~~~~~~
-Expected votes:   4
-Highest expected: 4
-Total votes:      4
-Quorum:           2
-Flags:            Quorate
-
-Membership information
-~~~~~~~~~~~~~~~~~~~~~~
-    Nodeid      Votes Name
-0x00000001          1 192.168.15.91 (local)
-0x00000002          1 192.168.15.92
-0x00000003          1 192.168.15.93
-0x00000004          1 192.168.15.94
-----
-
-IMPORTANT: at this point you must power off the node to be removed and
-make sure that it will not power on again (in the network) as it
-is.
+Log in to a *different* cluster node (not hp4), and issue a `pvecm nodes`
+command to identify the node ID to remove:
 
 ----
 hp1# pvecm nodes
@@ -242,8 +210,18 @@ Membership information
          4          1 hp4
 ----
 
-Log in to one remaining node via ssh. Issue the delete command (here
-deleting node `hp4`):
+
+At this point you must power off hp4 and
+make sure that it will not power on again (in the network) as it
+is.
+
+IMPORTANT: As said above, it is critical to power off the node
+*before* removal, and make sure that it will *never* power on again
+(in the existing cluster network) as it is.
+If you power on the node as it is, your cluster will be screwed up and
+it could be difficult to restore a clean cluster state.
+
+After powering off the node hp4, we can safely remove it from the cluster.
 
  hp1# pvecm delnode hp4
 
@@ -279,13 +257,6 @@ Membership information
 0x00000003          1 192.168.15.92
 ----
 
-IMPORTANT: as said above, it is very important to power off the node
-*before* removal, and make sure that it will *never* power on again
-(in the existing cluster network) as it is.
-
-If you power on the node as it is, your cluster will be screwed up and
-it could be difficult to restore a clean cluster state.
-
 If, for whatever reason, you want that this server joins the same
 cluster again, you have to
 
@@ -897,9 +868,9 @@ Migration Type
 The migration type defines if the migration data should be sent over a
 encrypted (`secure`) channel or an unencrypted (`insecure`) one.
 Setting the migration type to insecure means that the RAM content of a
-Virtual Guest gets also transfered unencrypted, which can lead to
-information disclosure of critical data from inside the guest for
-example passwords or encryption keys.
+virtual guest gets also transfered unencrypted, which can lead to
+information disclosure of critical data from inside the guest (for
+example passwords or encryption keys).
 
 Therefore, we strongly recommend using the secure channel if you do
 not have full control over the network and can not guarantee that no
@@ -911,36 +882,39 @@ always sends the storage content over a secure channel.
 Encryption requires a lot of computing power, so this setting is often
 changed to "unsafe" to achieve better performance. The impact on
 modern systems is lower because they implement AES encryption in
-hardware. But the influence is greater on fast networks, where you can
-transfer 10Gbps or more.
+hardware. The performance impact is particularly evident in fast
+networks where you can transfer 10 Gbps or more.
 
 
 Migration Network
 ~~~~~~~~~~~~~~~~~
 
-By default {pve} uses the network where the cluster communication happens
-for sending the migration traffic. This is may be suboptimal, for one the
-sensible cluster traffic can be disturbed and on the other hand it may not
-have the best bandwidth available from all network interfaces on the node.
+By default, {pve} uses the network in which cluster communication
+takes place to send the migration traffic. This is not optimal because
+sensitive cluster traffic can be disrupted and this network may not
+have the best bandwidth available on the node.
 
-Setting the migration network parameter allows using a dedicated network for
-sending all the migration traffic when migrating a guest system. This
-includes the traffic for offline storage migrations.
+Setting the migration network parameter allows the use of a dedicated
+network for the entire migration traffic. In addition to the memory,
+this also affects the storage traffic for offline migrations.
+
+The migration network is set as a network in the CIDR notation. This
+has the advantage that you do not have to set individual IP addresses
+for each node.  {pve} can determine the real address on the
+destination node from the network specified in the CIDR form.  To
+enable this, the network must be specified so that each node has one,
+but only one IP in the respective network.
 
-The migration network is represented as a network in 'CIDR' notation. This
-has the advantage that you do not need to set a IP for each node, {pve} is
-able to figure out the real address from the given CIDR denoted network and
-the networks configured on the target node.
-To let this work the network must be specific enough, i.e. each node must
-have one and only one IP configured in the given network.
 
 Example
 ^^^^^^^
 
-Lets assume that we have a three node setup with three networks, one for the
-public communication with the Internet, one for the cluster communication
-and one very fast one, which we want to use as an dedicated migration
-network. A network configuration for such a setup could look like:
+We assume that we have a three-node setup with three separate
+networks. One for public communication with the Internet, one for
+cluster communication and a very fast one, which we want to use as a
+dedicated network for migration.
+
+A network configuration for such a setup might look as follows:
 
 ----
 iface eth0 inet manual
@@ -966,25 +940,28 @@ auto eth2
 iface eth2 inet static
     address  10.1.2.1
     netmask  255.255.255.0
-
-# [...]
 ----
 
-Here we want to use the 10.1.2.1/24 network as migration network.
-For a single migration you can achieve this by using the 'migration_network'
-parameter:
+Here, we will use the network 10.1.2.0/24 as a migration network. For
+a single migration, you can do this using the `migration_network`
+parameter of the command line tool:
+
 ----
-# qm migrate 106 tre --online --migration_network 10.1.2.1/24
+# qm migrate 106 tre --online --migration_network 10.1.2.0/24
 ----
 
-To set this up as default network for all migrations cluster wide you can use
-the migration property in '/etc/pve/datacenter.cfg':
+To configure this as the default network for all migrations in the
+cluster, set the `migration` property of the `/etc/pve/datacenter.cfg`
+file:
+
 ----
-# [...]
-migration: secure,network=10.1.2.1/24
+# use dedicated migration network
+migration: secure,network=10.1.2.0/24
 ----
 
-Note that the migration type must be always set if the network gets set.
+NOTE: The migration type must always be set when the migration network
+gets set in `/etc/pve/datacenter.cfg`.
+
 
 ifdef::manvolnum[]
 include::pve-copyright.adoc[]