]> git.proxmox.com Git - pve-ha-manager.git/commitdiff
manager: some code style cleanups
authorThomas Lamprecht <t.lamprecht@proxmox.com>
Mon, 20 Mar 2023 08:47:43 +0000 (09:47 +0100)
committerThomas Lamprecht <t.lamprecht@proxmox.com>
Mon, 20 Mar 2023 10:09:01 +0000 (11:09 +0100)
Signed-off-by: Thomas Lamprecht <t.lamprecht@proxmox.com>
src/PVE/HA/Manager.pm
src/test/test-relocate-policy1/log.expect
src/test/test-resource-failure6/log.expect

index d325f06848ec3b6ca4a15c85b092c53aeabafcbe..538353b8ab1e6b4c55ed471a53e8944a79ba5ebf 100644 (file)
@@ -2,6 +2,7 @@ package PVE::HA::Manager;
 
 use strict;
 use warnings;
+
 use Digest::MD5 qw(md5_base64);
 
 use PVE::Tools;
@@ -325,8 +326,7 @@ my $change_service_state = sub {
     $sd->{uid} = compute_new_uuid($new_state);
 
     $text_state = "  ($text_state)" if $text_state;
-    $haenv->log('info', "service '$sid': state changed from '${old_state}'" .
-               " to '${new_state}'$text_state");
+    $haenv->log('info', "service '$sid': state changed from '${old_state}' to '${new_state}'$text_state");
 };
 
 # clean up a possible bad state from a recovered service to allow its start
@@ -751,8 +751,7 @@ sub next_state_started {
        if ($ns->get_node_state($sd->{node}) ne 'maintenance') {
            return;
        } else {
-           # save current node as fallback for when it comes out of
-           # maintenance
+           # save current node as fallback for when it comes out of maintenance
            $sd->{maintenance_node} = $sd->{node};
        }
     }
@@ -838,8 +837,7 @@ sub next_state_started {
                } else {
                    $self->record_service_failed_on_node($sid, $sd->{node});
 
-                   $haenv->log('err', "service '$sid' got unrecoverable error" .
-                               " (exit code $ec))");
+                   $haenv->log('err', "service '$sid' got unrecoverable error (exit code $ec))");
                    # we have no save way out (yet) for other errors
                    &$change_service_state($self, $sid, 'error');
                    return;
@@ -862,7 +860,10 @@ sub next_state_started {
 
                if (defined(my $fallback = $sd->{maintenance_node})) {
                    if ($node eq $fallback) {
-                       $haenv->log('info', "moving service '$sid' back to '$fallback', node came back from maintenance.");
+                       $haenv->log(
+                           'info',
+                           "moving service '$sid' back to '$fallback', node came back from maintenance.",
+                       );
                        delete $sd->{maintenance_node};
                    } elsif ($sd->{node} ne $fallback) {
                        $haenv->log('info', "dropping maintenance fallback node '$fallback' for '$sid'");
@@ -879,9 +880,12 @@ sub next_state_started {
                }
            } else {
                if ($try_next && !defined($node)) {
-                   $haenv->log('warning', "Start Error Recovery: Tried all available " .
-                               " nodes for service '$sid', retry start on current node. " .
-                               "Tried nodes: " . join(', ', @{$sd->{failed_nodes}}));
+                   $haenv->log(
+                       'warning',
+                       "Start Error Recovery: Tried all available nodes for service '$sid', retry"
+                           ." start on current node. Tried nodes: " . join(', ', @{$sd->{failed_nodes}},
+                       )
+                   );
                }
                # ensure service get started again if it went unexpected down
                # but ensure also no LRM result gets lost
index 0975ffdb8612cb55ebc62d7e008d2e9579829054..48db189d0c9818ba0f5b489d35480aacc383e712 100644 (file)
@@ -57,7 +57,7 @@ info    201    node1/lrm: starting service fa:130
 warn    201    node1/lrm: unable to start service fa:130
 err     201    node1/lrm: unable to start service fa:130 on local node after 0 retries
 warn    220    node1/crm: starting service fa:130 on node 'node1' failed, relocating service.
-warn    220    node1/crm: Start Error Recovery: Tried all available  nodes for service 'fa:130', retry start on current node. Tried nodes: node3, node2, node1
+warn    220    node1/crm: Start Error Recovery: Tried all available nodes for service 'fa:130', retry start on current node. Tried nodes: node3, node2, node1
 info    221    node1/lrm: starting service fa:130
 info    221    node1/lrm: service status fa:130 started
 info    240    node1/crm: relocation policy successful for 'fa:130' on node 'node1', failed nodes: node3, node2, node1
index 35a13b654e7c2267a9d7ba735c4c1de060ff4184..30d3c9e5e897ac582793823a6be09d7fb86de583 100644 (file)
@@ -48,7 +48,7 @@ info    205    node3/lrm: starting service fa:130
 warn    205    node3/lrm: unable to start service fa:130
 err     205    node3/lrm: unable to start service fa:130 on local node after 0 retries
 warn    220    node1/crm: starting service fa:130 on node 'node3' failed, relocating service.
-warn    220    node1/crm: Start Error Recovery: Tried all available  nodes for service 'fa:130', retry start on current node. Tried nodes: node2, node1, node3
+warn    220    node1/crm: Start Error Recovery: Tried all available nodes for service 'fa:130', retry start on current node. Tried nodes: node2, node1, node3
 info    225    node3/lrm: starting service fa:130
 info    225    node3/lrm: service status fa:130 started
 info    240    node1/crm: relocation policy successful for 'fa:130' on node 'node3', failed nodes: node2, node1, node3