]> git.proxmox.com Git - qemu-server.git/blobdiff - PVE/QemuMigrate.pm
remove registering 'pve-snapshot-name', now in common
[qemu-server.git] / PVE / QemuMigrate.pm
index 8c6fa03c3ab5f48f86d3b88126b5d31d535d0707..ee605d8a27c0036d35d91fe0e92e5898583cede6 100644 (file)
@@ -234,7 +234,7 @@ sub prepare {
        my ($sid, $volname) = PVE::Storage::parse_volume_id($volid, 1);
 
        # check if storage is available on both nodes
-       my $targetsid = $self->{opts}->{targetstorage} ? $self->{opts}->{targetstorage} : $sid;
+       my $targetsid = $self->{opts}->{targetstorage} // $sid;
 
        my $scfg = PVE::Storage::storage_check_node($self->{storecfg}, $sid);
        PVE::Storage::storage_check_node($self->{storecfg}, $targetsid, $self->{node});
@@ -269,7 +269,7 @@ sub sync_disks {
     # local volumes which have been copied
     $self->{volumes} = [];
 
-    my $res = [];
+    my $override_targetsid = $self->{opts}->{targetstorage};
 
     eval {
 
@@ -303,7 +303,7 @@ sub sync_disks {
 
            next if @{$dl->{$storeid}} == 0;
 
-           my $targetsid = $self->{opts}->{targetstorage} ? $self->{opts}->{targetstorage} : $storeid;
+           my $targetsid = $override_targetsid // $storeid;
 
            # check if storage is available on target node
            PVE::Storage::storage_check_node($self->{storecfg}, $targetsid, $self->{node});
@@ -320,6 +320,7 @@ sub sync_disks {
            my ($volid, $attr) = @_;
 
            if ($volid =~ m|^/|) {
+               return if $attr->{shared};
                $local_volumes->{$volid}->{ref} = 'config';
                die "local file/device\n";
            }
@@ -341,7 +342,7 @@ sub sync_disks {
 
            my ($sid, $volname) = PVE::Storage::parse_volume_id($volid);
 
-           my $targetsid = $self->{opts}->{targetstorage} ? $self->{opts}->{targetstorage} : $sid;
+           my $targetsid = $override_targetsid // $sid;
            # check if storage is available on both nodes
            my $scfg = PVE::Storage::storage_check_node($self->{storecfg}, $sid);
            PVE::Storage::storage_check_node($self->{storecfg}, $targetsid, $self->{node});
@@ -405,10 +406,6 @@ sub sync_disks {
            $self->log('warn', "$err");
        }
 
-       if ($self->{running} && !$sharedvm && !$self->{opts}->{targetstorage}) {
-           $self->{opts}->{targetstorage} = 1; #use same sid for remote local
-       }
-
        if ($abort) {
            die "can't migrate VM - check log\n";
        }
@@ -447,14 +444,15 @@ sub sync_disks {
 
        foreach my $volid (keys %$local_volumes) {
            my ($sid, $volname) = PVE::Storage::parse_volume_id($volid);
-           if ($self->{running} && $self->{opts}->{targetstorage} && $local_volumes->{$volid}->{ref} eq 'config') {
+           my $targetsid = $override_targetsid // $sid;
+           if ($self->{running} && $local_volumes->{$volid}->{ref} eq 'config') {
                push @{$self->{online_local_volumes}}, $volid;
            } else {
                next if $rep_volumes->{$volid};
                push @{$self->{volumes}}, $volid;
                my $insecure = $self->{opts}->{migration_type} eq 'insecure';
                my $with_snapshots = $local_volumes->{$volid}->{snapshots};
-               PVE::Storage::storage_migrate($self->{storecfg}, $volid, $self->{ssh_info}, $sid,
+               PVE::Storage::storage_migrate($self->{storecfg}, $volid, $self->{ssh_info}, $targetsid,
                                              undef, undef, undef, undef, $insecure, $with_snapshots);
            }
        }
@@ -555,8 +553,8 @@ sub phase2 {
        push @$cmd, '--machine', $self->{forcemachine};
     }
 
-    if ($self->{opts}->{targetstorage}) {
-       push @$cmd, '--targetstorage', $self->{opts}->{targetstorage};
+    if ($self->{online_local_volumes}) {
+       push @$cmd, '--targetstorage', ($self->{opts}->{targetstorage} // '1');
     }
 
     my $spice_port;
@@ -581,10 +579,10 @@ sub phase2 {
            $rport = int($1);
            $ruri = "tcp:$raddr:$rport";
        }
-        elsif ($line =~ m/^spice listens on port (\d+)$/) {
+       elsif ($line =~ m/^spice listens on port (\d+)$/) {
            $spice_port = int($1);
        }
-        elsif ($line =~ m/^storage migration listens on nbd:(localhost|[\d\.]+|\[[\d\.:a-fA-F]+\]):(\d+):exportname=(\S+) volume:(\S+)$/) {
+       elsif ($line =~ m/^storage migration listens on nbd:(localhost|[\d\.]+|\[[\d\.:a-fA-F]+\]):(\d+):exportname=(\S+) volume:(\S+)$/) {
            my $volid = $4;
            my $nbd_uri = "nbd:$1:$2:exportname=$3";
            my $targetdrive = $3;
@@ -601,8 +599,9 @@ sub phase2 {
 
     die "unable to detect remote migration address\n" if !$raddr;
 
+    $self->log('info', "start remote tunnel");
+
     if ($migration_type eq 'secure') {
-       $self->log('info', "start remote tunnel");
 
        if ($ruri =~ /^unix:/) {
            unlink $raddr;
@@ -635,11 +634,14 @@ sub phase2 {
        } else {
            die "unsupported protocol in migration URI: $ruri\n";
        }
+    } else {
+       #fork tunnel for insecure migration, to send faster commands like resume
+       $self->{tunnel} = $self->fork_tunnel();
     }
 
     my $start = time();
 
-    if ($self->{opts}->{targetstorage} && defined($self->{online_local_volumes})) {
+    if (defined($self->{online_local_volumes})) {
        $self->{storage_migration} = 1;
        $self->{storage_migration_jobs} = {};
        $self->log('info', "starting storage migration");
@@ -648,7 +650,7 @@ sub phase2 {
            if (scalar(keys %{$self->{target_drive}}) != scalar @{$self->{online_local_volumes}});
        foreach my $drive (keys %{$self->{target_drive}}){
            my $nbd_uri = $self->{target_drive}->{$drive}->{nbd_uri};
-           $self->log('info', "$drive: start migration to to $nbd_uri");
+           $self->log('info', "$drive: start migration to $nbd_uri");
            PVE::QemuServer::qemu_drive_mirror($vmid, $drive, $nbd_uri, $vmid, undef, $self->{storage_migration_jobs}, 1);
        }
     }
@@ -689,6 +691,8 @@ sub phase2 {
     # set cachesize to 10% of the total memory
     my $memory =  $conf->{memory} || $defaults->{memory};
     my $cachesize = int($memory * 1048576 / 10);
+    $cachesize = round_powerof2($cachesize);
+
     $self->log('info', "set cachesize: $cachesize");
     eval {
        PVE::QemuServer::vm_mon_cmd_nocheck($vmid, "migrate-set-cache-size", value => int($cachesize));
@@ -702,7 +706,7 @@ sub phase2 {
        my (undef, $proxyticket) = PVE::AccessControl::assemble_spice_ticket($authuser, $vmid, $self->{node});
 
        my $filename = "/etc/pve/nodes/$self->{node}/pve-ssl.pem";
-        my $subject =  PVE::AccessControl::read_x509_subject_spice($filename);
+       my $subject =  PVE::AccessControl::read_x509_subject_spice($filename);
 
        $self->log('info', "spice client_migrate_info");
 
@@ -961,6 +965,11 @@ sub phase3_cleanup {
                $self->{errors} = 1;
            }
        }
+
+       if ($self->{storage_migration} && PVE::QemuServer::parse_guest_agent($conf)->{fstrim_cloned_disks} && $self->{running}) {
+           my $cmd = [@{$self->{rem_ssh}}, 'qm', 'guest', 'cmd', $vmid, 'fstrim'];
+           eval{ PVE::Tools::run_command($cmd, outfunc => sub {}, errfunc => sub {}) };
+       }
     }
 
     # close tunnel on successful migration, on error phase2_cleanup closed it
@@ -982,7 +991,7 @@ sub phase3_cleanup {
                last if $timer > 50;
                $timer ++;
                usleep(200000);
-           }
+           }
        }
     };
 
@@ -1029,4 +1038,9 @@ sub final_cleanup {
     # nothing to do
 }
 
+sub round_powerof2 {
+    return 1 if $_[0] < 2;
+    return 2 << int(log($_[0]-1)/log(2));
+}
+
 1;