]> git.proxmox.com Git - qemu-server.git/blobdiff - PVE/API2/Qemu.pm
copy_vm: add name and description option
[qemu-server.git] / PVE / API2 / Qemu.pm
index b7ef2190ddc5ceae99b07b20f8295f7fc7f541fb..fde6eb9c03195c23ff6405e97017881b52cafdef 100644 (file)
@@ -4,7 +4,7 @@ use strict;
 use warnings;
 use Cwd 'abs_path';
 
-use PVE::Cluster;
+use PVE::Cluster qw (cfs_read_file cfs_write_file);;
 use PVE::SafeSyslog;
 use PVE::Tools qw(extract_param);
 use PVE::Exception qw(raise raise_param_exc);
@@ -16,6 +16,7 @@ use PVE::QemuMigrate;
 use PVE::RPCEnvironment;
 use PVE::AccessControl;
 use PVE::INotify;
+use PVE::Network;
 
 use Data::Dumper; # fixme: remove
 
@@ -33,30 +34,9 @@ my $resolve_cdrom_alias = sub {
     }
 };
 
-my $check_volume_access = sub {
-    my ($rpcenv, $authuser, $storecfg, $vmid, $volid, $pool) = @_;
-
-    my $path;
-    if (my ($sid, $volname) = PVE::Storage::parse_volume_id($volid, 1)) {
-       my ($ownervm, $vtype);
-       ($path, $ownervm, $vtype) = PVE::Storage::path($storecfg, $volid);
-       if ($vtype eq 'iso' || $vtype eq 'vztmpl') {
-           # we simply allow access 
-       } elsif (!$ownervm || ($ownervm != $vmid)) {
-           # allow if we are Datastore administrator
-           $rpcenv->check_storage_perm($authuser, $vmid, $pool, $sid, [ 'Datastore.Allocate' ]);
-       }
-    } else {
-       die "Only root can pass arbitrary filesystem paths."
-           if $authuser ne 'root@pam';
-
-       $path = abs_path($volid);
-    }
-    return $path;
-};
 
 my $check_storage_access = sub {
-   my ($rpcenv, $authuser, $storecfg, $vmid, $pool, $settings, $default_storage) = @_;
+   my ($rpcenv, $authuser, $storecfg, $vmid, $settings, $default_storage) = @_;
 
    PVE::QemuServer::foreach_drive($settings, sub {
        my ($ds, $drive) = @_;
@@ -67,13 +47,41 @@ my $check_storage_access = sub {
 
        if (!$volid || $volid eq 'none') {
            # nothing to check
+       } elsif ($isCDROM && ($volid eq 'cdrom')) {
+           $rpcenv->check($authuser, "/", ['Sys.Console']);
        } elsif (!$isCDROM && ($volid =~ m/^(([^:\s]+):)?(\d+(\.\d+)?)$/)) {
            my ($storeid, $size) = ($2 || $default_storage, $3);
            die "no storage ID specified (and no default storage)\n" if !$storeid;
-           $rpcenv->check_storage_perm($authuser, $vmid, $pool, $storeid, [ 'Datastore.AllocateSpace' ]);
+           $rpcenv->check($authuser, "/storage/$storeid", ['Datastore.AllocateSpace']);
+       } else {
+           $rpcenv->check_volume_access($authuser, $storecfg, $vmid, $volid);
+       }
+    });
+};
+
+my $check_storage_access_copy = sub {
+   my ($rpcenv, $authuser, $storecfg, $conf, $storage) = @_;
+
+   PVE::QemuServer::foreach_drive($conf, sub {
+       my ($ds, $drive) = @_;
+
+       my $isCDROM = PVE::QemuServer::drive_is_cdrom($drive);
+
+       my $volid = $drive->{file};
+
+       return if !$volid || $volid eq 'none';
+
+       if ($isCDROM) {
+           if ($volid eq 'cdrom') {
+               $rpcenv->check($authuser, "/", ['Sys.Console']);
+           } else {
+               # we simply allow access 
+           }
        } else {
-           my $path = &$check_volume_access($rpcenv, $authuser, $storecfg, $vmid, $volid, $pool);
-           die "image '$path' does not exists\n" if (!(-f $path || -b $path));
+           my ($sid, $volname) = PVE::Storage::parse_volume_id($volid, 1);
+           die "unable to copy arbitrary files\n" if !$sid;
+           $sid = $storage if $storage;
+           $rpcenv->check($authuser, "/storage/$sid", ['Datastore.AllocateSpace']);
        }
     });
 };
@@ -91,8 +99,9 @@ my $create_disks = sub {
 
        my $volid = $disk->{file};
 
-       if (!$volid || $volid eq 'none') {
-           $res->{$ds} = $settings->{$ds};
+       if (!$volid || $volid eq 'none' || $volid eq 'cdrom') {
+           delete $disk->{size};
+           $res->{$ds} = PVE::QemuServer::print_drive($vmid, $disk);
        } elsif ($volid =~ m/^(([^:\s]+):)?(\d+(\.\d+)?)$/) {
            my ($storeid, $size) = ($2 || $default_storage, $3);
            die "no storage ID specified (and no default storage)\n" if !$storeid;
@@ -101,13 +110,36 @@ my $create_disks = sub {
            my $volid = PVE::Storage::vdisk_alloc($storecfg, $storeid, $vmid,
                                                  $fmt, undef, $size*1024*1024);
            $disk->{file} = $volid;
+           $disk->{size} = $size*1024*1024*1024;
            push @$vollist, $volid;
            delete $disk->{format}; # no longer needed
            $res->{$ds} = PVE::QemuServer::print_drive($vmid, $disk);
        } else {
-           my $path = &$check_volume_access($rpcenv, $authuser, $storecfg, $vmid, $volid, $pool);
-           die "image '$path' does not exists\n" if (!(-f $path || -b $path));
-           $res->{$ds} = $settings->{$ds};
+
+           my $path = $rpcenv->check_volume_access($authuser, $storecfg, $vmid, $volid);
+           
+           my ($storeid, $volname) = PVE::Storage::parse_volume_id($volid, 1);
+
+           my $foundvolid = undef;
+
+           if ($storeid) {
+               PVE::Storage::activate_volumes($storecfg, [ $volid ]);
+               my $dl = PVE::Storage::vdisk_list($storecfg, $storeid, undef);
+
+               PVE::Storage::foreach_volid($dl, sub {
+                   my ($volumeid) = @_;
+                   if($volumeid eq $volid) {
+                       $foundvolid = 1;
+                       return;
+                   }
+               });
+           }
+       
+           die "image '$path' does not exists\n" if (!(-f $path || -b $path || $foundvolid));
+
+           my ($size) = PVE::Storage::volume_size_info($storecfg, $volid, 1);
+           $disk->{size} = $size;
+           $res->{$ds} = PVE::QemuServer::print_drive($vmid, $disk);
        }
     });
 
@@ -132,7 +164,7 @@ my $create_disks = sub {
 my $check_vm_modify_config_perm = sub {
     my ($rpcenv, $authuser, $vmid, $pool, $key_list) = @_;
 
-    return 1 if $authuser ne 'root@pam';
+    return 1 if $authuser eq 'root@pam';
 
     foreach my $opt (@$key_list) {
        # disk checks need to be done somewhere else
@@ -140,11 +172,11 @@ my $check_vm_modify_config_perm = sub {
 
        if ($opt eq 'sockets' || $opt eq 'cores' ||
            $opt eq 'cpu' || $opt eq 'smp' || 
-           $opt eq 'cpuimit' || $opt eq 'cpuunits') {
+           $opt eq 'cpulimit' || $opt eq 'cpuunits') {
            $rpcenv->check_vm_perm($authuser, $vmid, $pool, ['VM.Config.CPU']);
        } elsif ($opt eq 'boot' || $opt eq 'bootdisk') {
            $rpcenv->check_vm_perm($authuser, $vmid, $pool, ['VM.Config.Disk']);
-       } elsif ($opt eq 'memory' || $opt eq 'balloon') {
+       } elsif ($opt eq 'memory' || $opt eq 'balloon' || $opt eq 'shares') {
            $rpcenv->check_vm_perm($authuser, $vmid, $pool, ['VM.Config.Memory']);
        } elsif ($opt eq 'args' || $opt eq 'lock') {
            die "only root can set '$opt' config\n";
@@ -287,16 +319,15 @@ __PACKAGE__->register_method({
 
        if (defined($pool)) {
            $rpcenv->check_pool_exist($pool);
-           $rpcenv->check_perm_modify($authuser, "/pool/$pool");
        } 
 
-       $rpcenv->check_storage_perm($authuser, $vmid, $pool, $storage, [ 'Datastore.AllocateSpace' ])
+       $rpcenv->check($authuser, "/storage/$storage", ['Datastore.AllocateSpace'])
            if defined($storage);
 
        if (!$archive) {
            &$resolve_cdrom_alias($param);
 
-           &$check_storage_access($rpcenv, $authuser, $storecfg, $vmid, $pool, $param, $storage);
+           &$check_storage_access($rpcenv, $authuser, $storecfg, $vmid, $param, $storage);
 
            &$check_vm_modify_config_perm($rpcenv, $authuser, $vmid, $pool, [ keys %$param]);
 
@@ -317,25 +348,36 @@ __PACKAGE__->register_method({
 
            if ($archive eq '-') {
                die "pipe requires cli environment\n"
-                   && $rpcenv->{type} ne 'cli';
+                   if $rpcenv->{type} ne 'cli';
            } else {
-               my $path = &$check_volume_access($rpcenv, $authuser, $storecfg, $vmid, $archive, $pool);
+               my $path = $rpcenv->check_volume_access($authuser, $storecfg, $vmid, $archive);
+
+               PVE::Storage::activate_volumes($storecfg, [ $archive ])
+                   if PVE::Storage::parse_volume_id ($archive, 1);
+
                die "can't find archive file '$archive'\n" if !($path && -f $path);
                $archive = $path;
            }
        }
 
+       my $addVMtoPoolFn = sub {                      
+           my $usercfg = cfs_read_file("user.cfg");
+           if (my $data = $usercfg->{pools}->{$pool}) {
+               $data->{vms}->{$vmid} = 1;
+               $usercfg->{vms}->{$vmid} = $pool;
+               cfs_write_file("user.cfg", $usercfg);
+           }
+       };
+
        my $restorefn = sub {
 
+           # fixme: this test does not work if VM exists on other node!
            if (-f $filename) {
                die "unable to restore vm $vmid: config file already exists\n"
                    if !$force;
 
                die "unable to restore vm $vmid: vm is running\n"
                    if PVE::QemuServer::check_running($vmid);
-
-               # destroy existing data - keep empty config
-               PVE::QemuServer::destroy_vm($storecfg, $vmid, 1);
            }
 
            my $realcmd = sub {
@@ -343,6 +385,8 @@ __PACKAGE__->register_method({
                    storage => $storage,
                    pool => $pool,
                    unique => $unique });
+
+               PVE::AccessControl::lock_user_config($addVMtoPoolFn, "can't add VM to pool") if $pool;
            };
 
            return $rpcenv->fork_worker('qmrestore', $vmid, $authuser, $realcmd);
@@ -350,7 +394,7 @@ __PACKAGE__->register_method({
 
        my $createfn = sub {
 
-           # second test (after locking test is accurate)
+           # test after locking
            die "unable to create vm $vmid: config file already exists\n"
                if -f $filename;
 
@@ -378,7 +422,8 @@ __PACKAGE__->register_method({
                        $conf->{bootdisk} = $firstdisk;
                    }
 
-                   PVE::QemuServer::update_conf_nolock($vmid, $conf);
+                   PVE::QemuServer::update_config_nolock($vmid, $conf);
+
                };
                my $err = $@;
 
@@ -389,12 +434,14 @@ __PACKAGE__->register_method({
                    }
                    die "create failed - $err";
                }
+
+               PVE::AccessControl::lock_user_config($addVMtoPoolFn, "can't add VM to pool") if $pool;
            };
 
            return $rpcenv->fork_worker('qmcreate', $vmid, $authuser, $realcmd);
        };
 
-       return PVE::QemuServer::lock_config($vmid, $archive ? $restorefn : $createfn);
+       return PVE::QemuServer::lock_config_full($vmid, 1, $archive ? $restorefn : $createfn);
     }});
 
 __PACKAGE__->register_method({
@@ -432,9 +479,11 @@ __PACKAGE__->register_method({
            { subdir => 'unlink' },
            { subdir => 'vncproxy' },
            { subdir => 'migrate' },
+           { subdir => 'resize' },
            { subdir => 'rrd' },
            { subdir => 'rrddata' },
            { subdir => 'monitor' },
+           { subdir => 'snapshot' },
            ];
 
        return $res;
@@ -558,6 +607,8 @@ __PACKAGE__->register_method({
 
        my $conf = PVE::QemuServer::load_config($param->{vmid});
 
+       delete $conf->{snapshots};
+
        return $conf;
     }});
 
@@ -599,13 +650,14 @@ my $delete_drive = sub {
        if (&$vm_is_volid_owner($storecfg, $vmid, $volid)) {
            if ($force || $key =~ m/^unused/) {
                eval { PVE::Storage::vdisk_free($storecfg, $volid); };
-               warn $@ if $@;
+               die $@ if $@;
            } else {
                PVE::QemuServer::add_unused_volume($conf, $volid, $vmid);
            }
-           delete $conf->{$key};
        }
     }
+
+    delete $conf->{$key};
 };
 
 my $vmconfig_delete_option = sub {
@@ -620,11 +672,24 @@ my $vmconfig_delete_option = sub {
 
        my $drive = PVE::QemuServer::parse_drive($opt, $conf->{$opt});
        if (my $sid = &$test_deallocate_drive($storecfg, $vmid, $opt, $drive, $force)) {  
-           $rpcenv->check_storage_perm($authuser, $vmid, undef, $sid, [ 'Datastore.Allocate' ]);
+           $rpcenv->check($authuser, "/storage/$sid", ['Datastore.Allocate']);
        }
     }
-               
-    die "error hot-unplug $opt" if !PVE::QemuServer::vm_deviceunplug($vmid, $conf, $opt);
+
+    my $unplugwarning = "";
+    if($conf->{ostype} && $conf->{ostype} eq 'l26'){
+       $unplugwarning = "<br>verify that you have acpiphp && pci_hotplug modules loaded in your guest VM";
+    }elsif($conf->{ostype} && $conf->{ostype} eq 'l24'){
+       $unplugwarning = "<br>kernel 2.4 don't support hotplug, please disable hotplug in options";
+    }elsif(!$conf->{ostype} || ($conf->{ostype} && $conf->{ostype} eq 'other')){
+       $unplugwarning = "<br>verify that your guest support acpi hotplug";
+    }
+
+    if($opt eq 'tablet'){
+       PVE::QemuServer::vm_deviceplug(undef, $conf, $vmid, $opt);
+    }else{
+        die "error hot-unplug $opt $unplugwarning" if !PVE::QemuServer::vm_deviceunplug($vmid, $conf, $opt);
+    }
 
     if ($isDisk) {
        my $drive = PVE::QemuServer::parse_drive($opt, $conf->{$opt});
@@ -636,6 +701,16 @@ my $vmconfig_delete_option = sub {
     PVE::QemuServer::update_config_nolock($vmid, $conf, 1);
 };
 
+my $safe_num_ne = sub {
+    my ($a, $b) = @_;
+
+    return 0 if !defined($a) && !defined($b); 
+    return 1 if !defined($a); 
+    return 1 if !defined($b); 
+
+    return $a != $b;
+};
+
 my $vmconfig_update_disk = sub {
     my ($rpcenv, $authuser, $conf, $storecfg, $vmid, $opt, $value, $force) = @_;
 
@@ -661,6 +736,18 @@ my $vmconfig_update_disk = sub {
                &$vmconfig_delete_option($rpcenv, $authuser, $conf, $storecfg, $vmid, $opt, $force);
                $conf = PVE::QemuServer::load_config($vmid); # update/reload
            }
+
+            if(&$safe_num_ne($drive->{mbps}, $old_drive->{mbps}) ||
+               &$safe_num_ne($drive->{mbps_rd}, $old_drive->{mbps_rd}) ||
+               &$safe_num_ne($drive->{mbps_wr}, $old_drive->{mbps_wr}) ||
+               &$safe_num_ne($drive->{iops}, $old_drive->{iops}) ||
+               &$safe_num_ne($drive->{iops_rd}, $old_drive->{iops_rd}) ||
+               &$safe_num_ne($drive->{iops_wr}, $old_drive->{iops_wr})) {
+               PVE::QemuServer::qemu_block_set_io_throttle($vmid,"drive-$opt", $drive->{mbps}*1024*1024, 
+                                                          $drive->{mbps_rd}*1024*1024, $drive->{mbps_wr}*1024*1024, 
+                                                          $drive->{iops}, $drive->{iops_rd}, $drive->{iops_wr}) 
+                  if !PVE::QemuServer::drive_is_cdrom($drive);
+            }
        }
     }
 
@@ -674,11 +761,11 @@ my $vmconfig_update_disk = sub {
 
        if (PVE::QemuServer::check_running($vmid)) {
            if ($drive->{file} eq 'none') {
-               PVE::QemuServer::vm_monitor_command($vmid, "eject -f drive-$opt", 0);
+               PVE::QemuServer::vm_mon_cmd($vmid, "eject",force => JSON::true,device => "drive-$opt");
            } else {
                my $path = PVE::QemuServer::get_iso_path($storecfg, $vmid, $drive->{file});
-               PVE::QemuServer::vm_monitor_command($vmid, "eject -f drive-$opt", 0); #force eject if locked
-               PVE::QemuServer::vm_monitor_command($vmid, "change drive-$opt \"$path\"", 0) if $path;
+               PVE::QemuServer::vm_mon_cmd($vmid, "eject",force => JSON::true,device => "drive-$opt"); #force eject if locked
+               PVE::QemuServer::vm_mon_cmd($vmid, "change",device => "drive-$opt",target => "$path") if $path;
            }
        }
 
@@ -691,11 +778,34 @@ my $vmconfig_update_disk = sub {
 my $vmconfig_update_net = sub {
     my ($rpcenv, $authuser, $conf, $storecfg, $vmid, $opt, $value) = @_;
 
-    if ($conf->{$opt}) {
-       #if online update, then unplug first
-       die "error hot-unplug $opt for update" if !PVE::QemuServer::vm_deviceunplug($vmid, $conf, $opt);
-    }
+    if ($conf->{$opt} && PVE::QemuServer::check_running($vmid)) {
+       my $oldnet = PVE::QemuServer::parse_net($conf->{$opt});
+       my $newnet = PVE::QemuServer::parse_net($value);
+
+       if($oldnet->{model} ne $newnet->{model}){
+           #if model change, we try to hot-unplug
+            die "error hot-unplug $opt for update" if !PVE::QemuServer::vm_deviceunplug($vmid, $conf, $opt);
+       }else{
+               
+           if($newnet->{bridge} && $oldnet->{bridge}){
+               my $iface = "tap".$vmid."i".$1 if $opt =~ m/net(\d+)/;
 
+               if($newnet->{rate} ne $oldnet->{rate}){
+                   PVE::Network::tap_rate_limit($iface, $newnet->{rate});
+               }
+
+               if(($newnet->{bridge} ne $oldnet->{bridge}) || ($newnet->{tag} ne $oldnet->{tag})){
+                   eval{PVE::Network::tap_unplug($iface, $oldnet->{bridge}, $oldnet->{tag});};
+                   PVE::Network::tap_plug($iface, $newnet->{bridge}, $newnet->{tag});
+               }
+
+           }else{
+               #if bridge/nat mode change, we try to hot-unplug
+               die "error hot-unplug $opt for update" if !PVE::QemuServer::vm_deviceunplug($vmid, $conf, $opt);
+           }
+       }
+       
+    }
     $conf->{$opt} = $value;
     PVE::QemuServer::update_config_nolock($vmid, $conf, 1);
     $conf = PVE::QemuServer::load_config($vmid); # update/reload
@@ -782,6 +892,8 @@ __PACKAGE__->register_method({
 
        my $storecfg = PVE::Storage::config();
 
+       my $defaults = PVE::QemuServer::load_defaults();
+
        &$resolve_cdrom_alias($param);
 
        # now try to verify all parameters
@@ -817,7 +929,7 @@ __PACKAGE__->register_method({
 
        &$check_vm_modify_config_perm($rpcenv, $authuser, $vmid, undef, [keys %$param]);
 
-       &$check_storage_access($rpcenv, $authuser, $storecfg, $vmid, undef, $param);
+       &$check_storage_access($rpcenv, $authuser, $storecfg, $vmid, $param);
 
        my $updatefn =  sub {
 
@@ -828,6 +940,14 @@ __PACKAGE__->register_method({
 
            PVE::QemuServer::check_lock($conf) if !$skiplock;
 
+           if ($param->{memory} || defined($param->{balloon})) {
+               my $maxmem = $param->{memory} || $conf->{memory} || $defaults->{memory};
+               my $balloon = defined($param->{balloon}) ?  $param->{balloon} : $conf->{balloon};
+
+               die "balloon value too large (must be smaller than assigned memory)\n"
+                   if $balloon > $maxmem;
+           }
+
            PVE::Cluster::log_msg('info', $authuser, "update VM $vmid: " . join (' ', @paramarr));
 
            foreach my $opt (@delete) { # delete
@@ -835,6 +955,8 @@ __PACKAGE__->register_method({
                &$vmconfig_delete_option($rpcenv, $authuser, $conf, $storecfg, $vmid, $opt, $force);
            }
 
+           my $running = PVE::QemuServer::check_running($vmid);
+
            foreach my $opt (keys %$param) { # add/change
 
                $conf = PVE::QemuServer::load_config($vmid); # update/reload
@@ -853,10 +975,24 @@ __PACKAGE__->register_method({
 
                } else {
 
+                   if($opt eq 'tablet' && $param->{$opt} == 1){
+                       PVE::QemuServer::vm_deviceplug(undef, $conf, $vmid, $opt);
+                   }elsif($opt eq 'tablet' && $param->{$opt} == 0){
+                       PVE::QemuServer::vm_deviceunplug($vmid, $conf, $opt);
+                   }
+
                    $conf->{$opt} = $param->{$opt};
                    PVE::QemuServer::update_config_nolock($vmid, $conf, 1);
                }
            }
+
+           # allow manual ballooning if shares is set to zero
+           if ($running && defined($param->{balloon}) && 
+               defined($conf->{shares}) && ($conf->{shares} == 0)) {
+               my $balloon = $param->{'balloon'} || $conf->{memory} || $defaults->{memory};
+               PVE::QemuServer::vm_mon_cmd($vmid, "balloon", value => $balloon*1024*1024);
+           }
+
        };
 
        PVE::QemuServer::lock_config($vmid, $updatefn);
@@ -904,12 +1040,25 @@ __PACKAGE__->register_method({
 
        my $storecfg = PVE::Storage::config();
 
+       my $delVMfromPoolFn = sub {                    
+           my $usercfg = cfs_read_file("user.cfg");
+           if (my $pool = $usercfg->{vms}->{$vmid}) {
+               if (my $data = $usercfg->{pools}->{$pool}) {
+                   delete $data->{vms}->{$vmid};
+                   delete $usercfg->{vms}->{$vmid};
+                   cfs_write_file("user.cfg", $usercfg);
+               }
+           }
+       };
+
        my $realcmd = sub {
            my $upid = shift;
 
            syslog('info', "destroy VM $vmid: $upid\n");
 
            PVE::QemuServer::vm_destroy($storecfg, $vmid, $skiplock);
+
+           PVE::AccessControl::lock_user_config($delVMfromPoolFn, "pool cleanup failed");
        };
 
        return $rpcenv->fork_worker('qmdestroy', $vmid, $authuser, $realcmd);
@@ -1005,10 +1154,8 @@ __PACKAGE__->register_method({
            $remip = PVE::Cluster::remote_node_ip($node);
        }
 
-       # NOTE: kvm VNC traffic is already TLS encrypted,
-       # so we select the fastest chipher here (or 'none'?)
-       my $remcmd = $remip ? ['/usr/bin/ssh', '-T', '-o', 'BatchMode=yes',
-                              '-c', 'blowfish-cbc', $remip] : [];
+       # NOTE: kvm VNC traffic is already TLS encrypted
+       my $remcmd = $remip ? ['/usr/bin/ssh', '-T', '-o', 'BatchMode=yes', $remip] : [];
 
        my $timeout = 10;
 
@@ -1031,6 +1178,8 @@ __PACKAGE__->register_method({
 
        my $upid = $rpcenv->fork_worker('vncproxy', $vmid, $authuser, $realcmd);
 
+       PVE::Tools::wait_for_vnc_port($port);
+
        return {
            user => $authuser,
            ticket => $ticket,
@@ -1081,6 +1230,16 @@ __PACKAGE__->register_method({
        return $res;
     }});
 
+my $vm_is_ha_managed = sub {
+    my ($vmid) = @_;
+
+    my $cc = PVE::Cluster::cfs_read_file('cluster.conf');
+    if (PVE::Cluster::cluster_conf_lookup_pvevm($cc, 0, $vmid, 1)) {
+       return 1;
+    } 
+    return 0;
+};
+
 __PACKAGE__->register_method({
     name => 'vm_status',
     path => '{vmid}/status/current',
@@ -1105,15 +1264,10 @@ __PACKAGE__->register_method({
        # test if VM exists
        my $conf = PVE::QemuServer::load_config($param->{vmid});
 
-       my $vmstatus = PVE::QemuServer::vmstatus($param->{vmid});
+       my $vmstatus = PVE::QemuServer::vmstatus($param->{vmid}, 1);
        my $status = $vmstatus->{$param->{vmid}};
 
-       my $cc = PVE::Cluster::cfs_read_file('cluster.conf');
-       if (PVE::Cluster::cluster_conf_lookup_pvevm($cc, 0, $param->{vmid}, 1)) {
-           $status->{ha} = 1;
-       } else {
-           $status->{ha} = 0;
-       }
+       $status->{ha} = &$vm_is_ha_managed($param->{vmid});
 
        return $status;
     }});
@@ -1135,6 +1289,8 @@ __PACKAGE__->register_method({
            vmid => get_standard_option('pve-vmid'),
            skiplock => get_standard_option('skiplock'),
            stateuri => get_standard_option('pve-qm-stateuri'),
+           migratedfrom => get_standard_option('pve-node',{ optional => 1 }),
+
        },
     },
     returns => {
@@ -1159,19 +1315,45 @@ __PACKAGE__->register_method({
        raise_param_exc({ skiplock => "Only root may use this option." })
            if $skiplock && $authuser ne 'root@pam';
 
+       my $migratedfrom = extract_param($param, 'migratedfrom');
+       raise_param_exc({ migratedfrom => "Only root may use this option." })
+           if $migratedfrom && $authuser ne 'root@pam';
+
        my $storecfg = PVE::Storage::config();
 
-       my $realcmd = sub {
-           my $upid = shift;
+       if (&$vm_is_ha_managed($vmid) && !$stateuri &&
+           $rpcenv->{type} ne 'ha') {
 
-           syslog('info', "start VM $vmid: $upid\n");
+           my $hacmd = sub {
+               my $upid = shift;
 
-           PVE::QemuServer::vm_start($storecfg, $vmid, $stateuri, $skiplock);
+               my $service = "pvevm:$vmid";
 
-           return;
-       };
+               my $cmd = ['clusvcadm', '-e', $service, '-m', $node];
+
+               print "Executing HA start for VM $vmid\n";
+
+               PVE::Tools::run_command($cmd);
+
+               return;
+           };
+
+           return $rpcenv->fork_worker('hastart', $vmid, $authuser, $hacmd);
 
-       return $rpcenv->fork_worker('qmstart', $vmid, $authuser, $realcmd);
+       } else {
+
+           my $realcmd = sub {
+               my $upid = shift;
+
+               syslog('info', "start VM $vmid: $upid\n");
+
+               PVE::QemuServer::vm_start($storecfg, $vmid, $stateuri, $skiplock, $migratedfrom);
+
+               return;
+           };
+
+           return $rpcenv->fork_worker('qmstart', $vmid, $authuser, $realcmd);
+       }
     }});
 
 __PACKAGE__->register_method({
@@ -1190,6 +1372,7 @@ __PACKAGE__->register_method({
            node => get_standard_option('pve-node'),
            vmid => get_standard_option('pve-vmid'),
            skiplock => get_standard_option('skiplock'),
+           migratedfrom => get_standard_option('pve-node',{ optional => 1 }),
            timeout => {
                description => "Wait maximal timeout seconds.",
                type => 'integer',
@@ -1226,20 +1409,45 @@ __PACKAGE__->register_method({
        raise_param_exc({ keepActive => "Only root may use this option." })
            if $keepActive && $authuser ne 'root@pam';
 
+       my $migratedfrom = extract_param($param, 'migratedfrom');
+       raise_param_exc({ migratedfrom => "Only root may use this option." })
+           if $migratedfrom && $authuser ne 'root@pam';
+
+
        my $storecfg = PVE::Storage::config();
 
-       my $realcmd = sub {
-           my $upid = shift;
+       if (&$vm_is_ha_managed($vmid) && $rpcenv->{type} ne 'ha') {
 
-           syslog('info', "stop VM $vmid: $upid\n");
+           my $hacmd = sub {
+               my $upid = shift;
 
-           PVE::QemuServer::vm_stop($storecfg, $vmid, $skiplock, 0,
-                                    $param->{timeout}, 0, 1, $keepActive);
+               my $service = "pvevm:$vmid";
 
-           return;
-       };
+               my $cmd = ['clusvcadm', '-d', $service];
+
+               print "Executing HA stop for VM $vmid\n";
 
-       return $rpcenv->fork_worker('qmstop', $vmid, $authuser, $realcmd);
+               PVE::Tools::run_command($cmd);
+
+               return;
+           };
+
+           return $rpcenv->fork_worker('hastop', $vmid, $authuser, $hacmd);
+
+       } else {
+           my $realcmd = sub {
+               my $upid = shift;
+
+               syslog('info', "stop VM $vmid: $upid\n");
+
+               PVE::QemuServer::vm_stop($storecfg, $vmid, $skiplock, 0,
+                                        $param->{timeout}, 0, 1, $keepActive, $migratedfrom);
+
+               return;
+           };
+
+           return $rpcenv->fork_worker('qmstop', $vmid, $authuser, $realcmd);
+       }
     }});
 
 __PACKAGE__->register_method({
@@ -1511,36 +1719,121 @@ __PACKAGE__->register_method({
     }});
 
 __PACKAGE__->register_method({
-    name => 'migrate_vm',
-    path => '{vmid}/migrate',
+    name => 'vm_feature',
+    path => '{vmid}/feature',
+    method => 'GET',
+    proxyto => 'node',
+    protected => 1, 
+    description => "Check if feature for virtual machine is available.",
+    permissions => {
+       check => ['perm', '/vms/{vmid}', [ 'VM.Audit' ]],
+    },
+    parameters => {
+       additionalProperties => 0,
+       properties => {
+           node => get_standard_option('pve-node'),
+           vmid => get_standard_option('pve-vmid'),
+            feature => {
+                description => "Feature to check.",
+                type => 'string',
+                enum => [ 'snapshot', 'clone' ],
+            },
+            snapname => get_standard_option('pve-snapshot-name', {
+                optional => 1,
+            }),
+       },
+    },
+    returns => {
+        type => 'boolean'
+    },
+    code => sub {
+       my ($param) = @_;
+
+       my $node = extract_param($param, 'node');
+
+       my $vmid = extract_param($param, 'vmid');
+
+       my $snapname = extract_param($param, 'snapname');
+
+       my $feature = extract_param($param, 'feature');
+
+       my $running = PVE::QemuServer::check_running($vmid);
+
+       my $conf = PVE::QemuServer::load_config($vmid);
+
+       if($snapname){
+           my $snap = $conf->{snapshots}->{$snapname};
+            die "snapshot '$snapname' does not exist\n" if !defined($snap);
+           $conf = $snap;
+       }
+       my $storecfg = PVE::Storage::config();
+
+       my $hasfeature = PVE::QemuServer::has_feature($feature, $conf, $storecfg, $snapname, $running);
+       my $res = $hasfeature ? 1 : 0 ;
+       return $res;
+    }});
+
+__PACKAGE__->register_method({
+    name => 'copy_vm',
+    path => '{vmid}/copy',
     method => 'POST',
     protected => 1,
     proxyto => 'node',
-    description => "Migrate virtual machine. Creates a new migration task.",
+    description => "Create a copy of virtual machine/template.",
     permissions => {
-       check => ['perm', '/vms/{vmid}', [ 'VM.Migrate' ]],
+       description => "You need 'VM.Copy' permissions on /vms/{vmid}, and 'VM.Allocate' permissions " .
+           "on /vms/{newid} (or on the VM pool /pool/{pool}). You also need " .
+           "'Datastore.AllocateSpace' on any used storage.",
+       check => 
+       [ 'and', 
+         ['perm', '/vms/{vmid}', [ 'VM.Copy' ]],
+         [ 'or', 
+           [ 'perm', '/vms/{newid}', ['VM.Allocate']],
+           [ 'perm', '/pool/{pool}', ['VM.Allocate'], require_param => 'pool'],
+         ],
+       ]
     },
     parameters => {
        additionalProperties => 0,
        properties => {
            node => get_standard_option('pve-node'),
            vmid => get_standard_option('pve-vmid'),
-           target => get_standard_option('pve-node', { description => "Target node." }),
-           online => {
-               type => 'boolean',
-               description => "Use online/live migration.",
+           newid => get_standard_option('pve-vmid', { description => 'VMID for the copy.' }),
+           name => {
                optional => 1,
+               type => 'string', format => 'dns-name',
+               description => "Set a name for the new VM.",
            },
-           force => {
-               type => 'boolean',
-               description => "Allow to migrate VMs which use local devices. Only root may use this option.",
+           description => {
+               optional => 1,
+               type => 'string',
+               description => "Description for the new VM.",
+           },
+           pool => { 
+               optional => 1,
+               type => 'string', format => 'pve-poolid',
+               description => "Add the new VM to the specified pool.",
+           },
+            snapname => get_standard_option('pve-snapshot-name', {
+               requires => 'full',
+               optional => 1,
+            }),
+           storage => get_standard_option('pve-storage-id', {
+               description => "Target storage for full copy.",
+               requires => 'full',
+               optional => 1,
+           }),
+           full => {
                optional => 1,
+               type => 'boolean',
+               description => "Create a full copy of all disk. This is always done when " .
+                   "you copy a normal VM. For VM templates, we try to create a linked copy by default.",
+               default => 0,
            },
        },
     },
     returns => {
        type => 'string',
-       description => "the task ID.",
     },
     code => sub {
        my ($param) = @_;
@@ -1549,54 +1842,285 @@ __PACKAGE__->register_method({
 
        my $authuser = $rpcenv->get_user();
 
-       my $target = extract_param($param, 'target');
+       my $node = extract_param($param, 'node');
 
-       my $localnode = PVE::INotify::nodename();
-       raise_param_exc({ target => "target is local node."}) if $target eq $localnode;
+       my $vmid = extract_param($param, 'vmid');
+
+       my $newid = extract_param($param, 'newid');
+
+       # fixme: update pool after create
+       my $pool = extract_param($param, 'pool');
+
+       if (defined($pool)) {
+           $rpcenv->check_pool_exist($pool);
+       }
+
+       my $snapname = extract_param($param, 'snapname');
+
+       my $storage = extract_param($param, 'storage');
+
+       my $storecfg = PVE::Storage::config();
 
        PVE::Cluster::check_cfs_quorum();
 
-       PVE::Cluster::check_node_exists($target);
+       my $running = PVE::QemuServer::check_running($vmid) || 0;
 
-       my $targetip = PVE::Cluster::remote_node_ip($target);
+       die "Copy running VM $vmid not implemented\n" if $running; # fixme: implement this
 
-       my $vmid = extract_param($param, 'vmid');
+       # exclusive lock if VM is running - else shared lock is enough;
+       my $shared_lock = $running ? 0 : 1;
 
-       raise_param_exc({ force => "Only root may use this option." })
-           if $param->{force} && $authuser ne 'root@pam';
+       # fixme: do early checks - re-check after lock 
 
-       # test if VM exists
-       my $conf = PVE::QemuServer::load_config($vmid);
+       # fixme: impl. target node parameter (mv VM config if all storages are shared)
 
-       # try to detect errors early
+       my $copyfn = sub {
 
-       PVE::QemuServer::check_lock($conf);
+           # all tests after lock
+           my $conf = PVE::QemuServer::load_config($vmid);
 
-       if (PVE::QemuServer::check_running($vmid)) {
-           die "cant migrate running VM without --online\n"
-               if !$param->{online};
-       }
+           PVE::QemuServer::check_lock($conf);
 
-       my $realcmd = sub {
-           my $upid = shift;
+           my $verify_running = PVE::QemuServer::check_running($vmid) || 0;
+
+           die "unexpected state change\n" if $verify_running != $running;
+
+           die "snapshot '$snapname' does not exist\n" 
+               if $snapname && !defined( $conf->{snapshots}->{$snapname}); 
+
+           my $oldconf = $snapname ? $conf->{snapshots}->{$snapname} : $conf; 
+
+           &$check_storage_access_copy($rpcenv, $authuser, $storecfg, $oldconf, $storage);
+
+           my $conffile = PVE::QemuServer::config_file($newid);
+
+           die "unable to create VM $newid: config file already exists\n"
+               if -f $conffile;
+
+           # create empty/temp config - this fails if VM already exists on other node
+           PVE::Tools::file_set_contents($conffile, "# qmcopy temporary file\nlock: copy\n");
+
+           my $realcmd = sub {
+               my $upid = shift;
+
+               my $newvollist = [];
+
+               eval {
+                   my $newconf = { lock => 'copy' };
+                   my $drives = {};
+                   my $vollist = [];
+
+                   foreach my $opt (keys %$oldconf) {
+                       my $value = $oldconf->{$opt};
+
+                       # do not copy snapshot related info
+                       next if $opt eq 'snapshots' ||  $opt eq 'parent' || $opt eq 'snaptime' ||
+                           $opt eq 'vmstate' || $opt eq 'snapstate';
+
+                       # always change MAC! address
+                       if ($opt =~ m/^net(\d+)$/) {
+                           my $net = PVE::QemuServer::parse_net($value);
+                           $net->{macaddr} =  PVE::Tools::random_ether_addr();
+                           $newconf->{$opt} = PVE::QemuServer::print_net($net);
+                       } elsif (my $drive = PVE::QemuServer::parse_drive($opt, $value)) {
+                           if (PVE::QemuServer::drive_is_cdrom($drive)) {
+                               $newconf->{$opt} = $value; # simply copy configuration
+                           } else {
+                               $drives->{$opt} = $drive;
+                               push @$vollist, $drive->{file};
+                           }
+                       } else {
+                           # copy everything else
+                           $newconf->{$opt} = $value;  
+                       }
+                   }
+
+                   delete $newconf->{template};
+
+                   if ($param->{name}) {
+                       $newconf->{name} = $param->{name};
+                   } else {
+                       $newconf->{name} = "Copy-of-$oldconf->{name}";
+                   }
+
+                   if ($param->{description}) {
+                       $newconf->{description} = $param->{description};
+                   }
+                   
+                   PVE::Storage::activate_volumes($storecfg, $vollist);
+
+                   eval {
+                       local $SIG{INT} = $SIG{TERM} = $SIG{QUIT} = $SIG{HUP} = sub { die "interrupted by signal\n"; };
+
+                       foreach my $opt (keys %$drives) {
+                           my $drive = $drives->{$opt};
+
+                           my $newvolid;
+                           if (!$param->{full} && PVE::Storage::volume_is_base($storecfg,  $drive->{file})) {
+                               print "clone drive $opt ($drive->{file})\n";
+                               $newvolid = PVE::Storage::vdisk_clone($storecfg,  $drive->{file}, $newid);
+                           } else {
+                               my ($storeid, $volname) = PVE::Storage::parse_volume_id($drive->{file});
+                               $storeid = $storage if $storage;
+                               my $defformat = PVE::Storage::storage_default_format($storecfg, $storeid);
+                               my $fmt = $drive->{format} || $defformat;
+
+                               my ($size) = PVE::Storage::volume_size_info($storecfg, $drive->{file}, 3);
+
+                               print "copy drive $opt ($drive->{file})\n";
+                               $newvolid = PVE::Storage::vdisk_alloc($storecfg, $storeid, $newid, $fmt, undef, ($size/1024));
+
+                               PVE::QemuServer::qemu_img_convert($drive->{file}, $newvolid, $size, $snapname);
+                           }
+
+                           my ($size) = PVE::Storage::volume_size_info($storecfg, $newvolid, 3);
+                           my $disk = { file => $newvolid, size => $size };
+                           $newconf->{$opt} = PVE::QemuServer::print_drive($vmid, $disk); 
+                           push @$newvollist, $newvolid;
+
+                           PVE::QemuServer::update_config_nolock($newid, $newconf, 1);
+                       }
+                   };
+                   die $@ if $@;
+
+                   delete $newconf->{lock};
+                   PVE::QemuServer::update_config_nolock($newid, $newconf, 1);
+               };
+               if (my $err = $@) { 
+                   unlink $conffile;
 
-           PVE::QemuMigrate->migrate($target, $targetip, $vmid, $param);
+                   sleep 1; # some storage like rbd need to wait before release volume - really?
+
+                   foreach my $volid (@$newvollist) {
+                       eval { PVE::Storage::vdisk_free($storecfg, $volid); };
+                       warn $@ if $@;
+                   }
+                   die "copy failed: $err";
+               }
+
+               return;
+           };
+
+           return $rpcenv->fork_worker('qmcopy', $vmid, $authuser, $realcmd);
        };
 
-       my $upid = $rpcenv->fork_worker('qmigrate', $vmid, $authuser, $realcmd);
+       return PVE::QemuServer::lock_config_mode($vmid, 1, $shared_lock, sub {
+           # Aquire exclusive lock lock for $newid
+           return PVE::QemuServer::lock_config_full($newid, 1, $copyfn);
+       });
 
-       return $upid;
     }});
 
 __PACKAGE__->register_method({
-    name => 'monitor',
-    path => '{vmid}/monitor',
+    name => 'migrate_vm',
+    path => '{vmid}/migrate',
     method => 'POST',
     protected => 1,
     proxyto => 'node',
-    description => "Execute Qemu monitor commands.",
+    description => "Migrate virtual machine. Creates a new migration task.",
     permissions => {
-       check => ['perm', '/vms/{vmid}', [ 'VM.Monitor' ]],
+       check => ['perm', '/vms/{vmid}', [ 'VM.Migrate' ]],
+    },
+    parameters => {
+       additionalProperties => 0,
+       properties => {
+           node => get_standard_option('pve-node'),
+           vmid => get_standard_option('pve-vmid'),
+           target => get_standard_option('pve-node', { description => "Target node." }),
+           online => {
+               type => 'boolean',
+               description => "Use online/live migration.",
+               optional => 1,
+           },
+           force => {
+               type => 'boolean',
+               description => "Allow to migrate VMs which use local devices. Only root may use this option.",
+               optional => 1,
+           },
+       },
+    },
+    returns => {
+       type => 'string',
+       description => "the task ID.",
+    },
+    code => sub {
+       my ($param) = @_;
+
+       my $rpcenv = PVE::RPCEnvironment::get();
+
+       my $authuser = $rpcenv->get_user();
+
+       my $target = extract_param($param, 'target');
+
+       my $localnode = PVE::INotify::nodename();
+       raise_param_exc({ target => "target is local node."}) if $target eq $localnode;
+
+       PVE::Cluster::check_cfs_quorum();
+
+       PVE::Cluster::check_node_exists($target);
+
+       my $targetip = PVE::Cluster::remote_node_ip($target);
+
+       my $vmid = extract_param($param, 'vmid');
+
+       raise_param_exc({ force => "Only root may use this option." })
+           if $param->{force} && $authuser ne 'root@pam';
+
+       # test if VM exists
+       my $conf = PVE::QemuServer::load_config($vmid);
+
+       # try to detect errors early
+
+       PVE::QemuServer::check_lock($conf);
+
+       if (PVE::QemuServer::check_running($vmid)) {
+           die "cant migrate running VM without --online\n"
+               if !$param->{online};
+       }
+
+       my $storecfg = PVE::Storage::config();
+       PVE::QemuServer::check_storage_availability($storecfg, $conf, $target);
+
+       if (&$vm_is_ha_managed($vmid) && $rpcenv->{type} ne 'ha') {
+
+           my $hacmd = sub {
+               my $upid = shift;
+
+               my $service = "pvevm:$vmid";
+
+               my $cmd = ['clusvcadm', '-M', $service, '-m', $target];
+
+               print "Executing HA migrate for VM $vmid to node $target\n";
+
+               PVE::Tools::run_command($cmd);
+
+               return;
+           };
+
+           return $rpcenv->fork_worker('hamigrate', $vmid, $authuser, $hacmd);
+
+       } else {
+
+           my $realcmd = sub {
+               my $upid = shift;
+
+               PVE::QemuMigrate->migrate($target, $targetip, $vmid, $param);
+           };
+
+           return $rpcenv->fork_worker('qmigrate', $vmid, $authuser, $realcmd);
+       }
+
+    }});
+
+__PACKAGE__->register_method({
+    name => 'monitor',
+    path => '{vmid}/monitor',
+    method => 'POST',
+    protected => 1,
+    proxyto => 'node',
+    description => "Execute Qemu monitor commands.",
+    permissions => {
+       check => ['perm', '/vms/{vmid}', [ 'VM.Monitor' ]],
     },
     parameters => {
        additionalProperties => 0,
@@ -1619,11 +2143,543 @@ __PACKAGE__->register_method({
 
        my $res = '';
        eval {
-           $res = PVE::QemuServer::vm_monitor_command($vmid, $param->{command});
+           $res = PVE::QemuServer::vm_human_monitor_command($vmid, $param->{command});
        };
        $res = "ERROR: $@" if $@;
 
        return $res;
     }});
 
+__PACKAGE__->register_method({
+    name => 'resize_vm',
+    path => '{vmid}/resize',
+    method => 'PUT',
+    protected => 1,
+    proxyto => 'node',
+    description => "Extend volume size.",
+    permissions => {
+        check => ['perm', '/vms/{vmid}', [ 'VM.Config.Disk' ]],
+    },
+    parameters => {
+        additionalProperties => 0,
+        properties => {
+           node => get_standard_option('pve-node'),
+           vmid => get_standard_option('pve-vmid'),
+           skiplock => get_standard_option('skiplock'),
+           disk => {
+               type => 'string',
+               description => "The disk you want to resize.",
+               enum => [PVE::QemuServer::disknames()],
+           },
+           size => {
+               type => 'string',
+               pattern => '\+?\d+(\.\d+)?[KMGT]?',
+               description => "The new size. With the '+' sign the value is added to the actual size of the volume and without it, the value is taken as an absolute one. Shrinking disk size is not supported.",
+           },
+           digest => {
+               type => 'string',
+               description => 'Prevent changes if current configuration file has different SHA1 digest. This can be used to prevent concurrent modifications.',
+               maxLength => 40,
+               optional => 1,
+           },
+       },
+    },
+    returns => { type => 'null'},
+    code => sub {
+        my ($param) = @_;
+
+        my $rpcenv = PVE::RPCEnvironment::get();
+
+        my $authuser = $rpcenv->get_user();
+
+        my $node = extract_param($param, 'node');
+
+        my $vmid = extract_param($param, 'vmid');
+
+        my $digest = extract_param($param, 'digest');
+
+        my $disk = extract_param($param, 'disk');
+       my $sizestr = extract_param($param, 'size');
+
+       my $skiplock = extract_param($param, 'skiplock');
+        raise_param_exc({ skiplock => "Only root may use this option." })
+            if $skiplock && $authuser ne 'root@pam';
+
+        my $storecfg = PVE::Storage::config();
+
+        my $updatefn =  sub {
+
+            my $conf = PVE::QemuServer::load_config($vmid);
+
+            die "checksum missmatch (file change by other user?)\n"
+                if $digest && $digest ne $conf->{digest};
+            PVE::QemuServer::check_lock($conf) if !$skiplock;
+
+           die "disk '$disk' does not exist\n" if !$conf->{$disk};
+
+           my $drive = PVE::QemuServer::parse_drive($disk, $conf->{$disk});
+
+           my $volid = $drive->{file};
+
+           die "disk '$disk' has no associated volume\n" if !$volid;
+
+           die "you can't resize a cdrom\n" if PVE::QemuServer::drive_is_cdrom($drive);
+
+           die "you can't online resize a virtio windows bootdisk\n" 
+               if PVE::QemuServer::check_running($vmid) && $conf->{bootdisk} eq $disk && $conf->{ostype} =~ m/^w/ && $disk =~ m/^virtio/;
+
+           my ($storeid, $volname) = PVE::Storage::parse_volume_id($volid);
+
+           $rpcenv->check($authuser, "/storage/$storeid", ['Datastore.AllocateSpace']);
+
+           my $size = PVE::Storage::volume_size_info($storecfg, $volid, 5);
+
+           die "internal error" if $sizestr !~ m/^(\+)?(\d+(\.\d+)?)([KMGT])?$/;
+           my ($ext, $newsize, $unit) = ($1, $2, $4);
+           if ($unit) {
+               if ($unit eq 'K') {
+                   $newsize = $newsize * 1024;
+               } elsif ($unit eq 'M') {
+                   $newsize = $newsize * 1024 * 1024;
+               } elsif ($unit eq 'G') {
+                   $newsize = $newsize * 1024 * 1024 * 1024;
+               } elsif ($unit eq 'T') {
+                   $newsize = $newsize * 1024 * 1024 * 1024 * 1024;
+               }
+           }
+           $newsize += $size if $ext;
+           $newsize = int($newsize);
+
+           die "unable to skrink disk size\n" if $newsize < $size;
+
+           return if $size == $newsize;
+
+            PVE::Cluster::log_msg('info', $authuser, "update VM $vmid: resize --disk $disk --size $sizestr");
+
+           PVE::QemuServer::qemu_block_resize($vmid, "drive-$disk", $storecfg, $volid, $newsize);
+           
+           $drive->{size} = $newsize;
+           $conf->{$disk} = PVE::QemuServer::print_drive($vmid, $drive);
+
+           PVE::QemuServer::update_config_nolock($vmid, $conf, 1);
+       };
+
+        PVE::QemuServer::lock_config($vmid, $updatefn);
+        return undef;
+    }});
+
+__PACKAGE__->register_method({
+    name => 'snapshot_list',
+    path => '{vmid}/snapshot',
+    method => 'GET',
+    description => "List all snapshots.",
+    permissions => {
+       check => ['perm', '/vms/{vmid}', [ 'VM.Audit' ]],
+    },
+    proxyto => 'node',
+    protected => 1, # qemu pid files are only readable by root
+    parameters => {
+       additionalProperties => 0,
+       properties => {
+           vmid => get_standard_option('pve-vmid'),
+           node => get_standard_option('pve-node'),
+       },
+    },
+    returns => {
+       type => 'array',
+       items => {
+           type => "object",
+           properties => {},
+       },
+       links => [ { rel => 'child', href => "{name}" } ],
+    },
+    code => sub {
+       my ($param) = @_;
+
+       my $vmid = $param->{vmid};
+
+       my $conf = PVE::QemuServer::load_config($vmid);
+       my $snaphash = $conf->{snapshots} || {};
+
+       my $res = [];
+
+       foreach my $name (keys %$snaphash) {
+           my $d = $snaphash->{$name};
+           my $item = { 
+               name => $name, 
+               snaptime => $d->{snaptime} || 0, 
+               vmstate => $d->{vmstate} ? 1 : 0,
+               description => $d->{description} || '',
+           };
+           $item->{parent} = $d->{parent} if $d->{parent};
+           $item->{snapstate} = $d->{snapstate} if $d->{snapstate};
+           push @$res, $item;
+       }
+
+       my $running = PVE::QemuServer::check_running($vmid, 1) ? 1 : 0;
+       my $current = { name => 'current', digest => $conf->{digest}, running => $running };
+       $current->{parent} = $conf->{parent} if $conf->{parent};
+
+       push @$res, $current;
+
+       return $res;
+    }});
+
+__PACKAGE__->register_method({
+    name => 'snapshot',
+    path => '{vmid}/snapshot',
+    method => 'POST',
+    protected => 1,
+    proxyto => 'node',
+    description => "Snapshot a VM.",
+    permissions => {
+       check => ['perm', '/vms/{vmid}', [ 'VM.Snapshot' ]],
+    },
+    parameters => {
+       additionalProperties => 0,
+       properties => {
+           node => get_standard_option('pve-node'),
+           vmid => get_standard_option('pve-vmid'),
+           snapname => get_standard_option('pve-snapshot-name'),
+           vmstate => {
+               optional => 1,
+               type => 'boolean',
+               description => "Save the vmstate",
+           },
+           freezefs => {
+               optional => 1,
+               type => 'boolean',
+               description => "Freeze the filesystem",
+           },
+           description => {
+               optional => 1,
+               type => 'string',
+               description => "A textual description or comment.",
+           },
+       },
+    },
+    returns => {
+       type => 'string',
+       description => "the task ID.",
+    },
+    code => sub {
+       my ($param) = @_;
+
+       my $rpcenv = PVE::RPCEnvironment::get();
+
+       my $authuser = $rpcenv->get_user();
+
+       my $node = extract_param($param, 'node');
+
+       my $vmid = extract_param($param, 'vmid');
+
+       my $snapname = extract_param($param, 'snapname');
+
+       die "unable to use snapshot name 'current' (reserved name)\n"
+           if $snapname eq 'current';
+
+       my $realcmd = sub {
+           PVE::Cluster::log_msg('info', $authuser, "snapshot VM $vmid: $snapname");
+           PVE::QemuServer::snapshot_create($vmid, $snapname, $param->{vmstate}, 
+                                            $param->{freezefs}, $param->{description});
+       };
+
+       return $rpcenv->fork_worker('qmsnapshot', $vmid, $authuser, $realcmd);
+    }});
+
+__PACKAGE__->register_method({
+    name => 'snapshot_cmd_idx',
+    path => '{vmid}/snapshot/{snapname}',
+    description => '',
+    method => 'GET',
+    permissions => {
+       user => 'all',
+    },
+    parameters => {
+       additionalProperties => 0,
+       properties => {
+           vmid => get_standard_option('pve-vmid'),
+           node => get_standard_option('pve-node'),
+           snapname => get_standard_option('pve-snapshot-name'),
+       },
+    },
+    returns => {
+       type => 'array',
+       items => {
+           type => "object",
+           properties => {},
+       },
+       links => [ { rel => 'child', href => "{cmd}" } ],
+    },
+    code => sub {
+       my ($param) = @_;
+
+       my $res = [];
+
+       push @$res, { cmd => 'rollback' };
+       push @$res, { cmd => 'config' };
+
+       return $res;
+    }});
+
+__PACKAGE__->register_method({
+    name => 'update_snapshot_config',
+    path => '{vmid}/snapshot/{snapname}/config',
+    method => 'PUT',
+    protected => 1,
+    proxyto => 'node',
+    description => "Update snapshot metadata.",
+    permissions => {
+       check => ['perm', '/vms/{vmid}', [ 'VM.Snapshot' ]],
+    },
+    parameters => {
+       additionalProperties => 0,
+       properties => {
+           node => get_standard_option('pve-node'),
+           vmid => get_standard_option('pve-vmid'),
+           snapname => get_standard_option('pve-snapshot-name'),
+           description => {
+               optional => 1,
+               type => 'string',
+               description => "A textual description or comment.",
+           },
+       },
+    },
+    returns => { type => 'null' },
+    code => sub {
+       my ($param) = @_;
+
+       my $rpcenv = PVE::RPCEnvironment::get();
+
+       my $authuser = $rpcenv->get_user();
+
+       my $vmid = extract_param($param, 'vmid');
+
+       my $snapname = extract_param($param, 'snapname');
+
+       return undef if !defined($param->{description});
+
+       my $updatefn =  sub {
+
+           my $conf = PVE::QemuServer::load_config($vmid);
+
+           PVE::QemuServer::check_lock($conf);
+
+           my $snap = $conf->{snapshots}->{$snapname};
+
+           die "snapshot '$snapname' does not exist\n" if !defined($snap); 
+           
+           $snap->{description} = $param->{description} if defined($param->{description});
+
+            PVE::QemuServer::update_config_nolock($vmid, $conf, 1);
+       };
+
+       PVE::QemuServer::lock_config($vmid, $updatefn);
+
+       return undef;
+    }});
+
+__PACKAGE__->register_method({
+    name => 'get_snapshot_config',
+    path => '{vmid}/snapshot/{snapname}/config',
+    method => 'GET',
+    proxyto => 'node',
+    description => "Get snapshot configuration",
+    permissions => {
+       check => ['perm', '/vms/{vmid}', [ 'VM.Snapshot' ]],
+    },
+    parameters => {
+       additionalProperties => 0,
+       properties => {
+           node => get_standard_option('pve-node'),
+           vmid => get_standard_option('pve-vmid'),
+           snapname => get_standard_option('pve-snapshot-name'),
+       },
+    },
+    returns => { type => "object" },
+    code => sub {
+       my ($param) = @_;
+
+       my $rpcenv = PVE::RPCEnvironment::get();
+
+       my $authuser = $rpcenv->get_user();
+
+       my $vmid = extract_param($param, 'vmid');
+
+       my $snapname = extract_param($param, 'snapname');
+
+       my $conf = PVE::QemuServer::load_config($vmid);
+
+       my $snap = $conf->{snapshots}->{$snapname};
+
+       die "snapshot '$snapname' does not exist\n" if !defined($snap); 
+           
+       return $snap;
+    }});
+
+__PACKAGE__->register_method({
+    name => 'rollback',
+    path => '{vmid}/snapshot/{snapname}/rollback',
+    method => 'POST',
+    protected => 1,
+    proxyto => 'node',
+    description => "Rollback VM state to specified snapshot.",
+    permissions => {
+       check => ['perm', '/vms/{vmid}', [ 'VM.Snapshot' ]],
+    },
+    parameters => {
+       additionalProperties => 0,
+       properties => {
+           node => get_standard_option('pve-node'),
+           vmid => get_standard_option('pve-vmid'),
+           snapname => get_standard_option('pve-snapshot-name'),
+       },
+    },
+    returns => {
+       type => 'string',
+       description => "the task ID.",
+    },
+    code => sub {
+       my ($param) = @_;
+
+       my $rpcenv = PVE::RPCEnvironment::get();
+
+       my $authuser = $rpcenv->get_user();
+
+       my $node = extract_param($param, 'node');
+
+       my $vmid = extract_param($param, 'vmid');
+
+       my $snapname = extract_param($param, 'snapname');
+
+       my $realcmd = sub {
+           PVE::Cluster::log_msg('info', $authuser, "rollback snapshot VM $vmid: $snapname");
+           PVE::QemuServer::snapshot_rollback($vmid, $snapname);
+       };
+
+       return $rpcenv->fork_worker('qmrollback', $vmid, $authuser, $realcmd);
+    }});
+
+__PACKAGE__->register_method({
+    name => 'delsnapshot',
+    path => '{vmid}/snapshot/{snapname}',
+    method => 'DELETE',
+    protected => 1,
+    proxyto => 'node',
+    description => "Delete a VM snapshot.",
+    permissions => {
+       check => ['perm', '/vms/{vmid}', [ 'VM.Snapshot' ]],
+    },
+    parameters => {
+       additionalProperties => 0,
+       properties => {
+           node => get_standard_option('pve-node'),
+           vmid => get_standard_option('pve-vmid'),
+           snapname => get_standard_option('pve-snapshot-name'),
+           force => {
+               optional => 1,
+               type => 'boolean',
+               description => "For removal from config file, even if removing disk snapshots fails.",
+           },
+       },
+    },
+    returns => {
+       type => 'string',
+       description => "the task ID.",
+    },
+    code => sub {
+       my ($param) = @_;
+
+       my $rpcenv = PVE::RPCEnvironment::get();
+
+       my $authuser = $rpcenv->get_user();
+
+       my $node = extract_param($param, 'node');
+
+       my $vmid = extract_param($param, 'vmid');
+
+       my $snapname = extract_param($param, 'snapname');
+
+       my $realcmd = sub {
+           PVE::Cluster::log_msg('info', $authuser, "delete snapshot VM $vmid: $snapname");
+           PVE::QemuServer::snapshot_delete($vmid, $snapname, $param->{force});
+       };
+
+       return $rpcenv->fork_worker('qmdelsnapshot', $vmid, $authuser, $realcmd);
+    }});
+
+__PACKAGE__->register_method({
+    name => 'template',
+    path => '{vmid}/template',
+    method => 'POST',
+    protected => 1,
+    proxyto => 'node',
+    description => "Create a Template.",
+    permissions => {
+       description => "You need 'VM.Allocate' permissions on /vms/{vmid} or on the VM pool /pool/{pool}.",
+       check => [ 'or', 
+                  [ 'perm', '/vms/{vmid}', ['VM.Allocate']],
+                  [ 'perm', '/pool/{pool}', ['VM.Allocate'], require_param => 'pool'],
+           ],
+    },
+    parameters => {
+       additionalProperties => 0,
+       properties => {
+           node => get_standard_option('pve-node'),
+           vmid => get_standard_option('pve-vmid'),
+           disk => {
+               optional => 1,
+               type => 'string',
+               description => "If you want to convert only 1 disk to base image.",
+               enum => [PVE::QemuServer::disknames()],
+           },
+
+       },
+    },
+    returns => { type => 'null'},
+    code => sub {
+       my ($param) = @_;
+
+       my $rpcenv = PVE::RPCEnvironment::get();
+
+       my $authuser = $rpcenv->get_user();
+
+       my $node = extract_param($param, 'node');
+
+       my $vmid = extract_param($param, 'vmid');
+
+       my $disk = extract_param($param, 'disk');
+
+       my $updatefn =  sub {
+
+           my $conf = PVE::QemuServer::load_config($vmid);
+
+           PVE::QemuServer::check_lock($conf);
+
+           die "unable to create template, because VM contains snapshots\n" 
+               if $conf->{snapshots} && scalar(keys %{$conf->{snapshots}});
+
+           die "you can't convert a template to a template\n" 
+               if PVE::QemuServer::is_template($conf) && !$disk;
+
+           die "you can't convert a VM to template if VM is running\n" 
+               if PVE::QemuServer::check_running($vmid);
+
+           my $realcmd = sub {
+               PVE::QemuServer::template_create($vmid, $conf, $disk);
+           };
+
+           $conf->{template} = 1;
+           PVE::QemuServer::update_config_nolock($vmid, $conf, 1);
+
+           return $rpcenv->fork_worker('qmtemplate', $vmid, $authuser, $realcmd);
+       };
+
+       PVE::QemuServer::lock_config($vmid, $updatefn);
+       return undef;
+    }});
+
+
+
 1;