]> git.proxmox.com Git - pve-docs.git/blobdiff - pmxcfs.adoc
qm-cpu-settings.png: replace wrong screenshot
[pve-docs.git] / pmxcfs.adoc
index 3474d736a7d17af3751d53870a9e9ff28c4824ea..12e51d19968dfd50ea0f1bad6b27fe20973c4bc1 100644 (file)
@@ -1,17 +1,17 @@
 ifdef::manvolnum[]
-PVE({manvolnum})
-================
-include::attributes.txt[]
+pmxcfs(8)
+=========
+:pve-toplevel:
 
 NAME
 ----
 
 pmxcfs - Proxmox Cluster File System
 
-SYNOPSYS
+SYNOPSIS
 --------
 
-include::pmxcfs.8-cli.adoc[]
+include::pmxcfs.8-synopsis.adoc[]
 
 DESCRIPTION
 -----------
@@ -20,7 +20,7 @@ endif::manvolnum[]
 ifndef::manvolnum[]
 Proxmox Cluster File System (pmxcfs)
 ====================================
-include::attributes.txt[]
+:pve-toplevel:
 endif::manvolnum[]
 
 The Proxmox Cluster file system (``pmxcfs'') is a database-driven file
@@ -30,7 +30,7 @@ configuration files.
 
 Although the file system stores all data inside a persistent database
 on disk, a copy of the data resides in RAM. That imposes restriction
-on the maximal size, which is currently 30MB. This is still enough to
+on the maximum size, which is currently 30MB. This is still enough to
 store the configuration of several thousand virtual machines.
 
 This system provides the following advantages:
@@ -41,6 +41,7 @@ This system provides the following advantages:
 * automatic updates of the corosync cluster configuration to all nodes
 * includes a distributed locking mechanism
 
+
 POSIX Compatibility
 -------------------
 
@@ -60,7 +61,7 @@ some feature are simply not implemented, because we do not need them:
 * `O_TRUNC` creates are not atomic (FUSE restriction)
 
 
-File access rights
+File Access Rights
 ------------------
 
 All files and directories are owned by user `root` and have group
@@ -78,10 +79,10 @@ Technology
 
 We use the http://www.corosync.org[Corosync Cluster Engine] for
 cluster communication, and http://www.sqlite.org[SQlite] for the
-database file. The filesystem is implemented in user space using
+database file. The file system is implemented in user space using
 http://fuse.sourceforge.net[FUSE].
 
-File system layout
+File System Layout
 ------------------
 
 The file system is mounted at:
@@ -114,6 +115,7 @@ Files
 |`firewall/<VMID>.fw`                   | Firewall configuration for VMs and Containers
 |=======
 
+
 Symbolic links
 ~~~~~~~~~~~~~~
 
@@ -124,6 +126,7 @@ Symbolic links
 |`lxc`           | `nodes/<LOCAL_HOST_NAME>/lxc/`
 |=======
 
+
 Special status files for debugging (JSON)
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
@@ -136,6 +139,7 @@ Special status files for debugging (JSON)
 |`.rrd`        |RRD data (most recent entries)
 |=======
 
+
 Enable/Disable debugging
 ~~~~~~~~~~~~~~~~~~~~~~~~
 
@@ -160,6 +164,7 @@ host. On the new host (with nothing running), you need to stop the
 lost Proxmox VE host, then reboot and check. (And don't forget your
 VM/CT data)
 
+
 Remove Cluster configuration
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
@@ -167,34 +172,9 @@ The recommended way is to reinstall the node after you removed it from
 your cluster. This makes sure that all secret cluster/ssh keys and any
 shared configuration data is destroyed.
 
-In some cases, you might prefer to put a node back to local mode
-without reinstall, which is described here:
-
-* stop the cluster file system in `/etc/pve/`
-
- # systemctl stop pve-cluster
-
-* start it again but forcing local mode
-
- # pmxcfs -l
-
-* remove the cluster config
-
- # rm /etc/pve/cluster.conf
- # rm /etc/cluster/cluster.conf
- # rm /var/lib/pve-cluster/corosync.authkey
-
-* stop the cluster file system again
-
- # systemctl stop pve-cluster
-
-* restart pve services (or reboot)
-
- # systemctl start pve-cluster
- # systemctl restart pvedaemon
- # systemctl restart pveproxy
- # systemctl restart pvestatd
-
+In some cases, you might prefer to put a node back to local mode without
+reinstall, which is described in
+<<pvecm_separate_node_without_reinstall,Separate A Node Without Reinstalling>>
 
 ifdef::manvolnum[]
 include::pve-copyright.adoc[]