]> git.proxmox.com Git - pve-docs.git/blobdiff - pmxcfs.adoc
renamed pmxcfs.8-cli.adoc to pmxcfs.8-synopsis.adoc
[pve-docs.git] / pmxcfs.adoc
index d7c5d35f0ae6ea916dfdf0811ea5b81c87655499..d35c9606123a171cf02c375ae299cb8bd240230f 100644 (file)
@@ -1,17 +1,18 @@
 ifdef::manvolnum[]
 ifdef::manvolnum[]
-PVE({manvolnum})
-================
+pmxcfs(8)
+=========
 include::attributes.txt[]
 include::attributes.txt[]
+:pve-toplevel:
 
 NAME
 ----
 
 pmxcfs - Proxmox Cluster File System
 
 
 NAME
 ----
 
 pmxcfs - Proxmox Cluster File System
 
-SYNOPSYS
+SYNOPSIS
 --------
 
 --------
 
-include::pmxcfs.8-cli.adoc[]
+include::pmxcfs.8-synopsis.adoc[]
 
 DESCRIPTION
 -----------
 
 DESCRIPTION
 -----------
@@ -21,20 +22,20 @@ ifndef::manvolnum[]
 Proxmox Cluster File System (pmxcfs)
 ====================================
 include::attributes.txt[]
 Proxmox Cluster File System (pmxcfs)
 ====================================
 include::attributes.txt[]
+:pve-toplevel:
 endif::manvolnum[]
 
 endif::manvolnum[]
 
-The Proxmox Cluster file system (pmxcfs) is a database-driven file
+The Proxmox Cluster file system (``pmxcfs'') is a database-driven file
 system for storing configuration files, replicated in real time to all
 system for storing configuration files, replicated in real time to all
-cluster nodes using corosync. We use this to store all PVE related
+cluster nodes using `corosync`. We use this to store all PVE related
 configuration files.
 
 Although the file system stores all data inside a persistent database
 on disk, a copy of the data resides in RAM. That imposes restriction
 configuration files.
 
 Although the file system stores all data inside a persistent database
 on disk, a copy of the data resides in RAM. That imposes restriction
-on the maximal size, which is currently 30MB. This is still enough to
+on the maximum size, which is currently 30MB. This is still enough to
 store the configuration of several thousand virtual machines.
 
 store the configuration of several thousand virtual machines.
 
-Advantages
-----------
+This system provides the following advantages:
 
 * seamless replication of all configuration to all nodes in real time
 * provides strong consistency checks to avoid duplicate VM IDs
 
 * seamless replication of all configuration to all nodes in real time
 * provides strong consistency checks to avoid duplicate VM IDs
@@ -42,8 +43,9 @@ Advantages
 * automatic updates of the corosync cluster configuration to all nodes
 * includes a distributed locking mechanism
 
 * automatic updates of the corosync cluster configuration to all nodes
 * includes a distributed locking mechanism
 
+
 POSIX Compatibility
 POSIX Compatibility
-~~~~~~~~~~~~~~~~~~~
+-------------------
 
 The file system is based on FUSE, so the behavior is POSIX like. But
 some feature are simply not implemented, because we do not need them:
 
 The file system is based on FUSE, so the behavior is POSIX like. But
 some feature are simply not implemented, because we do not need them:
@@ -61,11 +63,11 @@ some feature are simply not implemented, because we do not need them:
 * `O_TRUNC` creates are not atomic (FUSE restriction)
 
 
 * `O_TRUNC` creates are not atomic (FUSE restriction)
 
 
-File access rights
-~~~~~~~~~~~~~~~~~~
+File Access Rights
+------------------
 
 
-All files and directories are owned by user 'root' and have group
-'www-data'. Only root has write permissions, but group 'www-data' can
+All files and directories are owned by user `root` and have group
+`www-data`. Only root has write permissions, but group `www-data` can
 read most files. Files below the following paths:
 
  /etc/pve/priv/
 read most files. Files below the following paths:
 
  /etc/pve/priv/
@@ -73,15 +75,16 @@ read most files. Files below the following paths:
 
 are only accessible by root.
 
 
 are only accessible by root.
 
+
 Technology
 ----------
 
 We use the http://www.corosync.org[Corosync Cluster Engine] for
 cluster communication, and http://www.sqlite.org[SQlite] for the
 Technology
 ----------
 
 We use the http://www.corosync.org[Corosync Cluster Engine] for
 cluster communication, and http://www.sqlite.org[SQlite] for the
-database file. The filesystem is implemented in user space using
+database file. The file system is implemented in user space using
 http://fuse.sourceforge.net[FUSE].
 
 http://fuse.sourceforge.net[FUSE].
 
-File system layout
+File System Layout
 ------------------
 
 The file system is mounted at:
 ------------------
 
 The file system is mounted at:
@@ -93,49 +96,52 @@ Files
 
 [width="100%",cols="m,d"]
 |=======
 
 [width="100%",cols="m,d"]
 |=======
-|corosync.conf  |corosync cluster configuration file (previous to {pve} 4.x this file was called cluster.conf)
-|storage.cfg   |{pve} storage configuration
-|datacenter.cfg   |{pve} datacenter wide configuration (keyboard layout, proxy, ...)
-|user.cfg      |{pve} access control configuration (users/groups/...)
-|domains.cfg   |{pve} Authentication domains 
-|authkey.pub   | public key used by ticket system
-|pve-root-ca.pem | public certificate of cluster CA
-|priv/shadow.cfg  | shadow password file
-|priv/authkey.key | private key used by ticket system
-|priv/pve-root-ca.key | private key of cluster CA
-|nodes/<NAME>/pve-ssl.pem                 | public ssl certificate for web server (signed by cluster CA)
-|nodes/<NAME>/pve-ssl.key            | private ssl key for pve-ssl.pem
-|nodes/<NAME>/pveproxy-ssl.pem       | public ssl certificate (chain) for web server (optional override for pve-ssl.pem)
-|nodes/<NAME>/pveproxy-ssl.key       | private ssl key for pveproxy-ssl.pem (optional)
-|nodes/<NAME>/qemu-server/<VMID>.conf    | VM configuration data for KVM VMs
-|nodes/<NAME>/lxc/<VMID>.conf         | VM configuration data for LXC containers
-|firewall/cluster.fw | Firewall config applied to all nodes
-|firewall/<NAME>.fw  | Firewall config for individual nodes
-|firewall/<VMID>.fw  | Firewall config for VMs and Containers
+|`corosync.conf`                        | Corosync cluster configuration file (previous to {pve} 4.x this file was called cluster.conf)
+|`storage.cfg`                          | {pve} storage configuration
+|`datacenter.cfg`                       | {pve} datacenter wide configuration (keyboard layout, proxy, ...)
+|`user.cfg`                             | {pve} access control configuration (users/groups/...)
+|`domains.cfg`                          | {pve} authentication domains
+|`authkey.pub`                          | Public key used by ticket system
+|`pve-root-ca.pem`                      | Public certificate of cluster CA
+|`priv/shadow.cfg`                      | Shadow password file
+|`priv/authkey.key`                     | Private key used by ticket system
+|`priv/pve-root-ca.key`                 | Private key of cluster CA
+|`nodes/<NAME>/pve-ssl.pem`             | Public SSL certificate for web server (signed by cluster CA)
+|`nodes/<NAME>/pve-ssl.key`             | Private SSL key for `pve-ssl.pem`
+|`nodes/<NAME>/pveproxy-ssl.pem`        | Public SSL certificate (chain) for web server (optional override for `pve-ssl.pem`)
+|`nodes/<NAME>/pveproxy-ssl.key`        | Private SSL key for `pveproxy-ssl.pem` (optional)
+|`nodes/<NAME>/qemu-server/<VMID>.conf` | VM configuration data for KVM VMs
+|`nodes/<NAME>/lxc/<VMID>.conf`         | VM configuration data for LXC containers
+|`firewall/cluster.fw`                  | Firewall configuration applied to all nodes
+|`firewall/<NAME>.fw`                   | Firewall configuration for individual nodes
+|`firewall/<VMID>.fw`                   | Firewall configuration for VMs and Containers
 |=======
 
 |=======
 
+
 Symbolic links
 ~~~~~~~~~~~~~~
 
 [width="100%",cols="m,m"]
 |=======
 Symbolic links
 ~~~~~~~~~~~~~~
 
 [width="100%",cols="m,m"]
 |=======
-|local         |nodes/<LOCAL_HOST_NAME>
-|qemu-server   |nodes/<LOCAL_HOST_NAME>/qemu-server/
-|lxc           |nodes/<LOCAL_HOST_NAME>/lxc/
+|`local`         | `nodes/<LOCAL_HOST_NAME>`
+|`qemu-server`   | `nodes/<LOCAL_HOST_NAME>/qemu-server/`
+|`lxc`           | `nodes/<LOCAL_HOST_NAME>/lxc/`
 |=======
 
 |=======
 
+
 Special status files for debugging (JSON)
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
 [width="100%",cols="m,d"]
 |=======
 Special status files for debugging (JSON)
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
 [width="100%",cols="m,d"]
 |=======
-| .version    |file versions (to detect file modifications)
-| .members    |Info about cluster members
-| .vmlist     |List of all VMs
-| .clusterlog |Cluster log (last 50 entries)
-| .rrd        |RRD data (most recent entries)
+|`.version`    |File versions (to detect file modifications)
+|`.members`    |Info about cluster members
+|`.vmlist`     |List of all VMs
+|`.clusterlog` |Cluster log (last 50 entries)
+|`.rrd`        |RRD data (most recent entries)
 |=======
 
 |=======
 
+
 Enable/Disable debugging
 ~~~~~~~~~~~~~~~~~~~~~~~~
 
 Enable/Disable debugging
 ~~~~~~~~~~~~~~~~~~~~~~~~
 
@@ -153,13 +159,14 @@ Recovery
 
 If you have major problems with your Proxmox VE host, e.g. hardware
 issues, it could be helpful to just copy the pmxcfs database file
 
 If you have major problems with your Proxmox VE host, e.g. hardware
 issues, it could be helpful to just copy the pmxcfs database file
-/var/lib/pve-cluster/config.db and move it to a new Proxmox VE
+`/var/lib/pve-cluster/config.db` and move it to a new Proxmox VE
 host. On the new host (with nothing running), you need to stop the
 host. On the new host (with nothing running), you need to stop the
-pve-cluster service and replace the config.db file (needed permissions
-0600). Second, adapt '/etc/hostname' and '/etc/hosts' according to the
-lost Proxmox VE host, then reboot and check. (And donยดt forget your
+`pve-cluster` service and replace the `config.db` file (needed permissions
+`0600`). Second, adapt `/etc/hostname` and `/etc/hosts` according to the
+lost Proxmox VE host, then reboot and check. (And don't forget your
 VM/CT data)
 
 VM/CT data)
 
+
 Remove Cluster configuration
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
 Remove Cluster configuration
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
@@ -170,7 +177,7 @@ shared configuration data is destroyed.
 In some cases, you might prefer to put a node back to local mode
 without reinstall, which is described here:
 
 In some cases, you might prefer to put a node back to local mode
 without reinstall, which is described here:
 
-* stop the cluster file system in '/etc/pve/'
+* stop the cluster file system in `/etc/pve/`
 
  # systemctl stop pve-cluster
 
 
  # systemctl stop pve-cluster
 
@@ -178,7 +185,7 @@ without reinstall, which is described here:
 
  # pmxcfs -l
 
 
  # pmxcfs -l
 
-* remove the cluster config
+* remove the cluster configuration
 
  # rm /etc/pve/cluster.conf
  # rm /etc/cluster/cluster.conf
 
  # rm /etc/pve/cluster.conf
  # rm /etc/cluster/cluster.conf
@@ -186,14 +193,14 @@ without reinstall, which is described here:
 
 * stop the cluster file system again
 
 
 * stop the cluster file system again
 
- # service pve-cluster stop
+ # systemctl stop pve-cluster
 
 
-* restart pve services (or reboot)
+* restart PVE services (or reboot)
 
 
- # service pve-cluster start
- # service pvedaemon restart
- # service pveproxy restart
- # service pvestatd restart
+ # systemctl start pve-cluster
+ # systemctl restart pvedaemon
+ # systemctl restart pveproxy
+ # systemctl restart pvestatd
 
 
 ifdef::manvolnum[]
 
 
 ifdef::manvolnum[]