]> git.proxmox.com Git - pve-docs.git/blobdiff - pveceph.1-synopsis.adoc
fix #5429: network: override device names: include Type=ether
[pve-docs.git] / pveceph.1-synopsis.adoc
index 7bc02a87bd9ff837a02ebf0cf6a553b6305721f3..12f450138301dd2741abc5a142dc0dc0a0095ed0 100644 (file)
 *pveceph* `<COMMAND> [ARGS] [OPTIONS]`
 
+*pveceph createmgr*
+
+An alias for 'pveceph mgr create'.
+
 *pveceph createmon*
 
-Create Ceph Monitor
+An alias for 'pveceph mon create'.
 
+*pveceph createosd*
 
+An alias for 'pveceph osd create'.
 
+*pveceph createpool*
 
-*pveceph createosd* `<dev>` `[OPTIONS]`
+An alias for 'pveceph pool create'.
 
-Create OSD
+*pveceph destroymgr*
 
-`<dev>` `string` ::
+An alias for 'pveceph mgr destroy'.
 
-Block device name.
+*pveceph destroymon*
 
-`-fstype` `(btrfs | ext4 | xfs)` (default=`xfs`)::
+An alias for 'pveceph mon destroy'.
 
-File system type.
+*pveceph destroyosd*
 
-`-journal_dev` `string` ::
+An alias for 'pveceph osd destroy'.
 
-Block device name for journal.
+*pveceph destroypool*
 
+An alias for 'pveceph pool destroy'.
 
+*pveceph fs create* `[OPTIONS]`
 
+Create a Ceph filesystem
 
-*pveceph createpool* `<name>` `[OPTIONS]`
+`--add-storage` `<boolean>` ('default =' `0`)::
 
-Create POOL
+Configure the created CephFS as storage for this cluster.
 
-`<name>` `string` ::
+`--name` `<string>` ('default =' `cephfs`)::
 
-The name of the pool. It must be unique.
+The ceph filesystem name.
 
-`-crush_ruleset` `integer (0 - 32768)` (default=`0`)::
+`--pg_num` `<integer> (8 - 32768)` ('default =' `128`)::
 
-The ruleset to use for mapping object placement in the cluster.
+Number of placement groups for the backing data pool. The metadata pool will use a quarter of this.
 
-`-min_size` `integer (1 - 3)` (default=`1`)::
+*pveceph fs destroy* `<name>` `[OPTIONS]`
 
-Minimum number of replicas per object
+Destroy a Ceph filesystem
 
-`-pg_num` `integer (8 - 32768)` (default=`64`)::
+`<name>`: `<string>` ::
 
-Number of placement groups.
+The ceph filesystem name.
 
-`-size` `integer (1 - 3)` (default=`2`)::
+`--remove-pools` `<boolean>` ('default =' `0`)::
 
-Number of replicas per object
+Remove data and metadata pools configured for this fs.
+
+`--remove-storages` `<boolean>` ('default =' `0`)::
+
+Remove all pveceph-managed storages configured for this fs.
+
+*pveceph help* `[OPTIONS]`
+
+Get help about specified command.
+
+`--extra-args` `<array>` ::
+
+Shows help for a specific command
+
+`--verbose` `<boolean>` ::
+
+Verbose output format.
 
+*pveceph init* `[OPTIONS]`
+
+Create initial ceph default configuration and setup symlinks.
+
+`--cluster-network` `<string>` ::
+
+Declare a separate cluster network, OSDs will routeheartbeat, object replication and recovery traffic over it
++
+NOTE: Requires option(s): `network`
+
+`--disable_cephx` `<boolean>` ('default =' `0`)::
+
+Disable cephx authentication.
++
+WARNING: cephx is a security feature protecting against man-in-the-middle attacks. Only consider disabling cephx if your network is private!
+
+`--min_size` `<integer> (1 - 7)` ('default =' `2`)::
+
+Minimum number of available replicas per object to allow I/O
 
+`--network` `<string>` ::
 
-*pveceph destroymon* `<monid>`
+Use specific network for all ceph related traffic
+
+`--pg_bits` `<integer> (6 - 14)` ('default =' `6`)::
+
+Placement group bits, used to specify the default number of placement groups.
++
+Depreacted. This setting was deprecated in recent Ceph versions.
+
+`--size` `<integer> (1 - 7)` ('default =' `3`)::
+
+Targeted number of replicas per object
+
+*pveceph install* `[OPTIONS]`
+
+Install ceph related packages.
 
-Destroy Ceph monitor.
+`--allow-experimental` `<boolean>` ('default =' `0`)::
 
-`<monid>` `integer` ::
+Allow experimental versions. Use with care!
+
+`--repository` `<enterprise | no-subscription | test>` ('default =' `enterprise`)::
+
+Ceph repository to use.
+
+`--version` `<quincy | reef>` ('default =' `quincy`)::
+
+Ceph version to install.
+
+*pveceph lspools*
+
+An alias for 'pveceph pool ls'.
+
+*pveceph mds create* `[OPTIONS]`
+
+Create Ceph Metadata Server (MDS)
+
+`--hotstandby` `<boolean>` ('default =' `0`)::
+
+Determines whether a ceph-mds daemon should poll and replay the log of an active MDS. Faster switch on MDS failure, but needs more idle resources.
+
+`--name` `[a-zA-Z0-9]([a-zA-Z0-9\-]*[a-zA-Z0-9])?` ('default =' `nodename`)::
+
+The ID for the mds, when omitted the same as the nodename
+
+*pveceph mds destroy* `<name>`
+
+Destroy Ceph Metadata Server
+
+`<name>`: `[a-zA-Z0-9]([a-zA-Z0-9\-]*[a-zA-Z0-9])?` ::
+
+The name (ID) of the mds
+
+*pveceph mgr create* `[OPTIONS]`
+
+Create Ceph Manager
+
+`--id` `[a-zA-Z0-9]([a-zA-Z0-9\-]*[a-zA-Z0-9])?` ::
+
+The ID for the manager, when omitted the same as the nodename
+
+*pveceph mgr destroy* `<id>`
+
+Destroy Ceph Manager.
+
+`<id>`: `[a-zA-Z0-9]([a-zA-Z0-9\-]*[a-zA-Z0-9])?` ::
+
+The ID of the manager
+
+*pveceph mon create* `[OPTIONS]`
+
+Create Ceph Monitor and Manager
+
+`--mon-address` `<string>` ::
+
+Overwrites autodetected monitor IP address(es). Must be in the public network(s) of Ceph.
+
+`--monid` `[a-zA-Z0-9]([a-zA-Z0-9\-]*[a-zA-Z0-9])?` ::
+
+The ID for the monitor, when omitted the same as the nodename
+
+*pveceph mon destroy* `<monid>`
+
+Destroy Ceph Monitor and Manager.
+
+`<monid>`: `[a-zA-Z0-9]([a-zA-Z0-9\-]*[a-zA-Z0-9])?` ::
 
 Monitor ID
 
+*pveceph osd create* `<dev>` `[OPTIONS]`
+
+Create OSD
+
+`<dev>`: `<string>` ::
+
+Block device name.
+
+`--crush-device-class` `<string>` ::
+
+Set the device class of the OSD in crush.
+
+`--db_dev` `<string>` ::
+
+Block device name for block.db.
+
+`--db_dev_size` `<number> (1 - N)` ('default =' `bluestore_block_db_size or 10% of OSD size`)::
 
+Size in GiB for block.db.
++
+NOTE: Requires option(s): `db_dev`
 
+`--encrypted` `<boolean>` ('default =' `0`)::
 
-*pveceph destroyosd* `<osdid>` `[OPTIONS]`
+Enables encryption of the OSD.
+
+`--osds-per-device` `<integer> (1 - N)` ::
+
+OSD services per physical device. Only useful for fast NVMe devices"
+                   ." to utilize their performance better.
+
+`--wal_dev` `<string>` ::
+
+Block device name for block.wal.
+
+`--wal_dev_size` `<number> (0.5 - N)` ('default =' `bluestore_block_wal_size or 1% of OSD size`)::
+
+Size in GiB for block.wal.
++
+NOTE: Requires option(s): `wal_dev`
+
+*pveceph osd destroy* `<osdid>` `[OPTIONS]`
 
 Destroy OSD
 
-`<osdid>` `integer` ::
+`<osdid>`: `<integer>` ::
 
 OSD ID
 
-`-cleanup` `boolean` (default=`0`)::
+`--cleanup` `<boolean>` ('default =' `0`)::
 
 If set, we remove partition table entries.
 
+*pveceph osd details* `<osdid>` `[OPTIONS]` `[FORMAT_OPTIONS]`
 
+Get OSD details.
 
+`<osdid>`: `<string>` ::
 
-*pveceph destroypool* `<name>`
+ID of the OSD
 
-Destroy pool
+`--verbose` `<boolean>` ('default =' `0`)::
 
-`<name>` `string` ::
+Print verbose information, same as json-pretty output format.
 
-The name of the pool. It must be unique.
+*pveceph pool create* `<name>` `[OPTIONS]`
 
+Create Ceph pool
 
+`<name>`: `<string>` ::
 
+The name of the pool. It must be unique.
 
-*pveceph help* `[<cmd>]` `[OPTIONS]`
+`--add_storages` `<boolean>` ('default =' `0; for erasure coded pools: 1`)::
 
-Get help about specified command.
+Configure VM and CT storage using the new pool.
 
-`<cmd>` `string` ::
+`--application` `<cephfs | rbd | rgw>` ('default =' `rbd`)::
 
-Command name
+The application of the pool.
 
-`-verbose` `boolean` ::
+`--crush_rule` `<string>` ::
 
-Verbose output format.
+The rule to use for mapping object placement in the cluster.
 
+`--erasure-coding` `k=<integer> ,m=<integer> [,device-class=<class>] [,failure-domain=<domain>] [,profile=<profile>]` ::
 
+Create an erasure coded pool for RBD with an accompaning replicated pool for metadata storage. With EC, the common ceph options 'size', 'min_size' and 'crush_rule' parameters will be applied to the metadata pool.
 
+`--min_size` `<integer> (1 - 7)` ('default =' `2`)::
 
-*pveceph init* `[OPTIONS]`
+Minimum number of replicas per object
 
-Create initial ceph default configuration and setup symlinks.
+`--pg_autoscale_mode` `<off | on | warn>` ('default =' `warn`)::
 
-`-network` `string` ::
+The automatic PG scaling mode of the pool.
 
-Use specific network for all ceph related traffic
+`--pg_num` `<integer> (1 - 32768)` ('default =' `128`)::
+
+Number of placement groups.
 
-`-pg_bits` `integer (6 - 14)` (default=`6`)::
+`--pg_num_min` `<integer> (-N - 32768)` ::
 
-Placement group bits, used to specify the default number of placement
-groups (Note: 'osd pool default pg num' does not work for deafult pools)
+Minimal number of placement groups.
 
-`-size` `integer (1 - 3)` (default=`2`)::
+`--size` `<integer> (1 - 7)` ('default =' `3`)::
 
 Number of replicas per object
 
+`--target_size` `^(\d+(\.\d+)?)([KMGT])?$` ::
 
+The estimated target size of the pool for the PG autoscaler.
 
+`--target_size_ratio` `<number>` ::
 
-*pveceph install* `[OPTIONS]`
+The estimated target ratio of the pool for the PG autoscaler.
 
-Install ceph related packages.
+*pveceph pool destroy* `<name>` `[OPTIONS]`
 
-`-version` `(hammer)` ::
+Destroy pool
 
-no description available
+`<name>`: `<string>` ::
 
+The name of the pool. It must be unique.
 
+`--force` `<boolean>` ('default =' `0`)::
 
+If true, destroys pool even if in use
 
-*pveceph lspools*
+`--remove_ecprofile` `<boolean>` ('default =' `1`)::
 
-List all pools.
+Remove the erasure code profile. Defaults to true, if applicable.
 
+`--remove_storages` `<boolean>` ('default =' `0`)::
 
+Remove all pveceph-managed storages configured for this pool
 
+*pveceph pool get* `<name>` `[OPTIONS]` `[FORMAT_OPTIONS]`
 
-*pveceph purge*
+Show the current pool status.
 
-Destroy ceph related data and configuration files.
+`<name>`: `<string>` ::
 
+The name of the pool. It must be unique.
 
+`--verbose` `<boolean>` ('default =' `0`)::
 
+If enabled, will display additional data(eg. statistics).
 
-*pveceph start* `[<service>]`
+*pveceph pool ls* `[FORMAT_OPTIONS]`
 
-Start ceph services.
+List all pools and their settings (which are settable by the POST/PUT
+endpoints).
 
-`<service>` `(mon|mds|osd)\.[A-Za-z0-9]{1,32}` ::
+*pveceph pool set* `<name>` `[OPTIONS]`
 
-Ceph service name.
+Change POOL settings
 
+`<name>`: `<string>` ::
 
+The name of the pool. It must be unique.
 
-*pveceph status*
+`--application` `<cephfs | rbd | rgw>` ::
 
-Get ceph status.
+The application of the pool.
 
+`--crush_rule` `<string>` ::
 
+The rule to use for mapping object placement in the cluster.
 
-*pveceph stop* `[<service>]`
+`--min_size` `<integer> (1 - 7)` ::
 
-Stop ceph services.
+Minimum number of replicas per object
+
+`--pg_autoscale_mode` `<off | on | warn>` ::
+
+The automatic PG scaling mode of the pool.
+
+`--pg_num` `<integer> (1 - 32768)` ::
+
+Number of placement groups.
+
+`--pg_num_min` `<integer> (-N - 32768)` ::
+
+Minimal number of placement groups.
+
+`--size` `<integer> (1 - 7)` ::
+
+Number of replicas per object
+
+`--target_size` `^(\d+(\.\d+)?)([KMGT])?$` ::
+
+The estimated target size of the pool for the PG autoscaler.
+
+`--target_size_ratio` `<number>` ::
+
+The estimated target ratio of the pool for the PG autoscaler.
 
-`<service>` `(mon|mds|osd)\.[A-Za-z0-9]{1,32}` ::
+*pveceph purge* `[OPTIONS]`
+
+Destroy ceph related data and configuration files.
+
+`--crash` `<boolean>` ::
+
+Additionally purge Ceph crash logs, /var/lib/ceph/crash.
+
+`--logs` `<boolean>` ::
+
+Additionally purge Ceph logs, /var/log/ceph.
+
+*pveceph start* `[OPTIONS]`
+
+Start ceph services.
+
+`--service` `(ceph|mon|mds|osd|mgr)(\.[a-zA-Z0-9]([a-zA-Z0-9\-]*[a-zA-Z0-9])?)?` ('default =' `ceph.target`)::
 
 Ceph service name.
 
+*pveceph status*
+
+Get Ceph Status.
+
+*pveceph stop* `[OPTIONS]`
 
+Stop ceph services.
+
+`--service` `(ceph|mon|mds|osd|mgr)(\.[a-zA-Z0-9]([a-zA-Z0-9\-]*[a-zA-Z0-9])?)?` ('default =' `ceph.target`)::
+
+Ceph service name.