]> git.proxmox.com Git - ceph.git/blobdiff - ceph/doc/mgr/localpool.rst
import quincy beta 17.1.0
[ceph.git] / ceph / doc / mgr / localpool.rst
index fe8bd3942a9ad2f5b5767eb1100861181e9919e3..2812925caf30214f39067524c37f673ee474eb31 100644 (file)
@@ -1,6 +1,8 @@
 Local Pool Module
 =================
 
+.. mgr_module:: localpool
+
 The *localpool* module can automatically create RADOS pools that are
 localized to a subset of the overall cluster.  For example, by default, it will
 create a pool for each distinct ``rack`` in the cluster.  This can be useful for
@@ -20,18 +22,18 @@ Configuring
 
 The *localpool* module understands the following options:
 
-* **subtree** (default: `rack`): which CRUSH subtree type the module
-  should create a pool for.
-* **failure_domain** (default: `host`): what failure domain we should
-  separate data replicas across.
-* **pg_num** (default: `128`): number of PGs to create for each pool
-* **num_rep** (default: `3`): number of replicas for each pool.
-  (Currently, pools are always replicated.)
-* **min_size** (default: none): value to set min_size to (unchanged from Ceph's default if this option is not set)
-* **prefix** (default: `by-$subtreetype-`): prefix for the pool name.
+.. confval:: subtree
+.. confval:: failure_domain
+.. confval:: pg_num
+.. confval:: num_rep
+.. confval:: min_size
+.. confval:: prefix
+   :default: by-$subtreetype-
 
 These options are set via the config-key interface.  For example, to
 change the replication level to 2x with only 64 PGs, ::
 
   ceph config set mgr mgr/localpool/num_rep 2
   ceph config set mgr mgr/localpool/pg_num 64
+
+.. mgr_module:: None