]> git.proxmox.com Git - ceph.git/blobdiff - ceph/doc/rados/configuration/pool-pg-config-ref.rst
update source to Ceph Pacific 16.2.2
[ceph.git] / ceph / doc / rados / configuration / pool-pg-config-ref.rst
index 04a7c107464136ffde74556f0540ad81f6241df6..b4b5df47802ad2e213c8291227e0ed6a79968538 100644 (file)
@@ -4,7 +4,7 @@
 
 .. index:: pools; configuration
 
-When you create pools and set the number of placement groups for the pool, Ceph
+When you create pools and set the number of placement groups (PGs) for each, Ceph
 uses default values when you don't specifically override the defaults. **We
 recommend** overriding some of the defaults. Specifically, we recommend setting
 a pool's replica size and overriding the default number of placement groups. You
@@ -17,15 +17,14 @@ Ceph configuration file.
    :language: ini
 
 
-
-``mon max pool pg num``
+``mon_max_pool_pg_num``
 
 :Description: The maximum number of placement groups per pool.
 :Type: Integer
 :Default: ``65536``
 
 
-``mon pg create interval``
+``mon_pg_create_interval``
 
 :Description: Number of seconds between PG creation in the same
               Ceph OSD Daemon.
@@ -34,7 +33,7 @@ Ceph configuration file.
 :Default: ``30.0``
 
 
-``mon pg stuck threshold``
+``mon_pg_stuck_threshold``
 
 :Description: Number of seconds after which PGs can be considered as
               being stuck.
@@ -42,60 +41,60 @@ Ceph configuration file.
 :Type: 32-bit Integer
 :Default: ``300``
 
-``mon pg min inactive``
+``mon_pg_min_inactive``
 
-:Description: Issue a ``HEALTH_ERR`` in cluster log if the number of PGs stay
-              inactive longer than ``mon_pg_stuck_threshold`` exceeds this
+:Description: Raise ``HEALTH_ERR`` if the count of PGs that have been
+              inactive longer than the ``mon_pg_stuck_threshold`` exceeds this
               setting. A non-positive number means disabled, never go into ERR.
 :Type: Integer
 :Default: ``1``
 
 
-``mon pg warn min per osd``
+``mon_pg_warn_min_per_osd``
 
-:Description: Issue a ``HEALTH_WARN`` in cluster log if the average number
-              of PGs per (in) OSD is under this number. (a non-positive number
-              disables this)
+:Description: Raise ``HEALTH_WARN`` if the average number
+              of PGs per ``in`` OSD is under this number. A non-positive number
+              disables this.
 :Type: Integer
 :Default: ``30``
 
 
-``mon pg warn min objects``
+``mon_pg_warn_min_objects``
 
-:Description: Do not warn if the total number of objects in cluster is below
+:Description: Do not warn if the total number of RADOS objects in cluster is below
               this number
 :Type: Integer
 :Default: ``1000``
 
 
-``mon pg warn min pool objects``
+``mon_pg_warn_min_pool_objects``
 
-:Description: Do not warn on pools whose object number is below this number
+:Description: Do not warn on pools whose RADOS object count is below this number
 :Type: Integer
 :Default: ``1000``
 
 
-``mon pg check down all threshold``
+``mon_pg_check_down_all_threshold``
 
-:Description: Threshold of down OSDs percentage after which we check all PGs
+:Description: Percentage threshold of ``down`` OSDs above which we check all PGs
               for stale ones.
 :Type: Float
 :Default: ``0.5``
 
 
-``mon pg warn max object skew``
+``mon_pg_warn_max_object_skew``
 
-:Description: Issue a ``HEALTH_WARN`` in cluster log if the average object number
-              of a certain pool is greater than ``mon pg warn max object skew`` times
-              the average object number of the whole pool. (zero or a non-positive
-              number disables this). Note that this option applies to the managers.
+:Description: Raise ``HEALTH_WARN`` if the average RADOS object count per PG
+              of any pool is greater than ``mon_pg_warn_max_object_skew`` times
+              the average RADOS object count per PG of all pools. Zero or a non-positive
+              number disables this. Note that this option applies to ``ceph-mgr`` daemons.
 :Type: Float
 :Default: ``10``
 
 
-``mon delta reset interval``
+``mon_delta_reset_interval``
 
-:Description: Seconds of inactivity before we reset the pg delta to 0. We keep
+:Description: Seconds of inactivity before we reset the PG delta to 0. We keep
               track of the delta of the used space of each pool, so, for
               example, it would be easier for us to understand the progress of
               recovery or the performance of cache tier. But if there's no
@@ -105,30 +104,30 @@ Ceph configuration file.
 :Default: ``10``
 
 
-``mon osd max op age``
+``mon_osd_max_op_age``
 
 :Description: Maximum op age before we get concerned (make it a power of 2).
-              A ``HEALTH_WARN`` will be issued if a request has been blocked longer
+              ``HEALTH_WARN`` will be raised if a request has been blocked longer
               than this limit.
 :Type: Float
 :Default: ``32.0``
 
 
-``osd pg bits``
+``osd_pg_bits``
 
 :Description: Placement group bits per Ceph OSD Daemon.
 :Type: 32-bit Integer
 :Default: ``6``
 
 
-``osd pgp bits``
+``osd_pgp_bits``
 
 :Description: The number of bits per Ceph OSD Daemon for PGPs.
 :Type: 32-bit Integer
 :Default: ``6``
 
 
-``osd crush chooseleaf type``
+``osd_crush_chooseleaf_type``
 
 :Description: The bucket type to use for ``chooseleaf`` in a CRUSH rule. Uses
               ordinal rank rather than name.
@@ -137,17 +136,17 @@ Ceph configuration file.
 :Default: ``1``. Typically a host containing one or more Ceph OSD Daemons.
 
 
-``osd crush initial weight``
+``osd_crush_initial_weight``
 
-:Description: The initial crush weight for newly added osds into crushmap.
+:Description: The initial CRUSH weight for newly added OSDs.
 
 :Type: Double
-:Default: ``the size of newly added osd in TB``. By default, the initial crush
-          weight for the newly added osd is set to its volume size in TB.
+:Default: ``the size of a newly added OSD in TB``. By default, the initial CRUSH
+          weight for a newly added OSD is set to its device size in TB.
           See `Weighting Bucket Items`_ for details.
 
 
-``osd pool default crush rule``
+``osd_pool_default_crush_rule``
 
 :Description: The default CRUSH rule to use when creating a replicated pool.
 :Type: 8-bit Integer
@@ -155,7 +154,7 @@ Ceph configuration file.
           use that".  This is to make pool creation work in the absence of rule 0.
 
 
-``osd pool erasure code stripe unit``
+``osd_pool_erasure_code_stripe_unit``
 
 :Description: Sets the default size, in bytes, of a chunk of an object
               stripe for erasure coded pools. Every object of size S
@@ -169,7 +168,7 @@ Ceph configuration file.
 :Default: ``4096``
 
 
-``osd pool default size``
+``osd_pool_default_size``
 
 :Description: Sets the number of replicas for objects in the pool. The default
               value is the same as
@@ -179,7 +178,7 @@ Ceph configuration file.
 :Default: ``3``
 
 
-``osd pool default min size``
+``osd_pool_default_min_size``
 
 :Description: Sets the minimum number of written replicas for objects in the
              pool in order to acknowledge a write operation to the client.  If
@@ -192,7 +191,7 @@ Ceph configuration file.
           minimum is ``size - (size / 2)``.
 
 
-``osd pool default pg num``
+``osd_pool_default_pg_num``
 
 :Description: The default number of placement groups for a pool. The default
               value is the same as ``pg_num`` with ``mkpool``.
@@ -201,7 +200,7 @@ Ceph configuration file.
 :Default: ``32``
 
 
-``osd pool default pgp num``
+``osd_pool_default_pgp_num``
 
 :Description: The default number of placement groups for placement for a pool.
               The default value is the same as ``pgp_num`` with ``mkpool``.
@@ -211,14 +210,14 @@ Ceph configuration file.
 :Default: ``8``
 
 
-``osd pool default flags``
+``osd_pool_default_flags``
 
 :Description: The default flags for new pools.
 :Type: 32-bit Integer
 :Default: ``0``
 
 
-``osd max pgls``
+``osd_max_pgls``
 
 :Description: The maximum number of placement groups to list. A client
               requesting a large number can tie up the Ceph OSD Daemon.
@@ -228,7 +227,7 @@ Ceph configuration file.
 :Note: Default should be fine.
 
 
-``osd min pg log entries``
+``osd_min_pg_log_entries``
 
 :Description: The minimum number of placement group logs to maintain
               when trimming log files.
@@ -237,7 +236,7 @@ Ceph configuration file.
 :Default: ``250``
 
 
-``osd max pg log entries``
+``osd_max_pg_log_entries``
 
 :Description: The maximum number of placement group logs to maintain
               when trimming log files.
@@ -246,7 +245,7 @@ Ceph configuration file.
 :Default: ``10000``
 
 
-``osd default data pool replay window``
+``osd_default_data_pool_replay_window``
 
 :Description: The time (in seconds) for an OSD to wait for a client to replay
               a request.
@@ -254,24 +253,24 @@ Ceph configuration file.
 :Type: 32-bit Integer
 :Default: ``45``
 
-``osd max pg per osd hard ratio``
+``osd_max_pg_per_osd_hard_ratio``
 
-:Description: The ratio of number of PGs per OSD allowed by the cluster before
-              OSD refuses to create new PGs. OSD stops creating new PGs if the number
+:Description: The ratio of number of PGs per OSD allowed by the cluster before the
+              OSD refuses to create new PGs. An OSD stops creating new PGs if the number
               of PGs it serves exceeds
-              ``osd max pg per osd hard ratio`` \* ``mon max pg per osd``.
+              ``osd_max_pg_per_osd_hard_ratio`` \* ``mon_max_pg_per_osd``.
 
 :Type: Float
 :Default: ``2``
 
-``osd recovery priority``
+``osd_recovery_priority``
 
 :Description: Priority of recovery in the work queue.
 
 :Type: Integer
 :Default: ``5``
 
-``osd recovery op priority``
+``osd_recovery_op_priority``
 
 :Description: Default priority used for recovery operations if pool doesn't override.