]> git.proxmox.com Git - ceph.git/blobdiff - ceph/doc/cephadm/services/osd.rst
update ceph source to reef 18.1.2
[ceph.git] / ceph / doc / cephadm / services / osd.rst
index d9554006c1a69ecbcb9d9d7183973aba9fe26b37..00e414c1b2bcf0a4afa4d4e76afd087006fbe8e4 100644 (file)
@@ -144,6 +144,18 @@ There are a few ways to create new OSDs:
 
     ceph orch daemon add osd host1:data_devices=/dev/sda,/dev/sdb,db_devices=/dev/sdc,osds_per_device=2
 
+* Create an OSD on a specific LVM logical volume on a specific host:
+
+  .. prompt:: bash #
+
+    ceph orch daemon add osd *<host>*:*<lvm-path>*
+
+  For example:
+
+  .. prompt:: bash #
+
+    ceph orch daemon add osd host1:/dev/vg_osd/lvm_osd1701
+
 * You can use :ref:`drivegroups` to categorize device(s) based on their
   properties. This might be useful in forming a clearer picture of which
   devices are available to consume. Properties include device type (SSD or
@@ -196,9 +208,6 @@ After running the above command:
 * If you remove an OSD and clean the LVM physical volume, a new OSD will be
   created automatically.
 
-To disable the automatic creation of OSD on available devices, use the
-``unmanaged`` parameter:
-
 If you want to avoid this behavior (disable automatic creation of OSD on available devices), use the ``unmanaged`` parameter:
 
 .. prompt:: bash #
@@ -308,7 +317,7 @@ Replacing an OSD
 
 .. prompt:: bash #
 
-  orch osd rm <osd_id(s)> --replace [--force]
+  ceph orch osd rm <osd_id(s)> --replace [--force]
 
 Example:
 
@@ -578,7 +587,7 @@ To include disks equal to or greater than 40G in size:
 
 Sizes don't have to be specified exclusively in Gigabytes(G).
 
-Other units of size are supported: Megabyte(M), Gigabyte(G) and Terrabyte(T).
+Other units of size are supported: Megabyte(M), Gigabyte(G) and Terabyte(T).
 Appending the (B) for byte is also supported: ``MB``, ``GB``, ``TB``.
 
 
@@ -656,6 +665,7 @@ See a full list in the DriveGroupSpecs
    :members:
    :exclude-members: from_json
 
+
 Examples
 ========
 
@@ -759,7 +769,7 @@ This can be described with two layouts.
       host_pattern: '*'
     spec:
       data_devices:
-        rotational: 0
+        rotational: 1
       db_devices:
         model: MC-55-44-XZ
         limit: 2 # db_slots is actually to be favoured here, but it's not implemented yet
@@ -775,7 +785,7 @@ This can be described with two layouts.
         vendor: VendorC
 
 This would create the desired layout by using all HDDs as data_devices with two SSD assigned as dedicated db/wal devices.
-The remaining SSDs(8) will be data_devices that have the 'VendorC' NVMEs assigned as dedicated db/wal devices.
+The remaining SSDs(10) will be data_devices that have the 'VendorC' NVMEs assigned as dedicated db/wal devices.
 
 Multiple hosts with the same disk layout
 ----------------------------------------
@@ -795,11 +805,11 @@ Node1-5
 .. code-block:: none
 
     20 HDDs
-    Vendor: Intel
+    Vendor: VendorA
     Model: SSD-123-foo
     Size: 4TB
     2 SSDs
-    Vendor: VendorA
+    Vendor: VendorB
     Model: MC-55-44-ZX
     Size: 512GB
 
@@ -808,11 +818,11 @@ Node6-10
 .. code-block:: none
 
     5 NVMEs
-    Vendor: Intel
+    Vendor: VendorA
     Model: SSD-123-foo
     Size: 4TB
     20 SSDs
-    Vendor: VendorA
+    Vendor: VendorB
     Model: MC-55-44-ZX
     Size: 512GB
 
@@ -840,6 +850,7 @@ You can use the 'placement' key in the layout to target certain nodes.
       db_devices:
         model: SSD-123-foo
 
+
 This applies different OSD specs to different hosts depending on the `placement` key.
 See :ref:`orchestrator-cli-placement-spec`