]> git.proxmox.com Git - ceph.git/blobdiff - ceph/doc/cephadm/drivegroups.rst
import 15.2.5
[ceph.git] / ceph / doc / cephadm / drivegroups.rst
index ae9b9205fc85416b75cb94a96712b23c3a36a32a..f1dd523e2220473a61d64296a5ea58eaccbefc9c 100644 (file)
@@ -40,10 +40,27 @@ This will go out on all the matching hosts and deploy these OSDs.
 
 Since we want to have more complex setups, there are more filters than just the 'all' filter.
 
+Also, there is a `--dry-run` flag that can be passed to the `apply osd` command, which gives you a synopsis
+of the proposed layout.
+
+Example::
+
+  [monitor 1] # ceph orch apply osd -i /path/to/osd_spec.yml --dry-run
+
+
 
 Filters
 =======
 
+.. note::
+   Filters are applied using a `AND` gate by default. This essentially means that a drive needs to fulfill all filter
+   criteria in order to get selected.
+   If you wish to change this behavior you can adjust this behavior by setting
+
+    `filter_logic: OR`  # valid arguments are `AND`, `OR`
+
+   in the OSD Specification.
+
 You can assign disks to certain groups by their attributes using filters.
 
 The attributes are based off of ceph-volume's disk query. You can retrieve the information