]> git.proxmox.com Git - ceph.git/blobdiff - ceph/doc/rados/index.rst
import quincy beta 17.1.0
[ceph.git] / ceph / doc / rados / index.rst
index 5f3f112e8544bab7711f6099dbe1bdaf3b5fb0fe..b506b7a7ea1748eeef162fd3800d2dbb0d354a67 100644 (file)
@@ -6,71 +6,74 @@
 
 The :term:`Ceph Storage Cluster` is the foundation for all Ceph deployments.
 Based upon :abbr:`RADOS (Reliable Autonomic Distributed Object Store)`, Ceph
-Storage Clusters consist of two types of daemons: a :term:`Ceph OSD Daemon`
-(OSD) stores data as objects on a storage node; and a :term:`Ceph Monitor` (MON)
-maintains a master copy of the cluster map. A Ceph Storage Cluster may contain
-thousands of storage nodes. A minimal system will have at least one 
-Ceph Monitor and two Ceph OSD Daemons for data replication. 
+Storage Clusters consist of several types of daemons: 
+
+  1. a :term:`Ceph OSD Daemon` (OSD) stores data as objects on a storage node
+  2. a :term:`Ceph Monitor` (MON) maintains a master copy of the cluster map. 
+  3. a :term:`Ceph Manager`  manager daemon
+       
+A Ceph Storage Cluster might contain thousands of storage nodes. A
+minimal system has at least one Ceph Monitor and two Ceph OSD
+Daemons for data replication. 
 
 The Ceph File System, Ceph Object Storage and Ceph Block Devices read data from
 and write data to the Ceph Storage Cluster.
 
-.. raw:: html
+.. container:: columns-3
+
+   .. container:: column
+
+      .. raw:: html
+
+          <h3>Config and Deploy</h3>
+
+      Ceph Storage Clusters have a few required settings, but most configuration
+      settings have default values. A typical deployment uses a deployment tool
+      to define a cluster and bootstrap a monitor. See :ref:`cephadm` for details.
 
-       <style type="text/css">div.body h3{margin:5px 0px 0px 0px;}</style>
-       <table cellpadding="10"><colgroup><col width="33%"><col width="33%"><col width="33%"></colgroup><tbody valign="top"><tr><td><h3>Config and Deploy</h3>
+      .. toctree::
+         :maxdepth: 2
 
-Ceph Storage Clusters have a few required settings, but most configuration
-settings have default values. A typical deployment uses a deployment tool 
-to define a cluster and bootstrap a monitor. See `Deployment`_ for details 
-on ``cephadm.``
+         Configuration <configuration/index>
 
-.. toctree::
-       :maxdepth: 2
+   .. container:: column
 
-       Configuration <configuration/index>
-       Deployment <../cephadm/index>
+      .. raw:: html
 
-.. raw:: html 
+          <h3>Operations</h3>
 
-       </td><td><h3>Operations</h3>
+      Once you have deployed a Ceph Storage Cluster, you may begin operating
+      your cluster.
 
-Once you have deployed a Ceph Storage Cluster, you may begin operating 
-your cluster.
+      .. toctree::
+         :maxdepth: 2
 
-.. toctree::
-       :maxdepth: 2
-       
-       
-       Operations <operations/index>
+         Operations <operations/index>
 
-.. toctree::
-       :maxdepth: 1
+      .. toctree::
+         :maxdepth: 1
 
-       Man Pages <man/index>
+         Man Pages <man/index>
 
+      .. toctree::
+         :hidden:
 
-.. toctree:: 
-       :hidden:
-       
-       troubleshooting/index
+         troubleshooting/index
 
-.. raw:: html 
+   .. container:: column
 
-       </td><td><h3>APIs</h3>
+      .. raw:: html
 
-Most Ceph deployments use `Ceph Block Devices`_, `Ceph Object Storage`_ and/or the
-`Ceph File System`_. You  may also develop applications that talk directly to
-the Ceph Storage Cluster.
+          <h3>APIs</h3>
 
-.. toctree::
-       :maxdepth: 2
+      Most Ceph deployments use `Ceph Block Devices`_, `Ceph Object Storage`_ and/or the
+      `Ceph File System`_. You  may also develop applications that talk directly to
+      the Ceph Storage Cluster.
 
-       APIs <api/index>
-       
-.. raw:: html
+      .. toctree::
+         :maxdepth: 2
 
-       </td></tr></tbody></table>
+         APIs <api/index>
 
 .. _Ceph Block Devices: ../rbd/
 .. _Ceph File System: ../cephfs/