]> git.proxmox.com Git - ceph.git/blobdiff - ceph/doc/install/manual-deployment.rst
update sources to ceph Nautilus 14.2.1
[ceph.git] / ceph / doc / install / manual-deployment.rst
index 8899c92fbfea876c445c12c34d53ea9edd81b5ec..3de7b842d200cb76930f8343385d1d8c326ed3c9 100644 (file)
@@ -55,7 +55,7 @@ a number of things:
   especially useful when you are working with multiple clusters and you need to
   clearly understand which cluster your are working with.
 
-  For example, when you run multiple clusters in a `federated architecture`_,
+  For example, when you run multiple clusters in a :ref:`multisite configuration <multisite>`,
   the cluster name (e.g., ``us-west``, ``us-east``) identifies the cluster for
   the current CLI session. **Note:** To identify the cluster name on the
   command line interface, specify the Ceph configuration file with the
@@ -162,13 +162,17 @@ The procedure is as follows:
 #. Generate an administrator keyring, generate a ``client.admin`` user and add
    the user to the keyring. ::
 
-       sudo ceph-authtool --create-keyring /etc/ceph/ceph.client.admin.keyring --gen-key -n client.admin --set-uid=0 --cap mon 'allow *' --cap osd 'allow *' --cap mds 'allow *' --cap mgr 'allow *'
+       sudo ceph-authtool --create-keyring /etc/ceph/ceph.client.admin.keyring --gen-key -n client.admin --cap mon 'allow *' --cap osd 'allow *' --cap mds 'allow *' --cap mgr 'allow *'
 
+#. Generate a bootstrap-osd keyring, generate a ``client.bootstrap-osd`` user and add
+   the user to the keyring. ::
 
-#. Add the ``client.admin`` key to the ``ceph.mon.keyring``. ::
+       sudo ceph-authtool --create-keyring /var/lib/ceph/bootstrap-osd/ceph.keyring --gen-key -n client.bootstrap-osd --cap mon 'profile bootstrap-osd'
 
-       ceph-authtool /tmp/ceph.mon.keyring --import-keyring /etc/ceph/ceph.client.admin.keyring
+#. Add the generated keys to the ``ceph.mon.keyring``. ::
 
+       sudo ceph-authtool /tmp/ceph.mon.keyring --import-keyring /etc/ceph/ceph.client.admin.keyring
+       sudo ceph-authtool /tmp/ceph.mon.keyring --import-keyring /var/lib/ceph/bootstrap-osd/ceph.keyring
 
 #. Generate a monitor map using the hostname(s), host IP address(es) and the FSID.
    Save it as ``/tmp/monmap``::
@@ -186,7 +190,7 @@ The procedure is as follows:
 
    For example::
 
-       sudo mkdir /var/lib/ceph/mon/ceph-node1
+       sudo -u ceph mkdir /var/lib/ceph/mon/ceph-node1
 
    See `Monitor Config Reference - Data`_ for details.
 
@@ -213,7 +217,7 @@ The procedure is as follows:
        auth client required = cephx
        osd journal size = {n}
        osd pool default size = {n}  # Write an object n times.
-       osd pool default min size = {n} # Allow writing n copy in a degraded state.
+       osd pool default min size = {n} # Allow writing n copies in a degraded state.
        osd pool default pg num = {n}
        osd pool default pgp num = {n}
        osd crush chooseleaf type = {n}
@@ -236,41 +240,18 @@ The procedure is as follows:
        osd pool default pgp num = 333
        osd crush chooseleaf type = 1
 
-#. Touch the ``done`` file.
-
-   Mark that the monitor is created and ready to be started::
-
-       sudo touch /var/lib/ceph/mon/ceph-node1/done
 
 #. Start the monitor(s).
 
-   For Ubuntu, use Upstart::
-
-       sudo start ceph-mon id=node1 [cluster={cluster-name}]
-
-   In this case, to allow the start of the daemon at each reboot you
-   must create two empty files like this::
-
-       sudo touch /var/lib/ceph/mon/{cluster-name}-{hostname}/upstart
-
-   For example::
+   For most distributions, services are started via systemd now::
 
-       sudo touch /var/lib/ceph/mon/ceph-node1/upstart
+       sudo systemctl start ceph-mon@node1
 
-   For Debian/CentOS/RHEL, use sysvinit::
+   For older Debian/CentOS/RHEL, use sysvinit::
 
        sudo /etc/init.d/ceph start mon.node1
 
 
-#. Verify that Ceph created the default pools. ::
-
-       ceph osd lspools
-
-   You should see output like this::
-
-       0 data,1 metadata,2 rbd,
-
-
 #. Verify that the monitor is running. ::
 
        ceph -s
@@ -279,16 +260,24 @@ The procedure is as follows:
    you should see a health error indicating that placement groups are stuck
    inactive. It should look something like this::
 
-       cluster a7f64266-0894-4f1e-a635-d0aeaca0e993
-         health HEALTH_ERR 192 pgs stuck inactive; 192 pgs stuck unclean; no osds
-         monmap e1: 1 mons at {node1=192.168.0.1:6789/0}, election epoch 1, quorum 0 node1
-         osdmap e1: 0 osds: 0 up, 0 in
-         pgmap v2: 192 pgs, 3 pools, 0 bytes data, 0 objects
-            0 kB used, 0 kB / 0 kB avail
-            192 creating
+      cluster:
+        id:     a7f64266-0894-4f1e-a635-d0aeaca0e993
+        health: HEALTH_OK
+
+      services:
+        mon: 1 daemons, quorum node1
+        mgr: node1(active)
+        osd: 0 osds: 0 up, 0 in
+
+      data:
+        pools:   0 pools, 0 pgs
+        objects: 0 objects, 0 bytes
+        usage:   0 kB used, 0 kB / 0 kB avail
+        pgs:
+
 
    **Note:** Once you add OSDs and start them, the placement group health errors
-   should disappear. See the next section for details.
+   should disappear. See `Adding OSDs`_ for details.
 
 Manager daemon configuration
 ============================
@@ -537,7 +526,6 @@ To add (or remove) additional monitors, see `Add/Remove Monitors`_.
 To add (or remove) additional Ceph OSD Daemons, see `Add/Remove OSDs`_.
 
 
-.. _federated architecture: ../../radosgw/federated-config
 .. _Installation (Quick): ../../start
 .. _Add/Remove Monitors: ../../rados/operations/add-or-rm-mons
 .. _Add/Remove OSDs: ../../rados/operations/add-or-rm-osds