]> git.proxmox.com Git - ceph.git/blobdiff - ceph/doc/dev/quick_guide.rst
update source to Ceph Pacific 16.2.2
[ceph.git] / ceph / doc / dev / quick_guide.rst
index 873a86e02f975b20ed5ff7b29830ca3c37877ad2..8e27dfb4b714ebd929db6f7d0997d13fb7b995f2 100644 (file)
@@ -11,19 +11,19 @@ The ``run-make-check.sh`` script will install Ceph dependencies,
 compile everything in debug mode and run a number of tests to verify
 the result behaves as expected.
 
-.. code::
+.. prompt:: bash $
 
-       $ ./run-make-check.sh
+   ./run-make-check.sh
 
 Optionally if you want to work on a specific component of Ceph,
 install the dependencies and build Ceph in debug mode with required cmake flags.
 
 Example:
 
-.. code::
+.. prompt:: bash $
 
-    $ ./install-deps.sh
-    $ ./do_cmake.sh -DWITH_MANPAGE=OFF -DWITH_BABELTRACE=OFF -DWITH_MGR_DASHBOARD_FRONTEND=OFF
+   ./install-deps.sh
+   ./do_cmake.sh -DWITH_MANPAGE=OFF -DWITH_BABELTRACE=OFF -DWITH_MGR_DASHBOARD_FRONTEND=OFF
 
 Running a development deployment
 --------------------------------
@@ -31,71 +31,71 @@ Ceph contains a script called ``vstart.sh`` (see also :doc:`/dev/dev_cluster_dep
 a simple deployment on your development system. Once the build finishes successfully, start the ceph
 deployment using the following command:
 
-.. code::
+.. prompt:: bash $
 
-       $ cd ceph/build  # Assuming this is where you ran cmake
-       $ make vstart
-       $ ../src/vstart.sh -d -n -x
+   cd ceph/build  # Assuming this is where you ran cmake
+   make vstart
+   ../src/vstart.sh -d -n -x
 
 You can also configure ``vstart.sh`` to use only one monitor and one metadata server by using the following:
 
-.. code::
+.. prompt:: bash $
 
-       $ MON=1 MDS=1 ../src/vstart.sh -d -n -x
+   MON=1 MDS=1 ../src/vstart.sh -d -n -x
 
 The system creates two pools on startup: `cephfs_data_a` and `cephfs_metadata_a`.  Let's get some stats on
 the current pools:
 
-.. code::
+.. code-block:: console
 
-       $ bin/ceph osd pool stats
-       *** DEVELOPER MODE: setting PATH, PYTHONPATH and LD_LIBRARY_PATH ***
-       pool cephfs_data_a id 1
-         nothing is going on
+  $ bin/ceph osd pool stats
+  *** DEVELOPER MODE: setting PATH, PYTHONPATH and LD_LIBRARY_PATH ***
+  pool cephfs_data_a id 1
+    nothing is going on
        
-       pool cephfs_metadata_a id 2
-         nothing is going on
+  pool cephfs_metadata_a id 2
+    nothing is going on
        
-       $ bin/ceph osd pool stats cephfs_data_a
-       *** DEVELOPER MODE: setting PATH, PYTHONPATH and LD_LIBRARY_PATH ***
-       pool cephfs_data_a id 1
-         nothing is going on
+  $ bin/ceph osd pool stats cephfs_data_a
+  *** DEVELOPER MODE: setting PATH, PYTHONPATH and LD_LIBRARY_PATH ***
+  pool cephfs_data_a id 1
+    nothing is going on
 
-       $ bin/rados df
-       POOL_NAME         USED OBJECTS CLONES COPIES MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS RD WR_OPS WR
-       cephfs_data_a        0       0      0      0                  0       0        0      0  0      0    0
-       cephfs_metadata_a 2246      21      0     63                  0       0        0      0  0     42 8192
+  $ bin/rados df
+  POOL_NAME         USED OBJECTS CLONES COPIES MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS RD WR_OPS WR
+  cephfs_data_a        0       0      0      0                  0       0        0      0  0      0    0
+  cephfs_metadata_a 2246      21      0     63                  0       0        0      0  0     42 8192
 
-       total_objects    21
-       total_used       244G
-       total_space      1180G
+  total_objects    21
+  total_used       244G
+  total_space      1180G
 
 
 Make a pool and run some benchmarks against it:
 
-.. code::
+.. prompt:: bash $
 
-       $ bin/ceph osd pool create mypool
-       $ bin/rados -p mypool bench 10 write -b 123
+   bin/ceph osd pool create mypool
+   bin/rados -p mypool bench 10 write -b 123
 
 Place a file into the new pool:
 
-.. code::
+.. prompt:: bash $
 
-       $ bin/rados -p mypool put objectone <somefile>
-       $ bin/rados -p mypool put objecttwo <anotherfile>
+   bin/rados -p mypool put objectone <somefile>
+   bin/rados -p mypool put objecttwo <anotherfile>
 
 List the objects in the pool:
 
-.. code::
+.. prompt:: bash $
 
-       $ bin/rados -p mypool ls
+   bin/rados -p mypool ls
 
 Once you are done, type the following to stop the development ceph deployment:
 
-.. code::
+.. prompt:: bash $
 
-       $ ../src/stop.sh
+   ../src/stop.sh
 
 Resetting your vstart environment
 ---------------------------------
@@ -104,29 +104,29 @@ The vstart script creates out/ and dev/ directories which contain
 the cluster's state.  If you want to quickly reset your environment,
 you might do something like this:
 
-.. code::
+.. prompt:: bash [build]$
 
-    [build]$ ../src/stop.sh
-    [build]$ rm -rf out dev
-    [build]$ MDS=1 MON=1 OSD=3 ../src/vstart.sh -n -d
+   ../src/stop.sh
+   rm -rf out dev
+   MDS=1 MON=1 OSD=3 ../src/vstart.sh -n -d
 
 Running a RadosGW development environment
 -----------------------------------------
 
 Set the ``RGW`` environment variable when running vstart.sh to enable the RadosGW.
 
-.. code::
+.. prompt:: bash $
 
-       $ cd build
-       $ RGW=1 ../src/vstart.sh -d -n -x
+   cd build
+   RGW=1 ../src/vstart.sh -d -n -x
 
 You can now use the swift python client to communicate with the RadosGW.
 
-.. code::
+.. prompt:: bash $
 
-    $ swift -A http://localhost:8000/auth -U test:tester -K testing list
-    $ swift -A http://localhost:8000/auth -U test:tester -K testing upload mycontainer ceph
-    $ swift -A http://localhost:8000/auth -U test:tester -K testing list
+   swift -A http://localhost:8000/auth -U test:tester -K testing list
+   swift -A http://localhost:8000/auth -U test:tester -K testing upload mycontainer ceph
+   swift -A http://localhost:8000/auth -U test:tester -K testing list
 
 
 Run unit tests
@@ -134,7 +134,7 @@ Run unit tests
 
 The tests are located in `src/tests`.  To run them type:
 
-.. code::
+.. prompt:: bash $
 
-       $ make check
+   make check