]> git.proxmox.com Git - pve-docs.git/blobdiff - pve-system-requirements.adoc
fixup: s/devies/devices/
[pve-docs.git] / pve-system-requirements.adoc
index b7646ffb6da951b98f98c7c37957fe7cce09d9e9..e9685cf66a001a6e881e93ae447d27def3c28191 100644 (file)
@@ -1,6 +1,8 @@
 System Requirements
 -------------------
 System Requirements
 -------------------
-include::attributes.txt[]
+ifdef::wiki[]
+:pve-toplevel:
+endif::wiki[]
 
 For production servers, high quality server equipment is needed. Keep
 in mind, if you run 10 Virtual Servers on one machine and you then
 
 For production servers, high quality server equipment is needed. Keep
 in mind, if you run 10 Virtual Servers on one machine and you then
@@ -9,7 +11,7 @@ supports clustering, this means that multiple {pve} installations
 can be centrally managed thanks to the included cluster functionality.
 
 {pve} can use local storage (DAS), SAN, NAS and also distributed
 can be centrally managed thanks to the included cluster functionality.
 
 {pve} can use local storage (DAS), SAN, NAS and also distributed
-storage (Ceph RBD). For details see xref:chapter-storage[chapter storage].
+storage (Ceph RBD). For details see xref:chapter_storage[chapter storage].
 
 
 Minimum Requirements, for Evaluation
 
 
 Minimum Requirements, for Evaluation
@@ -29,15 +31,47 @@ Minimum Requirements, for Evaluation
 Recommended System Requirements
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
 Recommended System Requirements
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
-* CPU: 64bit (Intel EMT64 or AMD64), Multi core CPU recommended
+* Intel EMT64 or AMD64 with Intel VT/AMD-V CPU flag.
 
 
-* Intel VT/AMD-V capable CPU/Mainboard for KVM Full Virtualization support
+* Memory, minimum 2 GB for OS and Proxmox VE services. Plus designated memory
+  for guests. For Ceph or ZFS additional memory is required, approximately 1 GB
+  memory for every TB used storage.
+
+* Fast and redundant storage, best results with SSD disks.
+
+* OS storage: Hardware RAID with batteries protected write cache (``BBU'') or
+  non-RAID with ZFS and SSD cache.
+
+* VM storage: For local storage use a hardware RAID with battery backed
+  write cache (BBU) or non-RAID for ZFS. Neither ZFS nor Ceph are compatible
+  with a hardware RAID controller. Shared and distributed storage is also
+  possible.
+
+* Redundant Gbit NICs, additional NICs depending on the preferred storage
+  technology and cluster setup – 10 Gbit and higher is also supported.
+
+* For PCI passthrough a CPU with VT-d/AMD-d CPU flag is needed.
+
+
+Simple Performance Overview
+~~~~~~~~~~~~~~~~~~~~~~~~~~~
+
+On an installed {pve} system, you can run the included `pveperf` script
+to obtain an overview of the CPU and hard disk performance.
 
 
-* RAM: 8 GB RAM, plus additional RAM used for guests
+NOTE: this is just a very quick and general benchmark. More detailed tests
+are recommended, especially regarding the I/O performance of your system.
 
 
-* Hardware RAID with batteries protected write cache (``BBU'') or flash
- based protection
+Supported web browsers for accessing the web interface
+~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
+To use the web interface you need a modern browser, this includes:
 
 
-* Fast hard drives, best results with 15k rpm SAS, Raid10
+* Firefox, a release from the current year, or the latest Extended
+Support Release
+* Chrome, a release from the current year
+* Microsoft's currently supported versions of Internet Explorer (as
+of 2019, this means IE 11 or IE Edge)
+* Safari, a release from the current year
 
 
-* At least two NICs, depending on the used storage technology you need more
+If {pve} detects you're connecting from a mobile device, you will be
+redirected to a lightweight touch-based UI.