]> git.proxmox.com Git - pve-docs.git/blobdiff - qm-pci-passthrough.adoc
sdn: unify installing sdn and ifupdown2 in one command
[pve-docs.git] / qm-pci-passthrough.adoc
index 452ecb7ec697f839b7d1c3e4317b65a05adab496..1f2fd885732e4120879925141f9c10a895139a88 100644 (file)
@@ -46,7 +46,7 @@ some configuration to enable PCI(e) passthrough.
 .IOMMU
 
 The IOMMU has to be activated on the
-xref:edit_kernel_cmdline[kernel commandline].
+xref:sysboot_edit_kernel_cmdline[kernel commandline].
 
 The command line parameters are:
 
@@ -82,9 +82,6 @@ After changing anything modules related, you need to refresh your
 # update-initramfs -u -k all
 ----
 
-If you are using `systemd-boot` make sure to
-xref:systemd-boot-refresh[sync the new initramfs to the bootable partitions].
-
 .Finish Configuration
 
 Finally reboot to bring the changes into effect and check that it is indeed
@@ -152,7 +149,7 @@ PCI(e) card, for example a GPU or a network card.
 Host Configuration
 ^^^^^^^^^^^^^^^^^^
 
-In this case, the host cannot use the card. There are two methods to achieve
+In this case, the host must not use the card. There are two methods to achieve
 this:
 
 * pass the device IDs to the options of the 'vfio-pci' modules by adding
@@ -165,7 +162,7 @@ to a .conf file in */etc/modprobe.d/* where `1234:5678` and `4321:8765` are
 the vendor and device IDs obtained by:
 +
 ----
-# lcpci -nn
+# lspci -nn
 ----
 
 * blacklist the driver completely on the host, ensuring that it is free to bind
@@ -181,6 +178,23 @@ For both methods you need to
 xref:qm_pci_passthrough_update_initramfs[update the `initramfs`] again and
 reboot after that.
 
+.Verify Configuration
+
+To check if your changes were successful, you can use
+
+----
+# lspci -nnk
+----
+
+and check your device entry. If it says
+
+----
+Kernel driver in use: vfio-pci
+----
+
+or the 'in use' line is missing entirely, the device is ready to be used for
+passthrough.
+
 [[qm_pci_passthrough_vm_config]]
 VM Configuration
 ^^^^^^^^^^^^^^^^
@@ -295,7 +309,7 @@ Mediated Devices (vGPU, GVT-g)
 
 Mediated devices are another method to reuse features and performance from
 physical hardware for virtualized hardware. These are found most common in
-virtualized GPU setups such as Intels GVT-g and Nvidias vGPUs used in their
+virtualized GPU setups such as Intel's GVT-g and NVIDIA's vGPUs used in their
 GRID technology.
 
 With this, a physical Card is able to create virtual cards, similar to SR-IOV.
@@ -310,13 +324,13 @@ In general your card's driver must support that feature, otherwise it will
 not work. So please refer to your vendor for compatible drivers and how to
 configure them.
 
-Intels drivers for GVT-g are integrated in the Kernel and should work
+Intel's drivers for GVT-g are integrated in the Kernel and should work
 with 5th, 6th and 7th generation Intel Core Processors, as well as E3 v4, E3
 v5 and E3 v6 Xeon Processors.
 
 To enable it for Intel Graphics, you have to make sure to load the module
 'kvmgt' (for example via `/etc/modules`) and to enable it on the
-xref:edit_kernel_cmdline[Kernel commandline] and add the following parameter:
+xref:sysboot_edit_kernel_cmdline[Kernel commandline] and add the following parameter:
 
 ----
  i915.enable_gvt=1