

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Erste Schritte mit GPU-beschleunigten Instances
<a name="gpu-instances-started"></a>

Die neueste Generation von GPU-beschleunigten Instance-Typen, wie sie in der folgenden Liste aufgeführt sind, bieten die leistungsstärksten Funktionen für Deep-Learning- und High Performance Computing (HPC)-Anwendungen. Wählen Sie den Link zum Instancetyp aus, um mehr über seine Funktionen zu erfahren.
+ [P6-Familie](https://aws.amazon.com/ec2/instance-types/p6/)
+ [P6-Familie](https://aws.amazon.com/ec2/instance-types/p6/)
+ [P5-Familie](https://aws.amazon.com/ec2/instance-types/p5/)

Eine vollständige Liste der Instance-Typspezifikationen für beschleunigte Instance-Typen finden Sie unter [Accelerated Computing](https://docs.aws.amazon.com/ec2/latest/instancetypes/ac.html) in der *Amazon EC2 Instance Types-Referenz*.

**Softwarekonfiguration**  
Der einfachste Weg, mit den GPU-beschleunigten Instance-Typen der neuesten Generation zu beginnen, besteht darin, eine Instance über ein AWS Deep Learning-AMI zu starten, das mit der gesamten erforderlichen Software vorkonfiguriert ist. *Aktuelle Informationen AWS Deep Learning AMIs zur Verwendung mit GPU-beschleunigten Instance-Typen finden Sie unter [P6 Supported DLAMI im AWS Deep Learning AMIs Developer](https://docs.aws.amazon.com/dlami/latest/devguide/p6-support-dlami.html) Guide.*

Wenn Sie ein benutzerdefiniertes AMI erstellen müssen, um Instances zu starten, die Deep-Learning- oder HPC-Anwendungen hosten, sollten Sie zusätzlich zu Ihrem Basis-Image die folgenden Mindest-Software-Versionen installieren:


| Instance-Typ | NVIDIA-Treiber | CUDA | NVIDIA GDRCopy | EFA-Installer | NCCL | EFA K8s ¹ | 
| --- | --- | --- | --- | --- | --- | --- | 
| G7e | 575 | 12,9 | 2.5 | 1,45,0 | 2,28,3 | 0.5,10 | 
| P5 | 530 | 12,1 | 2.3 | 1.24.1 | 2.18.3 | 0.4.4 | 
| P5.4xlarge | 530 | 12,1 | 2.3 | 1.43.1 ² | 2.18.3 | 0.4.4 | 
| P5e | 550 | 12,1 | 2.3 | 1.24.1 | 2.18.3 | 0.5.5 | 
| P5en | 550 | 12,1 | 2.3 | 1.24.1 | 2.18.3 | 0.5.6 | 
| P6-B200 | 570 | 12,8 | 2.5 | 1,41,0 | 2.26.2-1 | 0.5,10 | 
| P6e-0 GB2 | 570 | 12,8 | 2.5 | 1,41,0 | 2.26.2-1 | 0.5,10 | 
| P6-B300 | 580 | 13,0 | 2.5 | 1,44,0 | 2,28,3 | 0.5,10 | 

** ¹** Die Spalte **EFA K8s** enthält die empfohlene Mindestversion für `aws-efa-k8s-device-plugin`.

**²** Es gibt ein Kompatibilitätsproblem, das `P5.4xlarge` Instanzen betrifft, in denen der Elastic Fabric Adapter (EFA) und die NVIDIA Collective Communications Library (NCCL) für die GPU-to-GPU Kommunikation verwendet werden. Um das Problem zu beheben, setzen Sie die Umgebungsvariable `FI_HMEM_DISABLE_P2P` auf `1` und stellen Sie sicher, dass Sie EFA Version 1.43.1 oder neuer installieren.

**Anmerkung**  
Wenn Sie Version 1.41.0 des EFA-Installationsprogramms verwenden, ist `aws-ofi-nccl plugin` enthalten. Verwenden Sie für frühere Versionen des EFA-Installationsprogramms `aws-ofi-nccl plugin` Version `1.7.2-aws` oder höher.

Außerdem empfiehlt es sich, die Instance so zu konfigurieren, dass keine tieferen Ruhezustände verwendet werden. Weitere Informationen finden Sie unter [Hohe Performance und geringe Latenz durch die Beschränkung von tieferen C-Zuständen](https://docs.aws.amazon.com/linux/al2/ug/processor_state_control.html#c-states) im *Benutzerhandbuch für Amazon Linux 2*. Die neuesten AWS Deep Learning Base-GPUs AMIs sind so vorkonfiguriert, dass sie keine tieferen C-States verwenden.

Informationen zu Netzwerk und Elastic Fabric Adapter (EFA)-Konfiguration finden Sie unter [Maximieren der Netzwerkbandbreite auf Amazon-EC2-Instances mit mehreren Netzwerkkarten](efa-acc-inst-types.md).