

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Empfohlene GPU-Instances
<a name="gpu"></a>

Für die meisten Deep-Learning-Zwecke empfehlen wir eine GPU-Instanz. Das Trainieren neuer Modelle ist auf einer GPU-Instanz schneller als auf einer CPU-Instanz. Sie können sublinear skalieren, wenn Sie mehrere GPU-Instanzen haben oder wenn Sie verteiltes Training auf viele Instanzen mit verwenden. GPUs 

Die folgenden Instance-Typen unterstützen das DLAMI. Informationen zu den Optionen für GPU-Instanztypen und deren Verwendung finden Sie unter und wählen Sie **Accelerated** Computing aus.

**Anmerkung**  
Die Größe Ihres Modells sollte bei der Auswahl einer Instanz eine Rolle spielen. Wenn Ihr Modell den verfügbaren Arbeitsspeicher einer Instanz überschreitet, wählen Sie einen anderen Instance-Typ mit ausreichend Arbeitsspeicher für Ihre Anwendung. 
+ [Amazon EC2 P6-B200-Instances verfügen über bis zu 8 NVIDIA Blackwell B200](https://aws.amazon.com/ec2/instance-types/p6/). GPUs
+ [Amazon EC2 P6-B300-Instances](https://aws.amazon.com/ec2/instance-types/p6/) verfügen über bis zu 8 NVIDIA Blackwell B300. GPUs
+ [Amazon EC2 P6e- GB2 00 Instances](https://aws.amazon.com/ec2/instance-types/p6/) haben bis zu 4 NVIDIA GB2 Blackwell 00. GPUs
+ [Amazon EC2 P5e-Instances](https://aws.amazon.com/ec2/instance-types/p5/) verfügen über bis zu 8 NVIDIA Tesla H200. GPUs
+ [Amazon EC2 P5-Instances](https://aws.amazon.com/ec2/instance-types/p5/) verfügen über bis zu 8 NVIDIA Tesla GPUs H100.
+ [Amazon EC2 P4-Instances](https://aws.amazon.com/ec2/instance-types/p4/) verfügen über bis zu 8 NVIDIA Tesla GPUs A100.
+ [Amazon EC2 P3-Instances](https://aws.amazon.com/ec2/instance-types/p3/) verfügen über bis zu 8 NVIDIA Tesla GPUs V100.
+ [Amazon EC2 G3-Instances](https://aws.amazon.com/ec2/instance-types/g3/) verfügen über bis zu 4 NVIDIA Tesla GPUs M60.
+ [Amazon EC2 G4-Instances](https://aws.amazon.com/ec2/instance-types/g4/) verfügen über bis zu 4 NVIDIA GPUs T4.
+ [Amazon EC2 G5-Instances](https://aws.amazon.com/ec2/instance-types/g5/) verfügen über bis zu 8 NVIDIA GPUs A10G.
+ [Amazon EC2 G6-Instances](https://aws.amazon.com/ec2/instance-types/g6/) verfügen über bis zu 8 NVIDIA GPUs L4.
+ [Amazon EC2 G6e-Instances](https://aws.amazon.com/ec2/instance-types/g6e/) verfügen über bis zu 8 NVIDIA L40S Tensor Core. GPUs
+ [Amazon EC2 G5G-Instances](https://aws.amazon.com/ec2/instance-types/g5g/) [verfügen über ARM64-basierte AWS Graviton2-Prozessoren.](https://aws.amazon.com/ec2/graviton/)

DLAMI-Instanzen bieten Tools zur Überwachung und Optimierung Ihrer GPU-Prozesse. Weitere Informationen zur Überwachung Ihrer GPU-Prozesse finden Sie unter. [GPU-Überwachung und -Optimierung](tutorial-gpu.md)

Spezifische Tutorials zur Arbeit mit G5G-Instances finden Sie unter[Das ARM64 DLAMI](tutorial-arm64.md).

**Nächstes Thema**  
[Empfohlene CPU-Instances](cpu.md)