Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Empfohlene Instanzen GPU
Für die meisten Deep-Learning-Zwecke empfehlen wir eine GPU Instanz. Das Trainieren neuer Modelle ist auf einer GPU Instanz schneller als auf einer CPU Instanz. Sie können sublinear skalieren, wenn Sie mehrere GPU Instanzen haben oder wenn Sie verteiltes Training auf viele Instanzen mit verwenden. GPUs
Die folgenden Instance-Typen unterstützen die. DLAMI Informationen zu GPU Instance-Typ-Optionen und deren Verwendung finden Sie unter und wählen Sie Accelerated Computing aus.
Anmerkung
Bei der Auswahl einer Instance sollte die Größe Ihres Modells eine Rolle spielen. Wenn Ihr Modell die Verfügbarkeit einer Instanz überschreitetRAM, wählen Sie einen anderen Instanztyp mit ausreichend Speicher für Ihre Anwendung.
-
Amazon EC2 P5e-Instances
haben bis zu 8 NVIDIA Tesla H200. GPUs -
Amazon EC2 P5-Instances
haben bis zu 8 NVIDIA Tesla GPUs H100. -
Amazon EC2 P4-Instances
haben bis zu 8 NVIDIA Tesla GPUs A100. Amazon EC2 P3-Instances
haben bis zu 8 NVIDIA Tesla GPUs V100. -
Amazon EC2 G3-Instances
haben bis zu 4 NVIDIA Tesla GPUs M60. -
Amazon EC2 G4-Instances
haben bis zu 4 NVIDIA GPUs T4. -
Amazon EC2 G5-Instances
haben bis zu 8 NVIDIA GPUs A10G. -
Amazon EC2 G6-Instances
haben bis zu 8 NVIDIA GPUs L4. -
Amazon EC2 G6e-Instances
haben bis zu 8 NVIDIA L40S Tensor Core. GPUs -
Amazon EC2 G5G-Instances
verfügen über ARM64-basierte AWS Graviton2-Prozessoren.
DLAMIInstances bieten Tools zur Überwachung und Optimierung Ihrer Prozesse. GPU Weitere Informationen zur Überwachung Ihrer GPU Prozesse finden Sie unterGPUÜberwachung und Optimierung.
Spezifische Tutorials zur Arbeit mit G5g-Instances finden Sie unterDie ARM64 DLAMI.