

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Erste Schritte mit DLAMI
<a name="getting-started"></a>

Dieser Leitfaden enthält Tipps zur Auswahl des für Sie geeigneten DLAMI, zur Auswahl eines Instance-Typs, der zu Ihrem Anwendungsfall und Budget passt, und [Weitere Informationen über DLAMI](resources.md) beschreibt benutzerdefinierte Setups, die von Interesse sein könnten.

Wenn Sie Amazon noch nicht verwenden AWS oder verwenden EC2, beginnen Sie mit dem[Deep-Learning-AMI mit Conda](overview-conda.md). Wenn Sie mit Amazon EC2 und anderen AWS Diensten wie Amazon EMR, Amazon EFS oder Amazon S3 vertraut sind und daran interessiert sind, diese Services für Projekte zu integrieren, die verteilte Schulungen oder Inferenzen benötigen, dann schauen Sie [Weitere Informationen über DLAMI](resources.md) nach, ob einer für Ihren Anwendungsfall geeignet ist. 

Wir empfehlen Ihnen, sich zuerst über [Einen DLAMI wählen](choose-dlami.md) zu informieren und so den am besten geeigneten Instance-Typ zu bestimmen.

**Nächster Schritt**  
[Einen DLAMI wählen](choose-dlami.md)

# Einen DLAMI wählen
<a name="choose-dlami"></a>

Wir bieten eine Reihe von DLAMI-Optionen an, wie in den [GPU-DLAMI-Versionshinweisen](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu) erwähnt. Um Ihnen bei der Auswahl des richtigen DLAMI für Ihren Anwendungsfall zu helfen, gruppieren wir Images nach dem Hardwaretyp oder der Funktionalität, für die sie entwickelt wurden. Unsere Gruppierungen auf oberster Ebene sind:
+ **DLAMI-Typ: Basis, Einzelframework, Multi-Framework (Conda DLAMI**)
+ **[Rechenarchitektur: x86-basiertes, ARM64-basiertes Graviton AWS](https://aws.amazon.com/ec2/graviton/)**
+ **Prozessortyp:** [https://docs.aws.amazon.com/dlami/latest/devguide/cpu](https://docs.aws.amazon.com/dlami/latest/devguide/cpu)
+ **SDK** [https://developer.nvidia.com/cuda-toolkit](https://developer.nvidia.com/cuda-toolkit)
+ **Betriebssystem:** Amazon Linux, Ubuntu

Die restlichen Themen in diesem Handbuch helfen Ihnen dabei, Sie weiter zu informieren und näher zu erläutern. 

**Topics**
+ [CUDA-Installationen und Framework-Bindungen](overview-cuda.md)
+ [Deep-Learning-Basis-AMI](overview-base.md)
+ [Deep-Learning-AMI mit Conda](overview-conda.md)
+ [DLAMI-Architekturoptionen](overview-architecture.md)
+ [DLAMI-Betriebssystemoptionen](overview-os.md)

**Nächstes Thema**  
[Deep-Learning-AMI mit Conda](overview-conda.md)

# CUDA-Installationen und Framework-Bindungen
<a name="overview-cuda"></a>

Deep Learning ist zwar ziemlich modern, aber jedes Framework bietet „stabile“ Versionen. Diese stabilen Versionen funktionieren unter Umständen nicht mit den neuesten CUDA- oder cuDNN-Implementierungen und -Funktionen. Ihr Anwendungsfall und die Funktionen, die Sie benötigen, können Ihnen bei der Auswahl eines Frameworks helfen. Wenn Sie sich nicht sicher sind, verwenden Sie das neueste Deep Learning AMI mit Conda. Es enthält offizielle `pip` Binärdateien für alle Frameworks mit CUDA, wobei die neueste Version verwendet wird, die von jedem Framework unterstützt wird. Wenn Sie die neuesten Versionen benötigen und Ihre Deep-Learning-Umgebung anpassen möchten, verwenden Sie das Deep Learning Base AMI.

Weitere Informationen finden Sie in unserem Handbuch in [Stable versus Release-Kandidaten](overview-conda.md#overview-conda-stability).

## Wählen Sie ein DLAMI mit CUDA
<a name="cuda-choose"></a>

Die [Deep-Learning-Basis-AMI](overview-base.md) hat alle verfügbaren CUDA-Versionsserien

Die [Deep-Learning-AMI mit Conda](overview-conda.md) hat alle verfügbaren CUDA-Versionsserien

**Anmerkung**  
Wir schließen die Umgebungen CNTK MXNet, Caffe, Caffe2, Theano, Chainer oder Keras Conda nicht mehr in die ein. AWS Deep Learning AMIs

Spezifische Framework-Versionsnummern finden Sie in der [AMIs Versionshinweise zu Deep Learning](appendix-ami-release-notes.md)

Wählen Sie diesen DLAMI-Typ oder erfahren Sie DLAMIs mit der Option **Next Up mehr über die Unterschiede**.

Wählen Sie eine der CUDA-Versionen aus und lesen Sie die vollständige Liste der Versionen, für DLAMIs die diese Version verfügbar ist, im **Anhang**, oder erfahren Sie mehr über die verschiedenen Versionen DLAMIs mit der Option **Next** Up.

**Nächstes Thema**  
[Deep-Learning-Basis-AMI](overview-base.md)

## Verwandte Themen
<a name="cuda-related"></a>
+ Anweisungen zum Wechseln zwischen CUDA-Versionen finden Sie im [Verwenden des Deep Learning Base AMI](tutorial-base.md)-Tutorial.

# Deep-Learning-Basis-AMI
<a name="overview-base"></a>

Das Deep Learning Base AMI ist wie eine leere Leinwand für Deep Learning. Es enthält alles, was Sie bis zur Installation eines bestimmten Frameworks benötigen, und bietet eine Auswahl an CUDA-Versionen Ihrer Wahl. 

## Warum sollten Sie sich für das Base DLAMI entscheiden
<a name="base-why"></a>

Diese AMI-Gruppe ist nützlich für Projektbeteiligte, die ein Deep-Learning-Projekt aufspalten und das aktuelle erstellen möchten. Es ist für Entwickler gedacht, die ihre eigene Umgebung mit der Gewissheit bereitstellen möchten, dass die neueste NVIDIA-Software installiert ist und funktioniert, damit sie ungestört auswählen können, welche Frameworks und Versionen sie installieren möchten. 

Wählen Sie diesen DLAMI-Typ oder erfahren Sie DLAMIs mit der Option **Next Up mehr über die Unterschiede**.

**Nächstes Thema**  
[DLAMI mit Conda](https://docs.aws.amazon.com/dlami/latest/devguide/overview-conda.html)

## Verwandte Themen
<a name="base-related"></a>
+ [Verwenden des Deep Learning Base AMI](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-base.html)

# Deep-Learning-AMI mit Conda
<a name="overview-conda"></a>

Das Conda DLAMI verwendet `conda` virtuelle Umgebungen, sie sind entweder in mehreren Frameworks oder in einem einzigen Framework vorhanden. DLAMIs Diese Umgebungen sind so konfiguriert, dass die verschiedenen Framework-Installationen getrennt bleiben und der Wechsel zwischen Frameworks rationalisiert wird. Dies ist ideal, um mit allen Frameworks zu lernen und zu experimentieren, die das DLAMI zu bieten hat. Die meisten Benutzer finden, dass das neue Deep Learning AMI mit Conda perfekt für sie ist. 

Sie werden häufig mit den neuesten Versionen der Frameworks aktualisiert und verfügen über die neuesten GPU-Treiber und -Software. Sie werden in den meisten Dokumenten allgemein als *„die* AWS Deep Learning AMIs “ bezeichnet. Diese DLAMIs unterstützen die Betriebssysteme Ubuntu 20.04, Ubuntu 22.04, Amazon Linux 2 und Amazon Linux 2023. Die Unterstützung von Betriebssystemen hängt von der Unterstützung durch das vorgelagerte Betriebssystem ab.

## Stable versus Release-Kandidaten
<a name="overview-conda-stability"></a>

Die Conda AMIs verwenden optimierte Binärdateien der neuesten formellen Versionen aus jedem Framework. Release-Kandidaten und experimentelle Funktionen sind nicht zu erwarten. Die Optimierungen hängen von der Unterstützung des Frameworks für Beschleunigungstechnologien wie Intels MKL DNN ab, wodurch das Training und die Inferenz für C5- und C4-CPU-Instance-Typen beschleunigt werden. Die Binärdateien wurden außerdem so kompiliert, dass sie erweiterte Intel-Befehlssätze unterstützen, einschließlich, aber nicht beschränkt auf AVX, AVX-2, .1 und .2. SSE4 SSE4 Diese beschleunigen Vektor- und Gleitkommaoperationen auf Intel-CPU-Architekturen. Darüber hinaus werden CUDA und cuDNN für GPU-Instance-Typen mit der Version aktualisiert, die die neueste offizielle Version unterstützt. 

Das Deep Learning AMI mit Conda installiert bei der ersten Aktivierung des Frameworks automatisch die optimierteste Version des Frameworks für Ihre EC2 Amazon-Instance. Weitere Informationen finden Sie unter [Verwenden des Deep Learning-AMI mit Conda](tutorial-conda.md). 

Wenn Sie aus dem Quellcode installieren und dabei benutzerdefinierte oder optimierte Build-Optionen verwenden möchten, [Deep-Learning-Basis-AMI](overview-base.md) ist s möglicherweise die bessere Option für Sie.

## Beendigung von Python 2
<a name="overview-conda-python2"></a>

Die Python-Open-Source-Community hat die Unterstützung für Python 2 am 1.Januar 2020 offiziell beendet. Die TensorFlow PyTorch AND-Community hat angekündigt, dass die Versionen TensorFlow 2.1 und PyTorch 1.4 die letzten sind, die Python 2 unterstützen. Frühere Versionen des DLAMI (v26, v25 usw.), die Python 2 Conda-Umgebungen enthalten, sind weiterhin verfügbar. Wir stellen jedoch Updates für die Python 2 Conda-Umgebungen auf zuvor veröffentlichten DLAMI-Versionen nur bereit, wenn von der Open-Source-Community Sicherheitsupdates für diese Versionen veröffentlicht wurden. DLAMI-Versionen mit den neuesten Versionen der PyTorch Frameworks TensorFlow und enthalten nicht die Python 2 Conda-Umgebungen.

## CUDA Support
<a name="overview-conda-cuda"></a>

Spezifische CUDA-Versionsnummern finden Sie in den [GPU-DLAMI-Versionshinweisen](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu).

**Nächstes Thema**  
[DLAMI-Architekturoptionen](overview-architecture.md)

## Verwandte Themen
<a name="conda-related"></a>
+ Ein Tutorial zur Verwendung eines Deep Learning-AMI mit Conda finden Sie im [Verwenden des Deep Learning-AMI mit Conda](tutorial-conda.md) Tutorial.

# DLAMI-Architekturoptionen
<a name="overview-architecture"></a>

AWS Deep Learning AMIs[s werden entweder mit x86-basierten oder ARM64-basierten Graviton2-Architekturen angeboten.AWS](https://aws.amazon.com/ec2/graviton/)

Hinweise zu den ersten Schritten mit dem ARM64 GPU-DLAMI finden Sie unter. [Das ARM64 DLAMI](tutorial-arm64.md) Weitere Informationen zu verfügbaren Instance-Typen finden Sie unter. [Auswahl eines DLAMI-Instanztyps](instance-select.md)

**Nächstes Thema**  
[DLAMI-Betriebssystemoptionen](overview-os.md)

# DLAMI-Betriebssystemoptionen
<a name="overview-os"></a>

DLAMIs werden in den folgenden Betriebssystemen angeboten.
+ Amazon Linux 2
+ Amazon Linux 2023
+ Ubuntu 20.04
+ Ubuntu 22.04

Ältere Versionen von Betriebssystemen sind als veraltet DLAMIs verfügbar. [Weitere Informationen zur Veralterung von DLAMI finden Sie unter Veraltete Versionen für DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/deprecations.html)

Bevor Sie sich für ein DLAMI entscheiden, sollten Sie abwägen, welchen Instance-Typ Sie benötigen, und Ihre AWS Region identifizieren.

**Nächstes Thema**  
[Auswahl eines DLAMI-Instanztyps](instance-select.md)

# Auswahl eines DLAMI-Instanztyps
<a name="instance-select"></a>

Generell sollten Sie bei der Auswahl eines Instance-Typs für ein DLAMI Folgendes beachten.
+ Wenn Sie mit Deep Learning noch nicht vertraut sind, könnte eine Instanz mit einer einzelnen GPU Ihren Anforderungen entsprechen.
+ Wenn Sie budgetbewusst sind, können Sie Instances verwenden, die nur auf CPUs basieren.
+ Wenn Sie die hohe Leistung und Kosteneffizienz für die Deep-Learning-Modellinferenz optimieren möchten, können Sie Instances mit Inferentia-Chips verwenden.AWS
+ Wenn Sie nach einer leistungsstarken GPU-Instanz mit einer ARM64-basierten CPU-Architektur suchen, können Sie den Instance-Typ G5g verwenden.
+  Wenn Sie daran interessiert sind, ein vortrainiertes Modell für Inferenz und Vorhersagen auszuführen, können Sie Ihrer Amazon-Instance eine [Amazon Elastic Inference](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html) hinzufügen. EC2 Amazon Elastic Inference bietet Ihnen Zugriff auf einen Beschleuniger mit einem Bruchteil einer GPU.
+ Für umfangreiche Inferenzdienste könnte eine einzelne CPU-Instance mit viel Speicher oder ein Cluster solcher Instances die bessere Lösung sein. 
+  Wenn Sie ein großes Modell mit vielen Daten oder einer hohen Batchgröße verwenden, benötigen Sie eine größere Instanz mit mehr Speicher. Sie können Ihr Modell auch auf einen Cluster von verteilen GPUs. Möglicherweise stellt auch eine Instance mit weniger Speicher eine bessere Lösung für Sie dar, wenn Sie Ihre Batchgröße verringern. Dies kann sich auf die Genauigkeit und Schulungsgeschwindigkeit auswirken.
+  Wenn Sie daran interessiert sind, Anwendungen für maschinelles Lernen mithilfe der NVIDIA Collective Communications Library (NCCL) auszuführen, die ein hohes Maß an Kommunikation zwischen den Knoten in großem Umfang erfordern, sollten Sie den [Elastic Fabric Adapter (](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html)EFA) verwenden.

[Weitere Informationen zu Instances finden Sie unter Instance-Typen und . EC2 ](https://aws.amazon.com/ec2/instance-types/)

Die folgenden Themen enthalten Informationen zu Überlegungen zu Instanztypen. 

**Wichtig**  
Deep Learning AMIs umfasst Treiber, Software oder Toolkits, die von der NVIDIA Corporation entwickelt wurden, im Eigentum der NVIDIA Corporation stehen oder von ihr bereitgestellt werden. Sie erklären sich damit einverstanden, diese NVIDIA-Treiber, -Software oder Toolkits nur auf EC2 Amazon-Instances zu verwenden, die NVIDIA-Hardware enthalten.

**Topics**
+ [Preise für das DLAMI](#pricing)
+ [Verfügbarkeit in der DLAMI Region](#region)
+ [Empfohlene GPU-Instances](gpu.md)
+ [Empfohlene CPU-Instances](cpu.md)
+ [Empfohlene Inferenzinstanzen](inferentia.md)
+ [Empfohlene Trainium-Instances](trainium.md)

## Preise für das DLAMI
<a name="pricing"></a>

Die im DLAMI enthaltenen Deep-Learning-Frameworks sind kostenlos und verfügen jeweils über eigene Open-Source-Lizenzen. Obwohl die im DLAMI enthaltene Software kostenlos ist, müssen Sie dennoch für die zugrunde liegende EC2 Amazon-Instance-Hardware bezahlen.

Einige EC2 Amazon-Instance-Typen sind als kostenlos gekennzeichnet. Es ist möglich, das DLAMI auf einer dieser kostenlosen Instanzen auszuführen. Das bedeutet, dass die Nutzung des DLAMI völlig kostenlos ist, wenn Sie nur die Kapazität dieser Instanz nutzen. Wenn Sie eine leistungsfähigere Instanz mit mehr CPU-Kernen, mehr Festplattenspeicher, mehr RAM oder einer oder mehreren benötigen, benötigen Sie eine Instanz GPUs, die nicht zur Instance-Klasse des kostenlosen Tiers gehört.

Weitere Informationen zur Instance-Auswahl und Preisgestaltung finden Sie unter [ EC2 Amazon-Preise](https://aws.amazon.com/ec2/pricing/).

## Verfügbarkeit in der DLAMI Region
<a name="region"></a>

Jede Region unterstützt eine andere Reihe von Instance-Typen, und oft fallen für einen Instance-Typ in verschiedenen Regionen leicht unterschiedliche Kosten an. DLAMIs sind nicht in jeder Region verfügbar, aber es ist möglich, in die Region Ihrer Wahl DLAMIs zu kopieren. Weitere Informationen finden Sie unter [AMI kopieren](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html). Beachten Sie die Auswahlliste für Regionen und achten Sie darauf, dass Sie eine Region auswählen, die sich in Ihrer Nähe oder in der Nähe Ihrer Kunden befindet. Wenn Sie planen, mehr als ein DLAMI zu verwenden und möglicherweise einen Cluster zu erstellen, stellen Sie sicher, dass Sie dieselbe Region für alle Knoten im Cluster verwenden.

Weitere Informationen zu Regionen finden Sie unter — [Amazon EC2 Service Endpoints](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region).

**Nächstes Thema**  
[Empfohlene GPU-Instances](gpu.md)

# Empfohlene GPU-Instances
<a name="gpu"></a>

Für die meisten Deep-Learning-Zwecke empfehlen wir eine GPU-Instanz. Das Trainieren neuer Modelle ist auf einer GPU-Instanz schneller als auf einer CPU-Instanz. Sie können sublinear skalieren, wenn Sie mehrere GPU-Instanzen haben oder wenn Sie verteiltes Training auf viele Instanzen mit verwenden. GPUs 

Die folgenden Instance-Typen unterstützen das DLAMI. Informationen zu den Optionen für GPU-Instanztypen und deren Verwendung finden Sie unter und wählen Sie **Accelerated** Computing aus.

**Anmerkung**  
Die Größe Ihres Modells sollte bei der Auswahl einer Instanz eine Rolle spielen. Wenn Ihr Modell den verfügbaren Arbeitsspeicher einer Instanz überschreitet, wählen Sie einen anderen Instance-Typ mit ausreichend Arbeitsspeicher für Ihre Anwendung. 
+ [Amazon EC2 P6-B200-Instances verfügen über bis zu 8 NVIDIA Blackwell B200](https://aws.amazon.com/ec2/instance-types/p6/). GPUs
+ [Amazon EC2 P6-B300-Instances](https://aws.amazon.com/ec2/instance-types/p6/) verfügen über bis zu 8 NVIDIA Blackwell B300. GPUs
+ [Amazon EC2 P6e- GB2 00 Instances](https://aws.amazon.com/ec2/instance-types/p6/) haben bis zu 4 NVIDIA GB2 Blackwell 00. GPUs
+ [Amazon EC2 P5e-Instances](https://aws.amazon.com/ec2/instance-types/p5/) verfügen über bis zu 8 NVIDIA Tesla H200. GPUs
+ [Amazon EC2 P5-Instances](https://aws.amazon.com/ec2/instance-types/p5/) verfügen über bis zu 8 NVIDIA Tesla GPUs H100.
+ [Amazon EC2 P4-Instances](https://aws.amazon.com/ec2/instance-types/p4/) verfügen über bis zu 8 NVIDIA Tesla GPUs A100.
+ [Amazon EC2 P3-Instances](https://aws.amazon.com/ec2/instance-types/p3/) verfügen über bis zu 8 NVIDIA Tesla GPUs V100.
+ [Amazon EC2 G3-Instances](https://aws.amazon.com/ec2/instance-types/g3/) verfügen über bis zu 4 NVIDIA Tesla GPUs M60.
+ [Amazon EC2 G4-Instances](https://aws.amazon.com/ec2/instance-types/g4/) verfügen über bis zu 4 NVIDIA GPUs T4.
+ [Amazon EC2 G5-Instances](https://aws.amazon.com/ec2/instance-types/g5/) verfügen über bis zu 8 NVIDIA GPUs A10G.
+ [Amazon EC2 G6-Instances](https://aws.amazon.com/ec2/instance-types/g6/) verfügen über bis zu 8 NVIDIA GPUs L4.
+ [Amazon EC2 G6e-Instances](https://aws.amazon.com/ec2/instance-types/g6e/) verfügen über bis zu 8 NVIDIA L40S Tensor Core. GPUs
+ [Amazon EC2 G5G-Instances](https://aws.amazon.com/ec2/instance-types/g5g/) [verfügen über ARM64-basierte AWS Graviton2-Prozessoren.](https://aws.amazon.com/ec2/graviton/)

DLAMI-Instanzen bieten Tools zur Überwachung und Optimierung Ihrer GPU-Prozesse. Weitere Informationen zur Überwachung Ihrer GPU-Prozesse finden Sie unter. [GPU-Überwachung und -Optimierung](tutorial-gpu.md)

Spezifische Tutorials zur Arbeit mit G5G-Instances finden Sie unter[Das ARM64 DLAMI](tutorial-arm64.md).

**Nächstes Thema**  
[Empfohlene CPU-Instances](cpu.md)

# Empfohlene CPU-Instances
<a name="cpu"></a>

Egal, ob Sie nur ein begrenztes Budget haben, etwas über Deep Learning lernen oder einfach nur einen Vorrausage-Service betreiben möchten, Sie haben viele günstige Optionen in der CPU-Kategorie. Einige Frameworks nutzen das MKL DNN von Intel, das das Training und die Inferenz für C5-CPU-Instance-Typen (nicht in allen Regionen verfügbar) beschleunigt. **Informationen zu CPU-Instance-Typen finden Sie unter Instance-Typen und . Wählen Sie dort [EC2 Compute Optimized](https://aws.amazon.com/ec2/instance-types/) aus.**

**Anmerkung**  
Die Größe Ihres Modells sollte ein Faktor bei der Auswahl einer Instanz sein. Wenn Ihr Modell den verfügbaren Arbeitsspeicher einer Instanz überschreitet, wählen Sie einen anderen Instance-Typ mit ausreichend Arbeitsspeicher für Ihre Anwendung. 
+ [Amazon EC2 C5-Instances](https://aws.amazon.com/ec2/instance-types/c5/) haben bis zu 72 Intel v. CPUs C5-Instances zeichnen sich durch wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analytik, Hochleistungsrechnen (HPC) sowie Inferenz für maschinelles Lernen und Deep Learning aus.

**Nächstes Thema**  
[Empfohlene Inferenzinstanzen](inferentia.md)

# Empfohlene Inferenzinstanzen
<a name="inferentia"></a>

AWS Inferentia-Instances sind so konzipiert, dass sie eine hohe Leistung und Kosteneffizienz für Inferenz-Workloads mit Deep-Learning-Modellen bieten. Insbesondere Inf2-Instance-Typen verwenden AWS Inferentia-Chips und das [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), das in beliebte Frameworks für maschinelles Lernen wie und integriert ist. TensorFlow PyTorch

Kunden können Inf2-Instances verwenden, um umfangreiche Inferenzanwendungen für maschinelles Lernen wie Suche, Empfehlungsmaschinen, Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Personalisierung und Betrugserkennung zu den niedrigsten Kosten in der Cloud auszuführen.

**Anmerkung**  
Die Größe Ihres Modells sollte ein Faktor bei der Auswahl einer Instanz sein. Wenn Ihr Modell den verfügbaren Arbeitsspeicher einer Instanz überschreitet, wählen Sie einen anderen Instance-Typ mit ausreichend Arbeitsspeicher für Ihre Anwendung. 
+ [Amazon EC2 Inf2-Instances](https://aws.amazon.com/ec2/instance-types/inf2/) verfügen über bis zu 16 AWS Inferentia-Chips und einen Netzwerkdurchsatz von 100 Gbit/s.

Weitere Informationen zu den ersten Schritten mit AWS Inferentia finden Sie unter. DLAMIs [Der AWS Inferentia-Chip mit DLAMI](tutorial-inferentia.md)

**Nächstes Thema**  
[Empfohlene Trainium-Instances](trainium.md)

# Empfohlene Trainium-Instances
<a name="trainium"></a>

AWS Trainium-Instances sind darauf ausgelegt, hohe Leistung und Kosteneffizienz für Inferenz-Workloads mit Deep-Learning-Modellen zu bieten. Insbesondere Trn1-Instance-Typen verwenden AWS Trainium-Chips und das [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), das in beliebte Frameworks für maschinelles Lernen wie und integriert ist. TensorFlow PyTorch

Kunden können Trn1-Instances verwenden, um umfangreiche Inferenzanwendungen für maschinelles Lernen wie Suche, Empfehlungsmaschinen, Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Personalisierung und Betrugserkennung zu den niedrigsten Kosten in der Cloud auszuführen.

**Anmerkung**  
Die Größe Ihres Modells sollte ein Faktor bei der Auswahl einer Instanz sein. Wenn Ihr Modell den verfügbaren Arbeitsspeicher einer Instanz überschreitet, wählen Sie einen anderen Instance-Typ mit ausreichend Arbeitsspeicher für Ihre Anwendung. 
+ [Amazon EC2 Trn1-Instances](https://aws.amazon.com/ec2/instance-types/trn1/) verfügen über bis zu 16 AWS Trainium-Chips und einen Netzwerkdurchsatz von 100 Gbit/s.

# Deep Learning AMIs mit EC2 Image Builder verwenden
<a name="using-dlami-with-image-builder"></a>

AWS Deep Learning AMIs (DLAMIs) sind jetzt als von Amazon verwaltete Images im [EC2 Image Builder Builder-Service](https://docs.aws.amazon.com/imagebuilder/latest/userguide/what-is-image-builder.html) verfügbar. Diese Integration vereinfacht die Verwendung von DLAMIs als Basis-Images und stellt sicher, dass jederzeit die neueste Version verwendet wird.

## Verfügbar DLAMIs
<a name="available-dlamis"></a>

Die folgenden Bilder DLAMIs sind als von Amazon verwaltete Bilder verfügbar, die Sie im **Bereich „Bilder“** des Dienstes finden:
+ [Basis-AMI mit einem einzigen CUDA (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [Basis-AMI mit einem einzigen CUDA (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-ubuntu-22-04.html)
+ [ARM64 Basis-AMI mit einem einzigen CUDA (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [ARM64 Basis-AMI mit einem einzigen CUDA (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-ubuntu-22-04.html)

![\[Von Amazon verwaltetes Deep Learning Base-X86-AMI\]](http://docs.aws.amazon.com/de_de/dlami/latest/devguide/images/deep-learning-base.png)


![\[Von Amazon verwaltetes Deep ARM64 Learning-Base-AMI\]](http://docs.aws.amazon.com/de_de/dlami/latest/devguide/images/deep-learning-arm.png)


## DLAMIs Als Basis-Image verwenden
<a name="using-dlamis-base-image"></a>

DLAMIs kann bei der Erstellung des Image-Rezepts als Basis-Image verwendet werden.

1. Gehen Sie zur Image Builder Builder-Konsole

1. Wählen Sie **Image-Rezepte**

1. Wählen Sie **Bildrezept erstellen**

1. Wählen Sie im Abschnitt **Basisimage** die Option **Schnellstart (von Amazon verwaltet)**

1. Wählen Sie aus dem Dropdownmenü eine der verfügbaren Optionen aus, die auf Ihrer Auswahl des **Image-Betriebssystems (OS) DLAMIs ** basieren
   + Wenn **Amazon Linux** ausgewählt ist:
     + Deep Learning-Base-AMI mit einem einzigen CUDA Amazon Linux 2023
     + Deep ARM64 Learning-Base-AMI mit einem einzigen CUDA Amazon Linux 2023  
![\[Image Builder Builder-Rezepterstellung für Amazon Linux\]](http://docs.aws.amazon.com/de_de/dlami/latest/devguide/images/image-recipe-creation-al2023.png)
   + Wenn **Ubuntu** ausgewählt ist:
     + Deep Learning Base AMI mit einem einzigen CUDA Ubuntu 22-04
     + Deep Learning ARM64 Base AMI mit einem einzigen CUDA Ubuntu 22-04  
![\[Image Builder Builder-Rezepterstellung für Ubuntu\]](http://docs.aws.amazon.com/de_de/dlami/latest/devguide/images/image-recipe-creation-ul22.png)