Deep Learning AMI mit Conda - AWS Deep Learning AMIs

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Deep Learning AMI mit Conda

Die Conda DLAMI verwendet conda virtuelle Umgebungen, sie sind entweder in mehreren Frameworks oder in einem einzigen Framework verfügbar. DLAMIs Diese Umgebungen sind so konfiguriert, dass die verschiedenen Framework-Installationen getrennt bleiben und der Wechsel zwischen Frameworks rationalisiert wird. Dies ist perfekt zum Lernen und Experimentieren mit den Frameworks des DLAMIs geeignet. Die meisten Benutzer sind der Meinung, dass das neue Deep Learning AMI mit Conda perfekt für sie ist.

Sie werden häufig mit den neuesten Versionen der Frameworks aktualisiert und verfügen über die neuesten GPU Treiber und Software. Sie werden in den meisten Dokumenten allgemein als „die AWS Deep Learning AMIs “ bezeichnet. Diese DLAMIs unterstützen die Betriebssysteme Ubuntu 20.04, Ubuntu 22.04, Amazon Linux 2 und Amazon Linux 2023. Die Unterstützung von Betriebssystemen hängt von der Unterstützung durch das vorgelagerte Betriebssystem ab.

Stable versus Release-Kandidaten

Die Conda AMIs verwenden optimierte Binärdateien der neuesten formellen Versionen aus jedem Framework. Release-Kandidaten und experimentelle Funktionen sind nicht zu erwarten. Die Optimierungen hängen davon ab, dass das Framework Beschleunigungstechnologien wie die von Intel unterstützt MKLDNN, wodurch das Training und die Inferenz für C5- und C4-Instance-Typen beschleunigt werden. CPU Die Binärdateien wurden außerdem so kompiliert, dass sie erweiterte Intel-Befehlssätze unterstützen, einschließlich, aber nicht beschränkt aufAVX, AVX -2, SSE4 .1 und .2. SSE4 Diese beschleunigen Vektor- und Fließkommaoperationen auf CPU Intel-Architekturen. Darüber hinaus DNN werden beispielsweise die GPU Instance-Typen the CUDA und cu mit der Version aktualisiert, die von der neuesten offiziellen Version unterstützt wird.

Deep Learning AMI mit Conda installiert bei der ersten Aktivierung des Frameworks automatisch die optimierteste Version des Frameworks für Ihre EC2 Amazon-Instance. Weitere Informationen finden Sie unter Deep Learning mit Conda verwenden AMI.

Wenn Sie aus dem Quellcode installieren und dabei benutzerdefinierte oder optimierte Build-Optionen verwenden möchten, Deep Learning Learning Learning Learning Learning Learning Learning Learning ist s möglicherweise die bessere Option für Sie.

Beendigung von Python 2

Die Python-Open-Source-Community hat die Unterstützung für Python 2 am 1.Januar 2020 offiziell beendet. Die TensorFlow PyTorch AND-Community hat angekündigt, dass die Versionen TensorFlow 2.1 und PyTorch 1.4 die letzten sind, die Python 2 unterstützen. Frühere Versionen von DLAMI (v26, v25 usw.), die Python 2 Conda-Umgebungen enthalten, sind weiterhin verfügbar. Wir stellen jedoch Updates für die Python 2 Conda-Umgebungen für zuvor veröffentlichte DLAMI Versionen nur bereit, wenn von der Open-Source-Community Sicherheitsupdates für diese Versionen veröffentlicht wurden. DLAMIReleases mit den neuesten Versionen der PyTorch Frameworks TensorFlow und enthalten nicht die Python 2 Conda-Umgebungen.

CUDA-Unterstützung

Spezifische CUDA Versionsnummern finden Sie in den GPUDLAMIVersionshinweisen.

Nächstes Thema

DLAMI-Architekturoptionen