Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Trainiere ein Modell mit Amazon SageMaker
Amazon SageMaker Training ist ein vollständig verwalteter Service für maschinelles Lernen (ML) SageMaker , der Ihnen hilft, eine Vielzahl von ML-Modellen effizient und in großem Maßstab zu trainieren. Der Kern der SageMaker Jobs ist die Containerisierung von ML-Workloads und die Fähigkeit, Rechenressourcen zu verwalten AWS . Die SageMaker Schulungsplattform übernimmt die schwere Arbeit, die mit der Einrichtung und Verwaltung der Infrastruktur für ML-Schulungsworkloads verbunden ist. Mit SageMaker Training können Sie sich auf die Entwicklung, Schulung und Feinabstimmung Ihres Modells konzentrieren. Auf dieser Seite werden drei empfohlene Methoden für den Einstieg in das Training eines Modells vorgestellt SageMaker, gefolgt von weiteren Optionen, die Sie in Betracht ziehen können.
Tipp
Informationen zu Trainingsgrundmodellen für generative KI finden Sie unter Verwenden von SageMaker JumpStart Basismodellen in Amazon SageMaker Studio.
Auswahl einer Funktion in Amazon SageMaker Training
Es gibt drei Hauptanwendungsfälle für das Training von ML-Modellen innerhalb SageMaker. In diesem Abschnitt werden diese Anwendungsfälle sowie die SageMaker Funktionen beschrieben, die wir für jeden Anwendungsfall empfehlen.
Ganz gleich, ob Sie komplexe Deep-Learning-Modelle trainieren oder kleinere Algorithmen für maschinelles Lernen implementieren, SageMaker Training bietet optimierte und kostengünstige Lösungen, die den Anforderungen Ihrer Anwendungsfälle entsprechen.
Anwendungsfälle
Im Folgenden sind die wichtigsten Anwendungsfälle für das Training von SageMaker ML-Modellen aufgeführt.
-
Anwendungsfall 1: Entwickeln Sie ein Modell für maschinelles Lernen in einer Low-Code- oder No-Code-Umgebung.
-
Anwendungsfall 2: Verwenden Sie Code, um Modelle für maschinelles Lernen mit mehr Flexibilität und Kontrolle zu entwickeln.
-
Anwendungsfall 3: Entwickeln Sie Modelle für maschinelles Lernen in großem Maßstab mit maximaler Flexibilität und Kontrolle.
Empfohlene Features
In der folgenden Tabelle werden drei gängige Szenarien für das Training von ML-Modellen und die entsprechenden Optionen für den Einstieg in das SageMaker Training beschrieben.
Anwendungsfall 1 | Anwendungsfall 2 | Anwendungsfall 3 | |
---|---|---|---|
SageMaker Merkmal | Erstellen Sie ein Modell mit Amazon SageMaker Canvas. | Trainieren Sie ein Modell mit einem der SageMaker integrierten ML-Algorithmen wie XGBoost oder Task-Specific Models SageMaker JumpStart mit dem Python SDK. SageMaker | Trainieren Sie ein Modell maßstabsgetreu mit maximaler Flexibilität, indem Sie den Skriptmodus oder benutzerdefinierte Container |
Beschreibung | Bringen Sie Ihre Daten mit. SageMaker hilft bei der Erstellung von ML-Modellen und der Einrichtung der Trainingsinfrastruktur und der Ressourcen. |
Bringen Sie Ihre Daten mit und wählen Sie einen der integrierten ML-Algorithmen von SageMaker. Richten Sie die Modellhyperparameter, Ausgabemetriken und grundlegenden Infrastruktureinstellungen mithilfe des SageMaker Python-SDK ein. Die SageMaker Schulungsplattform hilft bei der Bereitstellung der Trainingsinfrastruktur und der Ressourcen. |
Entwickeln Sie Ihren eigenen ML-Code und bringen Sie ihn als Skript oder als Satz von Skripten zu SageMaker. Weitere Informationen finden Sie unter Verteiltes Rechnen mit SageMaker bewährten Methoden. Darüber hinaus können Sie Ihren eigenen Docker-Container mitbringen. Die SageMaker Schulungsplattform hilft Ihnen dabei, die Trainingsinfrastruktur und die Ressourcen auf der Grundlage Ihrer benutzerdefinierten Einstellungen maßstabsgetreu bereitzustellen. |
Optimiert für |
UI-gesteuerte Modellentwicklung mit geringem oder keinem Code und schnellem Experimentieren mit einem Trainingsdatensatz. Wenn Sie ein benutzerdefiniertes Modell erstellen, wird automatisch ein Algorithmus auf der Grundlage Ihrer Daten ausgewählt. Erweiterte Anpassungsoptionen wie die Auswahl von Algorithmen finden Sie unter Konfigurationen für erweiterte Modellerstellung. |
Training von ML-Modellen mit umfassender Anpassung für Hyperparameter und Infrastruktureinstellungen und der Möglichkeit, ML-Frameworks und Einstiegsskripte für mehr Flexibilität direkt zu verwenden. Verwenden Sie integrierte Algorithmen, vortrainierte Modelle und JumpStart Modelle über das Amazon SageMaker Python SDK |
Workloads für ML-Trainings in großem Maßstab, die mehrere Instanzen und maximale Flexibilität erfordern. Erfahren Sie mehr über verteiltes Rechnen mit SageMaker Best Practices. SageMaker verwendet Docker-Images, um das Training und die Bereitstellung aller Modelle zu hosten. Sie können beliebige SageMaker oder externe Algorithmen verwenden und Docker-Container verwenden, um Modelle zu erstellen. |
Überlegungen |
Minimale Flexibilität bei der Anpassung des von Amazon SageMaker Canvas bereitgestellten Modells. |
Das SageMaker Python-SDK bietet im Vergleich zur SageMaker Low-Level-Training-API eine vereinfachte Oberfläche und weniger Konfigurationsoptionen. |
Erfordert Kenntnisse der AWS Infrastruktur und der verteilten Schulungsoptionen. Siehe auch Erstellen Sie Ihren eigenen Schulungscontainer mit dem SageMaker Schulungs-Toolkit. |
Empfohlene Umgebung | Verwenden Sie Amazon SageMaker Canvas. Informationen zur Einrichtung finden Sie unter Erste Schritte mit der Verwendung von SageMaker Canvas. | Verwendung SageMaker JupyterLabinnerhalb von Amazon SageMaker Studio. Informationen zur Einrichtung finden Sie unter Amazon SageMaker Studio starten. | Verwendung SageMaker JupyterLabinnerhalb von Amazon SageMaker Studio. Informationen zur Einrichtung finden Sie unter Amazon SageMaker Studio starten. |
Zusätzliche Optionen
SageMaker bietet die folgenden zusätzlichen Optionen für das Training von ML-Modellen.
SageMaker Funktionen, die Schulungsmöglichkeiten bieten
-
SageMaker JumpStart: SageMaker JumpStart bietet Zugriff auf den SageMaker öffentlichen Model-Hub, der die neuesten öffentlich verfügbaren und proprietären Foundation Models (FMs) enthält. Sie können diese Modelle in Amazon SageMaker Studio optimieren, evaluieren und bereitstellen. SageMaker JumpStart optimiert den Prozess der Nutzung von Basismodellen für Ihre generativen KI-Anwendungsfälle und ermöglicht es Ihnen, private Modell-Hubs für die Verwendung von Basismodellen einzurichten und gleichzeitig die Einhaltung von Governance-Richtlinien durchzusetzen und sicherzustellen, dass Ihr Unternehmen nur auf genehmigte Modelle zugreifen kann. Informationen zu den ersten Schritten finden Sie unter Foundation-Modelle. SageMaker JumpStart SageMaker JumpStart
-
SageMaker HyperPod: SageMaker HyperPod ist ein persistenter Clusterdienst für Anwendungsfälle, die belastbare Cluster für massive maschinelle Lernlasten (ML) und die Entwicklung von state-of-the-art Foundation-Modellen (FMs) benötigen. Er beschleunigt die Entwicklung solcher Modelle, indem er den undifferenzierten Aufwand für den Aufbau und die Wartung großer Rechencluster, die von Tausenden von Beschleunigern wie AWS Trainium oder NVIDIA A100 und H100 Graphical Processing Units (GPUs) angetrieben werden, überflüssig macht. Sie können Workload-Manager-Software wie Slurm on verwenden. HyperPod
Weitere Funktionen von Training SageMaker
-
Hyperparameter-Tuning: Mit dieser SageMaker Funktion können Sie eine Reihe von Hyperparametern für ein Modell definieren und viele Trainingsaufgaben für einen Datensatz starten. Abhängig von den Hyperparameterwerten kann die Trainingsleistung des Modells variieren. Diese Funktion bietet den Satz von Hyperparametern mit der besten Leistung innerhalb des angegebenen Bereichs von Hyperparametern, den Sie für die Suche festgelegt haben.
-
Verteiltes Training: Trainieren Sie FMs, die mit NVIDIA CUDA und anderen basierten Frameworks erstellt wurden PyTorch, vorab oder optimieren Sie sie. PyTorch Um GPU-Instanzen effizient zu nutzen, verwenden Sie die SageMaker verteilten Trainingsbibliotheken, die kollektive Kommunikationsoperationen und verschiedene Techniken zur Modellparallelität wie Expertenparallelität und Parallelität gemeinsam genutzter Daten anbieten, die für die Infrastruktur optimiert sind. AWS
-
Funktionen zur Beobachtbarkeit: Nutzen Sie die Profilerstellungs- und Debugging-Funktionen von SageMaker Training, um Einblicke in die Workloads des Modelltrainings, die Modellleistung und die Ressourcennutzung zu gewinnen. Weitere Informationen finden Sie unter Debuggen und Verbessern der Modellleistung und Profilieren und Optimieren der Rechenleistung.
-
Kostensparende und effiziente Instanzoptionen: Verwenden Sie Heterogene Cluster, Managed Spot-Instances oder Managed Warm Pools, um die Rechenkosten und die Effizienz für die Bereitstellung von Trainingsinstanzen zu optimieren.