Instance-Typen für integrierte Algorithmen. - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Instance-Typen für integrierte Algorithmen.

Für das Training und das Hosten von SageMaker Amazon-Algorithmen empfehlen wir die Verwendung der folgenden EC2 Amazon-Instance-Typen:

  • ml.m5.xlarge, ml.m5.4xlarge und ml.m5.12xlarge

  • ml.c5.xlarge, ml.c5.2xlarge und ml.c5.8xlarge

  • ml.p3.xlarge, ml.p3.8xlarge und ml.p3.16xlarge

Die meisten SageMaker Amazon-Algorithmen wurden so entwickelt, dass sie GPU Computer für Schulungen nutzen. Für die meisten Algorithmusschulungen unterstützen wir P2-, P3-, G4dn- und G5-Instances. GPU Trotz der höheren Kosten pro Instanz sollten Sie schneller GPUs trainieren, was sie kostengünstiger macht. Ausnahmen sind in diesem Handbuch aufgeführt.

Größe und Art von Daten können einen großen Einfluss darauf haben, welche Hardwarekonfiguration am effektivsten ist. Wenn dasselbe Modell wiederholt trainiert wird, können mit ersten Tests über ein Spektrum an Instance-Typen hinweg Konfigurationen ermittelt werden, die langfristig kostengünstiger sind. Darüber hinaus benötigen Algorithmen, die am effizientesten trainieren, GPUs möglicherweise GPUs keine effiziente Inferenz. Experimentieren Sie, um die kostengünstigste Lösung zu finden. Verwenden Sie Amazon SageMaker Inference Recommender, um eine automatische Instance-Empfehlung zu erhalten oder benutzerdefinierte Auslastungstests durchzuführen.

Weitere Informationen zu SageMaker Hardwarespezifikationen finden Sie unter Amazon SageMaker ML-Instanztypen.