Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Auswahl der Instance für die Neptune-ML-Phasen

Fokusmodus
Auswahl der Instance für die Neptune-ML-Phasen - Amazon Neptune

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die verschiedenen Phasen der Neptune ML-Verarbeitung verwenden unterschiedliche SageMaker KI-Instanzen. Im Folgenden wird beschrieben, wie Sie den richtigen Instance-Typ für die einzelnen Phasen auswählen. Informationen zu SageMaker KI-Instance-Typen und Preisen finden Sie unter Amazon SageMaker Pricing.

Auswahl einer Instance für die Datenverarbeitung

Für den SageMaker KI-Datenverarbeitungsschritt ist eine Verarbeitungsinstanz erforderlich, die über ausreichend Arbeitsspeicher und Festplattenspeicher für die Eingabe-, Zwischen- und Ausgabedaten verfügt. Die spezifische Menge an Arbeits- und Festplattenspeicher, die benötigt wird, ist von den Eigenschaften des Neptune-ML-Diagramms und dessen exportierten Features abhängig.

Standardmäßig wählt Neptune ML die kleinste ml.r5-Instance aus, deren Arbeitsspeicher zehnmal größer als die Größe der exportierten Diagrammdaten auf der Festplatte ist.

Auswahl einer Instance für Modelltraining und Modelltransformation

Die Auswahl des richtigen Instance-Typs für Modelltraining oder Modelltransformation ist vom Typ der Aufgabe, der Größe des Diagramms und den Anforderungen an die Bearbeitungszeit abhängig. GPU-Instances stellen die beste Leistung bereit. Wir empfehlen grundsätzlich serielle p3- und g4dn-Instances. Sie können auch p2- oder p4d-Instances verwenden.

Standardmäßig wählt Neptune ML die kleinste GPU-Instance aus, deren Arbeitsspeicher größer als von Modelltraining und Modelltransformation benötigt ist. Informationen zu dieser Auswahl finden Sie in der Datei train_instance_recommendation.json im Amazon-S3-Datenverarbeitungsausgabeort. Dies ist ein Beispiel für den Inhalt einer train_instance_recommendation.json-Datei:

{ "instance": "(the recommended instance type for model training and transform)", "cpu_instance": "(the recommended instance type for base processing instance)", "disk_size": "(the estimated disk space required)", "mem_size": "(the estimated memory required)" }

Auswahl einer Instance für einen Inferenzendpunkt

Die Auswahl des richtigen Instance-Typs für einen Inferenzendpunkt ist vom Typ der Aufgabe, der Größe des Diagramms und dem Budget abhängig. Standardmäßig wählt Neptune ML die kleinste ml.m5d-Instance aus, deren Arbeitsspeicher größer als vom Inferenzendpunkt benötigt ist.

Anmerkung

Wenn mehr als 384 GB Arbeitsspeicher benötigt werden, verwendet Neptune ML eine ml.r5d.24xlarge-Instance.

Informationen zum von Neptune ML empfohlenen Instance-Typ finden Sie in der Datei infer_instance_recommendation.json am Amazon-S3-Ort, den Sie zum Modelltraining verwenden. Dies ist ein Beispiel für den Inhalt dieser Datei:

{ "instance" : "(the recommended instance type for an inference endpoint)", "disk_size" : "(the estimated disk space required)", "mem_size" : "(the estimated memory required)" }
DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.