Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Modellieren Sie Bereitstellungsoptionen in Amazon SageMaker AI

Fokusmodus
Modellieren Sie Bereitstellungsoptionen in Amazon SageMaker AI - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Nachdem Sie Ihr Machine-Learning-Modell trainiert haben, können Sie es mithilfe von Amazon SageMaker AI einsetzen, um Prognosen zu erhalten. Amazon SageMaker AI unterstützt je nach Anwendungsfall die folgenden Methoden zur Bereitstellung eines Modells:

SageMaker KI bietet auch Funktionen zur Verwaltung von Ressourcen und zur Optimierung der Inferenzleistung bei der Bereitstellung von Modellen für maschinelles Lernen:

  • Informationen zur Verwaltung von Modellen auf Edge-Geräten, sodass Sie Modelle für maschinelles Lernen auf Flotten von Edge-Geräten optimieren, sichern, überwachen und verwalten können, finden Sie unter. Modellieren Sie die Bereitstellung am Netzwerkrand mit Edge Manager SageMaker Dies gilt für Edge-Geräte wie Smart-Kameras, Roboter, PCs und mobile Geräte.

  • Informationen zur Optimierung von Gluon-, Keras-, MXNet, PyTorch TensorFlow, TensorFlow -Lite- und ONNX-Modellen für Inferenz auf Android-, Linux- und Windows-Computern, die auf Prozessoren von Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments und Xilinx basieren, finden Sie unter. Optimierung der Modellleistung mit SageMaker Neo

Weitere Informationen zu allen Bereitstellungsoptionen finden Sie unter Modelle für Inference einsetzen.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.