Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Machen Sie sich mit den Optionen für die Bereitstellung von Modellen und das Ableiten von Schlussfolgerungen in Amazon AI vertraut SageMaker

Fokusmodus
Machen Sie sich mit den Optionen für die Bereitstellung von Modellen und das Ableiten von Schlussfolgerungen in Amazon AI vertraut SageMaker - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Um Ihnen den Einstieg in SageMaker KI Inference zu erleichtern, lesen Sie die folgenden Abschnitte, in denen Ihre Optionen für die Implementierung Ihres Modells in SageMaker KI und das Abrufen von Schlussfolgerungen erläutert werden. Inferenzoptionen in Amazon AI SageMaker In diesem Abschnitt können Sie herausfinden, welche Funktion am besten zu Ihrem Anwendungsfall für Inferenz passt.

RessourcenIn diesem Abschnitt finden Sie weitere Informationen zur Problembehandlung und Referenzinformationen, Blogs und Beispiele, die Ihnen den Einstieg erleichtern, sowie allgemeine FAQs Informationen.

Bevor Sie beginnen

In diesen Themen wird davon ausgegangen, dass Sie ein oder mehrere Machine-Learning-Modelle erstellt und trainiert haben und bereit sind, sie bereitzustellen. Sie müssen Ihr Modell nicht in SageMaker KI trainieren, um Ihr Modell in SageMaker KI einzusetzen und daraus Schlüsse zu ziehen. Wenn Sie kein eigenes Modell haben, können Sie auch die integrierten Algorithmen der SageMaker KI oder vortrainierte Modelle verwenden.

Wenn Sie mit SageMaker KI noch nicht vertraut sind und noch kein Modell für die Implementierung ausgewählt haben, gehen Sie die Schritte im Tutorial Erste Schritte mit Amazon SageMaker AI durch. Machen Sie sich anhand des Tutorials damit vertraut, wie SageMaker KI den datenwissenschaftlichen Prozess verwaltet und wie sie mit der Modellbereitstellung umgeht. Weitere Informationen zum Trainieren eines Modells finden Sie unter Modelle trainieren.

Weitere Informationen, Referenzen und Beispiele finden Sie in der Ressourcen.

Schritte beim Modelleinsatz

Der allgemeine Arbeitsablauf für Inference-Endpunkte besteht aus den folgenden Schritten:

  • Erstellen Sie ein Modell in SageMaker AI Inference, indem Sie auf in Amazon S3 gespeicherte Modellartefakte und ein Container-Image verweisen.

  • Wählen Sie eine Inference-Option aus. Weitere Informationen finden Sie unter Inferenzoptionen in Amazon AI SageMaker .

  • Erstellen Sie eine SageMaker AI Inference-Endpunktkonfiguration, indem Sie den Instance-Typ und die Anzahl der Instances auswählen, die Sie hinter dem Endpunkt benötigen. Sie können Amazon SageMaker Inference Recommender verwenden, um Empfehlungen für Instance-Typen zu erhalten. Für Serverless Inference brauchen Sie nur die Speicherkonfiguration anzugeben, die Sie bei Ihrer Modellgröße brauchen.

  • Erstellen Sie einen SageMaker AI Inference-Endpunkt.

  • Rufen Sie Ihren Endpunkt auf, um als Antwort eine Inference zu erhalten.

Das folgende Diagramm zeigt den vorangehenden Arbeitsablauf.

Der im vorherigen Absatz beschriebene Workflow zeigt, wie man Rückschlüsse aus SageMaker KI zieht.

Sie können diese Aktionen mit der AWS Konsole, dem AWS SDKs, dem SageMaker Python-SDK AWS CloudFormation oder dem ausführen AWS CLI.

Für Batch-Inference mit Stapel-Transformation verweisen Sie auf Ihre Modellartefakte und Eingabedaten und erstellen Sie einen Batch-Inference-Auftrag. Anstatt einen Endpunkt für Inferenzen zu hosten, gibt SageMaker KI Ihre Schlussfolgerungen an einen Amazon S3 S3-Standort Ihrer Wahl aus.

Auf dieser Seite

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.