Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Unterstützte Features

Fokusmodus
Unterstützte Features - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Amazon SageMaker AI bietet die folgenden vier Optionen für die Bereitstellung von Inferenzmodellen.

  • Inferenz in Echtzeit für Inferenz-Workloads mit interaktiven Echtzeitanforderungen mit geringer Latenz.

  • Batch-Transformation für Offline-Inferenz mit großen Datensätzen.

  • Asynchrone Inferenz für near-real-time Inferenz mit großen Eingaben, die längere Vorverarbeitungszeiten erfordern.

  • Serverlose Inferenz für Inferenz-Workloads mit Leerlaufzeiten zwischen Datenverkehrsspitzen.

In der folgenden Tabelle sind die wichtigsten Plattformfunktionen zusammengefasst, die von den einzelnen Inferenzoptionen unterstützt werden. Sie zeigt keine Funktionen, die durch Frameworks, benutzerdefinierte Docker-Container oder durch Verkettung verschiedener AWS Dienste bereitgestellt werden können.

Funktion Echtzeit-Inferenz Batch-Transformation Asynchrone Inferenz Serverlose Inferenz Docker-Container
Unterstützung für Autoscaling N/A N/A
Unterstützung für GPU 1 1 1 1P, vorgefertigt, BYOC
Einzelnes Modell N/A
Multimodell-Endpunkt k-NN, Linear Learner XGBoost, RCF, Apache, Scikit-Learn 2 TensorFlow MXNet PyTorch
Endpunkt mit mehreren Containern 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC
Pipeline für serielle Inferenzen 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC
Empfehlung für Inferenzen 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC
Support für privaten Link N/A
Unterstützung für Datenerfassung/Modellmonitor N/A
DLCs unterstützt 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC N/A
Unterstützte Protokolle HTTP/S HTTP/S HTTP/S HTTP/S N/A
Nutzlastgröße < 6 MB ≤ 100 MB ≤ 1 GB ≤ 4 MB
HTTP-Blockcodierung Framework-abhängig, 1P wird nicht unterstützt N/A Framework-abhängig, 1P wird nicht unterstützt Framework-abhängig, 1P wird nicht unterstützt N/A
Anforderungs-Timeout < 60 Sekunden Tage < 1 Stunde < 60 Sekunden N/A
Bereitstellungs-Guardrails: Blau/Grün-Bereitstellungen N/A N/A
Bereitstellungs-Guardrails: fortlaufende Bereitstellungen N/A N/A
Schattentests N/A
Skalierung auf Null N/A N/A
Unterstützung von Marketplace-Modellpaketen N/A
Unterstützung für virtuellen privaten Cloud N/A
Unterstützung mehrerer Produktionsvarianten N/A
Netzwerkisolierung N/A
Unterstützung für die parallele Bedienung von Modellen 3 3 3
Volume-Verschlüsselung N/A
Kunde AWS KMS N/A
d Instance Unterstützung N/A
inf1-Unterstützung

Mit SageMaker KI können Sie ein einzelnes Modell oder mehrere Modelle hinter einem einzigen Inferenzendpunkt einsetzen, um Inferenz in Echtzeit zu erzielen. In der folgenden Tabelle sind die Kern-Features zusammengefasst, die von den verschiedenen Hosting-Optionen unterstützt werden, die mit Echtzeit-Inferenz ausgestattet sind.

Funktion Endgeräte mit einem einzigen Modell Endpunkte mit mehreren Modellen Pipeline für serielle Inferenzen Endpunkte mit mehreren Containern
Unterstützung für Autoscaling
Unterstützung für GPU 1
Einzelnes Modell
Endpunkte mit mehreren Modellen N/A
Endpunkte mit mehreren Containern N/A
Pipeline für serielle Inferenzen N/A
Empfehlung für Inferenzen
Support für privaten Link
Unterstützung für Datenerfassung/Modellmonitor N/A N/A
DLCs unterstützt 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC k-NN XGBoost, Linear Learner, RCF, Apache TensorFlow MXNet, PyTorch Scikit-Learn 2 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC
Unterstützte Protokolle HTTP/S HTTP/S HTTP/S HTTP/S
Nutzlastgröße < 6 MB < 6 MB < 6 MB < 6 MB
Anforderungs-Timeout < 60 Sekunden < 60 Sekunden < 60 Sekunden < 60 Sekunden
Bereitstellungs-Guardrails: Blau/Grün-Bereitstellungen
Bereitstellungs-Guardrails: fortlaufende Bereitstellungen
Schattentests
Unterstützung von Marketplace-Modellpaketen
Unterstützung für virtuellen privaten Cloud
Unterstützung mehrerer Produktionsvarianten
Netzwerkisolierung
Unterstützung für die parallele Bedienung von Modellen 3 3
Volume-Verschlüsselung
Kunde AWS KMS
d Instance Unterstützung
inf1-Unterstützung

1 Die Verfügbarkeit der EC2 Amazon-Instance-Typen hängt von der AWS Region ab. Informationen zur Verfügbarkeit von spezifischen Instances finden Sie unter Amazon SageMaker AI-Preise. AWS

2 Um ein anderes Framework oder einen anderen Algorithmus zu verwenden, verwenden Sie das SageMaker AI Inference Toolkit, um einen Container zu erstellen, der Endpunkte mit mehreren Modellen unterstützt.

3 Mit SageMaker KI können Sie große Modelle (bis zu 500 GB) für Inferenz einsetzen. Sie können die Container-Integritätsprüfung und die Download-Timeout-Kontingente von bis zu 60 Minuten konfigurieren. Dadurch haben Sie mehr Zeit zum Herunterladen und Laden Ihres Modells und der zugehörigen Ressourcen. Weitere Informationen finden Sie unter SageMaker KI-Endpunktparameter für große Modellinferenz. Sie können SageMaker KI-kompatible Inferenzcontainer für große Modelle verwenden. Sie können auch Bibliotheken für die Modellparallelisierung von Drittanbietern verwenden, z. B. Triton mit und. FasterTransformer DeepSpeed Sie müssen sicherstellen, dass sie mit KI kompatibel sind. SageMaker

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.