Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Überblick über die KI-Apps von Amazon SageMaker Partner

Fokusmodus
Überblick über die KI-Apps von Amazon SageMaker Partner - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Mit Amazon SageMaker Partner AI Apps erhalten Benutzer Zugriff auf generative KI- und Machine Learning-Entwicklungsanwendungen (ML), die von branchenführenden Anwendungsanbietern entwickelt, veröffentlicht und vertrieben werden. KI-Apps von Partnern sind für den Betrieb auf SageMaker KI zertifiziert. Mit Partner-KI-Apps können Benutzer die Entwicklung von Lösungen auf der Grundlage von Foundation Models (FM) und klassischen ML-Modellen beschleunigen und verbessern, ohne die Sicherheit ihrer sensiblen Daten zu gefährden. Die Daten bleiben vollständig innerhalb ihrer vertrauenswürdigen Sicherheitskonfiguration und werden niemals an Dritte weitergegeben. 

Funktionsweise

KI-Apps von Partnern sind vollständige Anwendungsstapel, die einen Amazon Elastic Kubernetes Service Service-Cluster und eine Reihe von zugehörigen Services umfassen können, darunter Application Load Balancer, Amazon Relational Database Service, Amazon Simple Storage Service-Buckets, Amazon Simple Queue Service-Warteschlangen und Redis Caches.

Diese Dienstanwendungen können von allen Benutzern in einer SageMaker KI-Domäne gemeinsam genutzt werden und werden von einem Administrator bereitgestellt. Nach der Bereitstellung der Anwendung durch den Kauf eines Abonnements über kann der AWS Marketplace Administrator Benutzern in der SageMaker AI-Domain Berechtigungen für den direkten Zugriff auf die Partner-KI-App von Amazon SageMaker Studio, Amazon SageMaker Unified Studio (Vorschau) oder über eine vorsignierte URL erteilen. Informationen zum Starten einer Anwendung von Studio aus finden Sie unter. Starten Sie Amazon SageMaker Studio

Partner AI Apps bietet Administratoren und Benutzern die folgenden Vorteile. 

  • Administratoren verwenden die SageMaker KI-Konsole, um die Partner-KI-Apps zu durchsuchen, zu entdecken, auszuwählen und bereitzustellen, damit sie von ihren Data-Science- und ML-Teams verwendet werden können. Nachdem die Partner-KI-Apps bereitgestellt wurden, führt SageMaker KI sie auf Service-Managed AWS-Konten aus. Dies reduziert den mit der Erstellung und dem Betrieb dieser Anwendungen verbundenen Betriebskosten erheblich und trägt zur Sicherheit und zum Datenschutz von Kundendaten bei.

  • Datenwissenschaftler und ML-Entwickler können in ihrer ML-Entwicklungsumgebung in Amazon SageMaker Studio oder Amazon SageMaker Unified Studio (Vorversion) auf Partner-KI-Apps zugreifen. Sie können die Partner-KI-Apps verwenden, um ihre mit KI erstellten Daten, Experimente und Modelle zu SageMaker analysieren. Dies minimiert den Kontextwechsel und trägt dazu bei, die Erstellung von Basismodellen und die Markteinführung neuer generativer KI-Funktionen zu beschleunigen.

Integration mit AWS-Services

Partner AI Apps verwendet die bestehende AWS Identity and Access Management (IAM-) Konfiguration für die Autorisierung und Authentifizierung. Daher müssen Benutzer keine separaten Anmeldeinformationen angeben, um von Amazon SageMaker Studio aus auf jede Partner-KI-App zuzugreifen. Weitere Informationen zur Autorisierung und Authentifizierung mit Partner-AI-Apps finden Sie unterRichten Sie KI-Apps für Partner ein.

Partner AI Apps lassen sich auch integrieren Amazon CloudWatch , um die Betriebsüberwachung und -verwaltung zu ermöglichen. Kunden können auch die KI-Apps von Partnern durchsuchen und weitere Informationen zu ihnen, wie Funktionen, Kundenerlebnis und Preise, erhalten AWS Management Console. Weitere Informationen dazu Amazon CloudWatch finden Sie unter So Amazon CloudWatch funktioniert es.

Unterstützte -Typen

KI-Apps von Partnern unterstützen die folgenden Typen:

  • Comet

  • Deepchecks

  • Fiddler

  • Lakera Guard

Wenn der Administrator eine Partner-AI-App startet, muss er die Konfiguration des Instanz-Clusters auswählen, mit dem die Partner-AI-App gestartet wird. Diese Konfiguration wird als Stufe der Partner-AI-App bezeichnet. Die Stufe einer Partner-AI-App kann einer der folgenden Werte sein:

  • small

  • medium

  • large

Die folgenden Abschnitte enthalten Informationen zu den einzelnen Partner-AI-App-Typen sowie Einzelheiten zu den Tierwerten der Partner-AI-App.

Comet bietet eine Plattform zur end-to-end Modellevaluierung für KI-Entwickler mit LLM-Evaluierungen, Versuchsverfolgung und Produktionsüberwachung.

Je nach Arbeitslast empfehlen wir die folgenden Partner-KI-App-Stufen:

  • small— Empfohlen für bis zu 5 Benutzer und 20 laufende Jobs.

  • medium— Empfohlen für bis zu 50 Benutzer und 100 laufende Jobs.

  • large— Empfohlen für bis zu 500 Benutzer und mehr als 100 laufende Jobs.

Anmerkung

SageMaker KI unterstützt nicht die Anzeige von Comet Benutzeroberfläche als Teil der Ausgabe eines Jupyter-Notebooks.

Comet bietet eine Plattform zur end-to-end Modellevaluierung für KI-Entwickler mit LLM-Evaluierungen, Versuchsverfolgung und Produktionsüberwachung.

Je nach Arbeitslast empfehlen wir die folgenden Partner-KI-App-Stufen:

  • small— Empfohlen für bis zu 5 Benutzer und 20 laufende Jobs.

  • medium— Empfohlen für bis zu 50 Benutzer und 100 laufende Jobs.

  • large— Empfohlen für bis zu 500 Benutzer und mehr als 100 laufende Jobs.

Anmerkung

SageMaker KI unterstützt nicht die Anzeige von Comet Benutzeroberfläche als Teil der Ausgabe eines Jupyter-Notebooks.

Entwickler und Stakeholder von KI-Anwendungen können Folgendes nutzen Deepchecks um LLM-basierte Anwendungen kontinuierlich zu validieren, einschließlich Eigenschaften, Leistungskennzahlen und potenzieller Fallstricke während des gesamten Lebenszyklus, von der Bereitstellung über interne Experimente bis hin zur Produktion.

Je nach der für den Workload gewünschten Geschwindigkeit empfehlen wir die folgenden Partner-KI-Anwendungsstufen:

  • small— Verarbeitet 200 Token pro Sekunde.

  • medium— Verarbeitet 500 Token pro Sekunde.

  • large— Verarbeitet 1300 Token pro Sekunde.

Entwickler und Stakeholder von KI-Anwendungen können Folgendes nutzen Deepchecks um LLM-basierte Anwendungen kontinuierlich zu validieren, einschließlich Eigenschaften, Leistungskennzahlen und potenzieller Fallstricke während des gesamten Lebenszyklus, von der Bereitstellung über interne Experimente bis hin zur Produktion.

Je nach der für den Workload gewünschten Geschwindigkeit empfehlen wir die folgenden Partner-KI-Anwendungsstufen:

  • small— Verarbeitet 200 Token pro Sekunde.

  • medium— Verarbeitet 500 Token pro Sekunde.

  • large— Verarbeitet 1300 Token pro Sekunde.

Das Tool Fiddler Die AI Observability Platform erleichtert die Validierung, Überwachung und Analyse von ML-Modellen in der Produktion, einschließlich tabellarischer Modelle, Modelle für Deep Learning, Computer Vision und Verarbeitung natürlicher Sprache.

Je nach der für den Workload gewünschten Geschwindigkeit empfehlen wir die folgenden Partner-KI-App-Stufen:

  • small— Die Verarbeitung von 10 Millionen Ereignissen in 5 Modellen, 100 Funktionen und 20 Iterationen dauert etwa 53 Minuten.

  • medium— Die Verarbeitung von 10 MM-Ereignissen in 5 Modellen, 100 Features und 20 Iterationen dauert etwa 23 Minuten.

  • large— Die Verarbeitung von 10 MM-Ereignissen in 5 Modellen, 100 Features und 100 Iterationen dauert etwa 27 Minuten.

Das Tool Fiddler Die AI Observability Platform erleichtert die Validierung, Überwachung und Analyse von ML-Modellen in der Produktion, einschließlich tabellarischer Modelle, Modelle für Deep Learning, Computer Vision und Verarbeitung natürlicher Sprache.

Je nach der für den Workload gewünschten Geschwindigkeit empfehlen wir die folgenden Partner-KI-App-Stufen:

  • small— Die Verarbeitung von 10 Millionen Ereignissen in 5 Modellen, 100 Funktionen und 20 Iterationen dauert etwa 53 Minuten.

  • medium— Die Verarbeitung von 10 MM-Ereignissen in 5 Modellen, 100 Features und 20 Iterationen dauert etwa 23 Minuten.

  • large— Die Verarbeitung von 10 MM-Ereignissen in 5 Modellen, 100 Features und 100 Iterationen dauert etwa 27 Minuten.

Lakera Guard ist eine KI-Anwendungs-Firewall mit niedriger Latenz, um generative KI-Anwendungen vor KI-spezifischen Bedrohungen der Generation zu schützen.

Je nach Arbeitslast empfehlen wir die folgenden Partner-KI-App-Stufen:

  • small— Empfohlen für bis zu 20 robotergestützte Prozessautomatisierungen (RPAs).

  • medium— Empfohlen für bis zu 100 RPAs.

  • large— Empfohlen für bis zu 200 RPAs.

Lakera Guard ist eine KI-Anwendungs-Firewall mit niedriger Latenz, um generative KI-Anwendungen vor KI-spezifischen Bedrohungen der Generation zu schützen.

Je nach Arbeitslast empfehlen wir die folgenden Partner-KI-App-Stufen:

  • small— Empfohlen für bis zu 20 robotergestützte Prozessautomatisierungen (RPAs).

  • medium— Empfohlen für bis zu 100 RPAs.

  • large— Empfohlen für bis zu 200 RPAs.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.