Generative KI für die AWS SRA - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Generative KI für die AWS SRA

Dieser Abschnitt enthält aktuelle Empfehlungen für den sicheren Einsatz generativer KI zur Verbesserung der Produktivität und Effizienz für Benutzer und Organisationen. Es konzentriert sich auf die Verwendung von Amazon Bedrock auf der Grundlage der ganzheitlichen Richtlinien der AWS SRA für die Bereitstellung aller AWS-Sicherheitsdienste in einer Umgebung mit mehreren Konten. Diese Leitlinien bauen auf der SRA auf, um generative KI-Funktionen in einem sicheren Rahmen für Unternehmen zu ermöglichen. Es behandelt wichtige Sicherheitskontrollen wie IAM-Berechtigungen, Datenschutz, Eingabe-/Ausgabevalidierung, Netzwerkisolierung, Protokollierung und Überwachung, die spezifisch für die generativen KI-Funktionen von Amazon Bedrock sind.

Die Zielgruppe dieser Anleitung sind Sicherheitsexperten, Architekten und Entwickler, die für die sichere Integration generativer KI-Funktionen in ihre Organisationen und Anwendungen verantwortlich sind. 

Die SRA untersucht die Sicherheitsüberlegungen und Best Practices für diese generativen KI-Funktionen von Amazon Bedrock: 

Die Anleitung behandelt auch, wie Sie die generative KI-Funktionalität von Amazon Bedrock in traditionelle AWS-Workloads integrieren können, basierend auf Ihrem Anwendungsfall. 

In den folgenden Abschnitten dieses Leitfadens wird auf jede dieser vier Funktionen eingegangen, die Begründung für die Funktion und ihre Verwendung erörtert, Sicherheitsaspekte im Zusammenhang mit der Funktion behandelt und erläutert, wie Sie AWS-Services und -Funktionen verwenden können, um die Sicherheitsaspekte zu berücksichtigen (Problembehebung). Die Gründe, Sicherheitsüberlegungen und Abhilfemaßnahmen bei der Verwendung von Basismodellen (Fähigkeit 1) gelten auch für alle anderen Funktionen, da sie alle Modellinferenz verwenden. Wenn Ihre Geschäftsanwendung beispielsweise ein benutzerdefiniertes Amazon Bedrock-Modell mit RAG-Funktion (Retrieval Augmented Generation) verwendet, müssen Sie die Gründe, Sicherheitsüberlegungen und Abhilfemaßnahmen der Funktionen 1, 2 und 4 berücksichtigen.

Die im folgenden Diagramm dargestellte Architektur ist eine Erweiterung der AWS SRA Workloads OU, die zuvor in diesem Handbuch beschrieben wurde.

Eine spezielle Organisationseinheit ist für Anwendungen vorgesehen, die generative KI verwenden. Die Organisationseinheit besteht aus einem Anwendungskonto, in dem Sie Ihre traditionelle AWS-Anwendung hosten, die spezifische Geschäftsfunktionen bereitstellt. Diese AWS-Anwendung verwendet die generativen KI-Funktionen, die Amazon Bedrock bietet. Diese Funktionen werden über das Generative AI-Konto bereitgestellt, das die entsprechenden Amazon Bedrock- und zugehörigen AWS-Services hostet. Die Gruppierung von AWS-Services nach Anwendungstyp hilft bei der Durchsetzung von Sicherheitskontrollen durch OU-spezifische und AWS-kontospezifische Service-Kontrollrichtlinien. Dies macht es auch einfacher, eine strenge Zugriffskontrolle und geringste Zugriffsrechte zu implementieren. Zusätzlich zu diesen spezifischen Organisationseinheiten und Konten enthält die Referenzarchitektur zusätzliche Organisationseinheiten und Konten, die grundlegende Sicherheitsfunktionen bieten, die für alle Anwendungstypen gelten. Die Konten Org Management, Security Tooling, Log Archive, Network und Shared Services wurden in früheren Abschnitten dieses Handbuchs behandelt.

AWS-SRA-Architektur zur Unterstützung generativer KI
Designüberlegungen

Sie können Ihr Generative AI-Konto weiter nach der SDLC-Umgebung (Software Development Lifecycle) (z. B. Entwicklung, Test oder Produktion) oder nach Modell oder Benutzer-Community aufteilen.

  • Trennung der Konten auf der Grundlage der SDLC-Umgebung: Es hat sich bewährt, die SDLC-Umgebungen in separate Organisationseinheiten aufzuteilen. Diese Trennung gewährleistet eine angemessene Isolierung und Kontrolle über jede Umgebung und jeden Support. Es bietet:

    • Kontrollierter Zugriff. Verschiedene Teams oder Einzelpersonen können je nach ihren Rollen und Verantwortlichkeiten Zugriff auf bestimmte Umgebungen erhalten. 

    • Isolierung von Ressourcen. Jede Umgebung kann über eigene Ressourcen (wie Modelle oder Wissensdatenbanken) verfügen, ohne dass andere Umgebungen beeinträchtigt werden. 

    • Kostenverfolgung. Die mit jeder Umgebung verbundenen Kosten können separat nachverfolgt und überwacht werden. 

    • Risikominderung. Probleme oder Experimente in einer Umgebung (z. B. Entwicklung) haben keinen Einfluss auf die Stabilität anderer Umgebungen (z. B. der Produktion). 

  • Trennung der Konten je nach Modell oder Benutzergemeinschaft: In der aktuellen Architektur bietet ein Konto Zugriff auf mehrere Foundation-Modelle (FMs) für Inferenzen über AWS Bedrock. Sie können IAM-Rollen verwenden, um die Zugriffskontrolle für vortrainierte FMs auf der Grundlage von Benutzerrollen und Verantwortlichkeiten zu ermöglichen. (Ein Beispiel finden Sie in der Amazon Bedrock-Dokumentation.) Umgekehrt können Sie sich dafür entscheiden, Ihre Generative AI-Konten nach Risikostufe, Modell oder Benutzergemeinschaft zu trennen. Dies kann in bestimmten Szenarien von Vorteil sein: 

    • Risikostufen für Benutzergemeinschaften: Wenn verschiedene Benutzergemeinschaften unterschiedliche Risiken oder Zugriffsanforderungen haben, können separate Konten dazu beitragen, angemessene Zugriffskontrollen und Filter durchzusetzen. 

    • Maßgeschneiderte Modelle: Bei Modellen, die auf Kundendaten zugeschnitten sind und umfassende Informationen zu den Trainingsdaten verfügbar sind, könnten separate Konten für eine bessere Isolierung und Kontrolle sorgen. 

Auf der Grundlage dieser Überlegungen können Sie die spezifischen Anforderungen, Sicherheitsbedürfnisse und die betriebliche Komplexität bewerten, die mit Ihrem Anwendungsfall verbunden sind. Wenn der Schwerpunkt auf Amazon Bedrock und vortrainierten FMs liegt, könnte ein einziger Account mit IAM-Rollen ein praktikabler Ansatz sein. Wenn Sie jedoch spezielle Anforderungen an die Trennung von Modellen oder Benutzergemeinschaften haben oder wenn Sie planen, mit Modellen zu arbeiten, die vom Kunden bereitgestellt werden, sind möglicherweise separate Konten erforderlich. Letztlich sollte die Entscheidung von Ihren anwendungsspezifischen Bedürfnissen und Faktoren wie Sicherheit, betrieblicher Komplexität und Kostenüberlegungen abhängen.

Hinweis: Um die folgenden Diskussionen und Beispiele zu vereinfachen, wird in diesem Leitfaden von einer einzigen generativen KI-Kontostrategie mit IAM-Rollen ausgegangen.

Amazon Bedrock

Amazon Bedrock ist eine einfache Möglichkeit, generative KI-Anwendungen mit Foundation Models (FMs) zu erstellen und zu skalieren. Als vollständig verwalteter Service bietet er eine Auswahl an leistungsstarken FMs von führenden KI-Unternehmen, darunter AI21 Labs, Anthropic, Cohere, Meta, Stability AI und Amazon. Es bietet auch eine breite Palette von Funktionen, die für die Entwicklung generativer KI-Anwendungen erforderlich sind, und vereinfacht die Entwicklung bei gleichzeitiger Wahrung von Datenschutz und Sicherheit. FMs dienen als Bausteine für die Entwicklung generativer KI-Anwendungen und -Lösungen. Durch die Bereitstellung des Zugriffs auf Amazon Bedrock können Benutzer über eine benutzerfreundliche Oberfläche oder über die Amazon Bedrock-API direkt mit diesen FMs interagieren. Das Ziel von Amazon Bedrock besteht darin, die Modellauswahl über eine einzige API für schnelles Experimentieren, Anpassen und Bereitstellen in der Produktion bereitzustellen und gleichzeitig eine schnelle Umstellung auf verschiedene Modelle zu unterstützen. Es dreht sich alles um die Modellwahl.

Sie können mit vortrainierten Modellen experimentieren, die Modelle an Ihre spezifischen Anwendungsfälle anpassen und sie in Ihre Anwendungen und Workflows integrieren. Diese direkte Interaktion mit den FMs ermöglicht es Unternehmen, schnell Prototypen und Iterationen generativer KI-Lösungen zu erstellen und die neuesten Fortschritte im Bereich maschinelles Lernen zu nutzen, ohne dass umfangreiche Ressourcen oder Fachwissen für das Training komplexer Modelle von Grund auf benötigt werden. Die Amazon Bedrock-Konsole vereinfacht den Zugriff auf und die Nutzung dieser leistungsstarken generativen KI-Funktionen.

Amazon Bedrock bietet eine Reihe von Sicherheitsfunktionen, um den Datenschutz und die Sicherheit Ihrer Daten zu gewährleisten: 

  • Alle Benutzerinhalte, die von Amazon Bedrock verarbeitet werden, werden nach Benutzern isoliert, im Ruhezustand verschlüsselt und in der AWS-Region gespeichert, in der Sie Amazon Bedrock verwenden. Ihre Inhalte werden auch bei der Übertragung verschlüsselt, wobei mindestens TLS 1.2 verwendet wird. Weitere Informationen zum Datenschutz in Amazon Bedrock finden Sie in der Amazon Bedrock-Dokumentation

  • Amazon Bedrock speichert oder protokolliert Ihre Eingabeaufforderungen und Abschlüsse nicht. Amazon Bedrock verwendet Ihre Eingabeaufforderungen und Vervollständigungen nicht, um AWS-Modelle zu trainieren, und verteilt sie auch nicht an Dritte.

  • Wenn Sie ein FM optimieren, verwenden Ihre Änderungen eine private Kopie dieses Modells. Das bedeutet, dass Ihre Daten nicht an Modellanbieter weitergegeben oder zur Verbesserung der Basismodelle verwendet werden. 

  • Amazon Bedrock implementiert automatisierte Mechanismen zur Missbrauchserkennung, um potenzielle Verstöße gegen die AWS-Richtlinie für verantwortungsvolle KI zu identifizieren. Weitere Informationen zur Missbrauchserkennung in Amazon Bedrock finden Sie in der Amazon Bedrock-Dokumentation

  • Amazon Bedrock unterliegt den gängigen Compliance-Standards, darunter International Organization for Standardization (ISO), System and Organization Controls (SOC), Federal Risk and Authorization Management Program (FedRAMP) Moderate und Cloud Security Alliance (CSA) Security Trust Assurance and Risk (STAR) Level 2. Amazon Bedrock ist nach dem Health Insurance Portability and Accountability Act (HIPAA) berechtigt, und Sie können diesen Service gemäß der Allgemeinen Datenschutzverordnung (DSGVO) nutzen. Um zu erfahren, ob ein AWS-Service in den Geltungsbereich bestimmter Compliance-Programme fällt, sehen Sie sich AWS-Services unter Umfang nach Compliance-Programmen an und wählen Sie das Compliance-Programm aus, an dem Sie interessiert sind. 

Weitere Informationen finden Sie unter dem sicheren AWS-Ansatz für generative KI

Leitplanken für Amazon Bedrock

Guardrails for Amazon Bedrock ermöglicht es Ihnen, Schutzmaßnahmen für Ihre generativen KI-Anwendungen zu implementieren, die auf Ihren Anwendungsfällen und verantwortungsvollen KI-Richtlinien basieren. Eine Leitplanke in Amazon Bedrock besteht aus Filtern, die Sie konfigurieren können, Themen, deren Blockierung Sie definieren können, und Nachrichten, die an Benutzer gesendet werden, wenn Inhalte blockiert oder gefiltert werden.

Die Filterung von Inhalten hängt von der Vertrauensklassifizierung von Benutzereingaben (Eingabevalidierung) und FM-Antworten (Ausgabevalidierung) in sechs schädlichen Kategorien ab. Alle Eingabe- und Outputaussagen werden für jede schädliche Kategorie in eines von vier Konfidenzniveaus (kein, niedrig, mittel, hoch) eingeteilt. Für jede Kategorie können Sie die Stärke der Filter konfigurieren. Die folgende Tabelle zeigt den Inhaltsgrad, den jede Filterstärke blockiert und zulässt.

Stärke des Filters

Vertrauenswürdigkeit von Inhalten blockiert

Vertrauenswürdige Inhalte sind zulässig

None

Keine Filterung

Keine, niedrig, mittel, hoch

Niedrig

Hoch

Keine, niedrig, mittel

Mittelschwer

Hoch, mittel

Keine, niedrig

Hoch

Hoch, mittel, niedrig

None

Wenn Sie bereit sind, Ihre Guardrail für die Produktion bereitzustellen, erstellen Sie eine Version davon und rufen die Version der Guardrail in Ihrer Anwendung auf. Folgen Sie den Schritten auf der Registerkarte API im Abschnitt Eine Leitplanke testen der Amazon Bedrock-Dokumentation. 

Sicherheit

Standardmäßig werden Guardrails mit einem von AWS verwalteten Schlüssel in AWS Key Management Services (AWS KMS) verschlüsselt. Um zu verhindern, dass unbefugte Benutzer Zugriff auf die Guardrails erhalten, was zu unerwünschten Änderungen führen könnte, empfehlen wir Ihnen, einen vom Kunden verwalteten Schlüssel zu verwenden, um Ihre Guardrails zu verschlüsseln und den Zugriff auf die Guardrails einzuschränken, indem Sie IAM-Berechtigungen mit den geringsten Rechten verwenden.

Bewertung des Amazon Bedrock-Modells

Amazon Bedrock unterstützt Modellevaluierungsjobs. Sie können die Ergebnisse eines Modellevaluierungsjobs verwenden, um die Modellergebnisse zu vergleichen und dann das Modell auszuwählen, das am besten zu Ihren nachgelagerten generativen KI-Anwendungen passt.

Sie können einen automatischen Modellevaluierungsjob verwenden, um die Leistung eines Modells zu bewerten, indem Sie entweder einen benutzerdefinierten Eingabeaufforderungsdatensatz oder einen integrierten Datensatz verwenden. Weitere Informationen finden Sie unter Erstellen einer automatischen Modellevaluierung und Verwenden von Prompt-Datensätzen in Modellevaluierungsjobs in der Amazon Bedrock-Dokumentation.

Modellevaluierungsjobs, bei denen menschliche Mitarbeiter eingesetzt werden, beziehen menschliche Beiträge von Mitarbeitern oder Fachexperten in den Bewertungsprozess ein. 

Sicherheit

Die Modellevaluierung sollte in einer Entwicklungsumgebung erfolgen. Empfehlungen für die Organisation Ihrer Nicht-Produktionsumgebungen finden Sie im Whitepaper Organizing Your AWS-Umgebung mit mehreren Konten.

Für alle Modellevaluierungsaufträge sind IAM-Berechtigungen und IAM-Servicerollen erforderlich. Weitere Informationen finden Sie in der Amazon Bedrock-Dokumentation zu den Berechtigungen, die erforderlich sind, um mithilfe der Amazon Bedrock-Konsole einen Modellevaluierungsjob zu erstellen, die Service-Rollenanforderungen und die erforderlichen CORS-Berechtigungen (Cross-Origin Resource Sharing). Automatische Evaluierungsaufträge und Modellevaluierungsjobs, bei denen menschliche Mitarbeiter eingesetzt werden, erfordern unterschiedliche Servicerollen. Weitere Informationen zu den Richtlinien, die für eine Rolle zur Durchführung von Modelbewertungsaufträgen erforderlich sind, finden Sie in der Amazon Bedrock-Dokumentation unter Anforderungen an die Servicerolle für automatische Modellevaluierungsjobs und Anforderungen an die Servicerolle für Modellevaluierungsjobs, bei denen menschliche Gutachter eingesetzt werden.

Für benutzerdefinierte Prompt-Datensätze müssen Sie eine CORS-Konfiguration im S3-Bucket angeben. Die minimal erforderliche Konfiguration finden Sie in der Amazon Bedrock-Dokumentation. Bei Aufträgen zur Modellbewertung, bei denen Mitarbeiter eingesetzt werden, benötigen Sie ein Arbeitsteam. Sie können Arbeitsteams erstellen oder verwalten, erstellen oder verwalten, während Sie einen Modellevaluierungsjob einrichten, und Mitarbeiter zu einer privaten Belegschaft hinzufügen, die von Amazon SageMaker Ground Truth verwaltet wird. Um Arbeitsteams zu verwalten, die in Amazon Bedrock außerhalb der Auftragseinrichtung erstellt wurden, müssen Sie die Amazon Cognito- oder Amazon SageMaker Ground Truth Konsolen verwenden. Amazon Bedrock unterstützt maximal 50 Mitarbeiter pro Arbeitsteam.

Während der Modellevaluierung erstellt Amazon Bedrock eine temporäre Kopie Ihrer Daten und löscht die Daten nach Abschluss des Jobs. Es verwendet einen AWS-KMS-Schlüssel, um es zu verschlüsseln. Standardmäßig werden die Daten mit einem von AWS verwalteten Schlüssel verschlüsselt. Wir empfehlen jedoch, stattdessen einen vom Kunden verwalteten Schlüssel zu verwenden. Weitere Informationen finden Sie unter Datenverschlüsselung für Modellevaluierungsjobs in der Amazon Bedrock-Dokumentation.