Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Stoppen Sie schädliche Inhalte in Modellen mithilfe von Amazon Bedrock Guardrails
Amazon Bedrock Guardrails kann Schutzmaßnahmen für Ihre generativen KI-Anwendungen implementieren, die auf Ihren Anwendungsfällen und verantwortungsvollen KI-Richtlinien basieren. Sie können mehrere Guardrails erstellen, die auf unterschiedliche Anwendungsfälle zugeschnitten sind, und sie auf mehrere Foundation-Modelle (FM) anwenden, um eine konsistente Benutzererfahrung zu gewährleisten und die Sicherheits- und Datenschutzkontrollen für generative KI-Anwendungen zu standardisieren. Sie können Leitplanken mit textbasierten Benutzereingaben verwenden und Antworten modellieren.
Leitplanken können auf vielfältige Weise zum Schutz generativer KI-Anwendungen eingesetzt werden. Beispielsweise:
Eine Chatbot-Anwendung kann Leitplanken verwenden, um schädliche Benutzereingaben und toxische Modellantworten herauszufiltern.
Eine Bankanwendung kann Leitplanken verwenden, um Benutzeranfragen zu blockieren oder Antworten im Zusammenhang mit der Suche oder Bereitstellung von Anlageberatung zu modellieren.
Eine Callcenter-Anwendung zur Zusammenfassung von Gesprächsprotokollen zwischen Benutzern und Agenten kann Leitplanken verwenden, um die personenbezogenen Daten der Benutzer () zu unkennzeichnen, um die Privatsphäre der Benutzer zu schützen. PII
Amazon Bedrock Guardrails unterstützt die folgenden Richtlinien:
-
Inhaltsfilter — Passen Sie die Filterstärke an, um Eingabeaufforderungen zu blockieren oder Antworten mit schädlichen Inhalten zu modellieren. Filterung von Text auf der Grundlage der Erkennung bestimmter vordefinierter Kategorien von schädlichen Inhalten — Hass, Beleidigungen, Sexualität, Gewalt, Fehlverhalten und Sofortiger Angriff.
-
Abgelehnte Themen — Definieren Sie eine Reihe von Themen, die im Kontext Ihrer Bewerbung unerwünscht sind. Der Filter hilft dabei, sie zu blockieren, wenn sie in Benutzeranfragen oder Modellantworten entdeckt werden.
-
Wortfilter — Konfigurieren Sie Filter, um unerwünschte Wörter, Ausdrücke und Schimpfwörter zu blockieren. Solche Wörter können beleidigende Begriffe, Namen von Wettbewerbern usw. enthalten.
-
Filter für vertrauliche Informationen — Konfigurieren Sie Filter, um vertrauliche Informationen wie personenbezogene Daten (PII) oder benutzerdefinierte reguläre Ausdrücke in Benutzereingaben und Modellantworten zu blockieren oder zu maskieren. Das Filtern oder Maskieren von Text basiert auf der Erkennung vertraulicher Informationen wie SSN Nummer, Geburtsdatum, Adresse usw. Dies ermöglicht auch die Konfiguration der Erkennung von Mustern für Identifikatoren, die auf regulären Ausdrücken basieren.
-
Prüfung der kontextuellen Erdung — Hilft dabei, Halluzinationen in Modellantworten zu erkennen und zu filtern, basierend auf der Grundierung in einer Quelle und der Relevanz für die Benutzerabfrage.
-
Bildinhaltsfilter — Hilft dabei, unangemessene oder giftige Bildinhalte zu erkennen und zu filtern. Benutzer können Filter für bestimmte Kategorien festlegen und die Filterstärke festlegen.
Zusätzlich zu den oben genannten Richtlinien können Sie die Nachrichten auch so konfigurieren, dass sie an den Benutzer zurückgesendet werden, wenn eine Benutzereingabe oder eine Musterantwort gegen die in der Guardrail definierten Richtlinien verstößt.
Sie können mehrere Versionen der Leitplanke für Ihre Leitplanke erstellen. Wenn Sie eine Leitplanke erstellen, steht Ihnen automatisch ein Arbeitsentwurf zur Verfügung, den Sie iterativ ändern können. Experimentieren Sie mit verschiedenen Konfigurationen und verwenden Sie das integrierte Testfenster, um zu sehen, ob sie für Ihren Anwendungsfall geeignet sind. Wenn Sie mit einer Reihe von Konfigurationen zufrieden sind, können Sie eine Version der Leitplanke erstellen und sie mit unterstützten Foundation-Modellen verwenden.
Guardrails können FMs während des API Inferenzaufrufs direkt mit verwendet werden, indem die Guardrail-ID und die Version angegeben werden. Guardrails können auch direkt über die verwendet werden, ohne dass die Fundamentmodelle aufgerufen werden müssen. ApplyGuardrail API Wenn ein Guardrail verwendet wird, werden die Eingabeaufforderungen und die FM-Abschlüsse anhand der definierten Richtlinien bewertet.
Bei Anwendungen zum Abrufen von Augmented Generation (RAG) oder Konversationsanwendungen müssen Sie möglicherweise nur die Benutzereingaben in der Eingabeaufforderung auswerten und gleichzeitig Systemanweisungen, Suchergebnisse, den Konversationsverlauf oder einige kurze Beispiele verwerfen. Informationen zur selektiven Auswertung eines Abschnitts der Eingabeaufforderung finden Sie unter. Wenden Sie Tags auf Benutzereingaben an, um Inhalte zu filtern
Wichtig
Amazon Bedrock Guardrails unterstützt Englisch, Französisch und Spanisch. Die Auswertung von Textinhalten in anderen Sprachen kann zu unzuverlässigen Ergebnissen führen.
Themen
- So funktioniert Amazon Bedrock Guardrails
- Unterstützte Regionen und Modelle für Amazon Bedrock Guardrails
- Bestandteile einer Leitplanke
- Voraussetzungen für die Verwendung von Leitplanken mit Ihrem AWS Konto
- Erstellen Sie eine Leitplanke
- Richten Sie Berechtigungen für die Verwendung von Leitplanken für die Inhaltsfilterung ein
- Testen Sie eine Leitplanke
- Informationen zu Ihren Leitplanken anzeigen
- Eine Leitplanke ändern
- Eine Leitplanke löschen
- Setze deine Leitplanke ein
- Verwenden Sie Leitplanken für Ihren Anwendungsfall