Leitplanken für Amazon Bedrock - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Leitplanken für Amazon Bedrock

Guardrails for Amazon Bedrock ermöglicht es Ihnen, Schutzmaßnahmen für Ihre generativen KI-Anwendungen zu implementieren, die auf Ihren Anwendungsfällen und verantwortungsvollen KI-Richtlinien basieren. Sie können mehrere Guardrails erstellen, die auf unterschiedliche Anwendungsfälle zugeschnitten sind, und sie auf mehrere Foundation-Modelle (FM) anwenden, um eine konsistente Benutzererfahrung zu gewährleisten und die Sicherheits- und Datenschutzkontrollen für generative KI-Anwendungen zu standardisieren. Sie können Leitplanken mit textbasierten Benutzereingaben verwenden und Antworten modellieren.

Guardrails können auf vielfältige Weise verwendet werden, um generative KI-Anwendungen zu schützen. Beispielsweise:

  • Eine Chatbot-Anwendung kann Leitplanken verwenden, um schädliche Benutzereingaben und toxische Modellantworten herauszufiltern.

  • Eine Bankanwendung kann Leitplanken verwenden, um Benutzeranfragen zu blockieren oder Antworten im Zusammenhang mit der Suche oder Bereitstellung von Anlageberatung zu modellieren.

  • Eine Callcenter-Anwendung zur Zusammenfassung von Gesprächsprotokollen zwischen Benutzern und Agenten kann Leitplanken verwenden, um die personenbezogenen Daten (PII) der Benutzer zu unkennzeichnen, um die Privatsphäre der Benutzer zu schützen.

Sie können die folgenden Richtlinien in einer Leitplanke konfigurieren, um unerwünschte und schädliche Inhalte zu vermeiden und vertrauliche Informationen aus Datenschutzgründen zu entfernen.

  • Inhaltsfilter — Passen Sie die Filterstärke an, um Eingabeaufforderungen zu blockieren oder Antworten mit schädlichen Inhalten zu modellieren.

  • Abgelehnte Themen — Definieren Sie eine Reihe von Themen, die im Kontext Ihrer Anwendung unerwünscht sind. Diese Themen werden blockiert, wenn sie in Benutzeranfragen oder Modellantworten entdeckt werden.

  • Wortfilter — Konfigurieren Sie Filter, um unerwünschte Wörter, Ausdrücke und Schimpfwörter zu blockieren. Solche Wörter können beleidigende Begriffe, Namen von Wettbewerbern usw. enthalten.

  • Filter für sensible Informationen — Sperren oder maskieren Sie vertrauliche Informationen wie personenbezogene Daten (PII) oder benutzerdefinierte reguläre Ausdrücke in Benutzereingaben und Modellantworten.

Zusätzlich zu den oben genannten Richtlinien können Sie die Nachrichten auch so konfigurieren, dass sie an den Benutzer zurückgesendet werden, wenn eine Benutzereingabe oder eine Modellantwort gegen die in der Leitplanke definierten Richtlinien verstößt.

Sie können mehrere Versionen der Leitplanke für Ihre Leitplanke erstellen. Wenn Sie eine Leitplanke erstellen, steht Ihnen automatisch ein Arbeitsentwurf zur Verfügung, den Sie iterativ ändern können. Experimentieren Sie mit verschiedenen Konfigurationen und verwenden Sie das integrierte Testfenster, um zu sehen, ob sie für Ihren Anwendungsfall geeignet sind. Wenn Sie mit einer Reihe von Konfigurationen zufrieden sind, können Sie eine Version der Leitplanke erstellen und sie mit unterstützten Foundation-Modellen verwenden.

Guardrails können während des Aufrufs der Inferenz-API direkt mit FMs verwendet werden, indem die Guardrail-ID und die Version angegeben werden. Wenn ein Guardrail verwendet wird, werden die Eingabeaufforderungen und die FM-Abschlüsse anhand der definierten Richtlinien bewertet.

Bei RAG-Anwendungen (Retrieval Augmented Generation) oder Konversationsanwendungen müssen Sie möglicherweise nur die Benutzereingaben in der Eingabeaufforderung auswerten und gleichzeitig Systemanweisungen, Suchergebnisse, den Konversationsverlauf oder einige kurze Beispiele verwerfen. Informationen zur selektiven Auswertung eines Abschnitts der Eingabeaufforderung finden Sie unter. Evaluieren Sie Benutzereingaben mit Tags mithilfe von Guardrails selektiv

Wichtig

Guardrails for Amazon Bedrock unterstützt nur Englisch. Die Auswertung von Textinhalten in anderen Sprachen kann zu unzuverlässigen Ergebnissen führen.

Unterstützte Regionen und Modelle für Guardrails for Amazon Bedrock

Gebühren für Guardrails for Amazon Bedrock fallen nur für die in der Guardrail konfigurierten Policen an. Der Preis für jeden Policentyp ist unter Amazon Bedrock Pricing verfügbar. Wenn Guardrails die Eingabeaufforderung blockiert, wird Ihnen die Guardrail-Evaluierung in Rechnung gestellt. Für Inferenzgespräche nach dem Foundation-Modell fallen keine Gebühren an. Wenn Guardrails die Modellantwort blockiert, wird Ihnen die Guardrails-Auswertung der Eingabeaufforderung und der Modellantwort in Rechnung gestellt. In diesem Fall werden Ihnen die Inferenzaufrufe des Foundation-Modells sowie die Modellantwort, die vor der Guardrails-Evaluierung generiert wurde, in Rechnung gestellt.