Blockieren Sie abgelehnte Themen, um schädliche Inhalte zu entfernen - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Blockieren Sie abgelehnte Themen, um schädliche Inhalte zu entfernen

Guardrails können mit einer Reihe von abgelehnten Themen konfiguriert werden, die im Kontext Ihrer generativen KI-Anwendung unerwünscht sind. Beispielsweise möchte eine Bank möglicherweise, dass ihr KI-Assistent jegliche Konversation im Zusammenhang mit Anlageberatung oder Konversationen im Zusammenhang mit Kryptowährungen vermeidet.

Sie können bis zu 30 abgelehnte Themen definieren. Eingabeaufforderungen und vervollständigte Modelle werden anhand jedes dieser abgelehnten Themen bewertet. Wenn eines der abgelehnten Themen erkannt wird, wird die blockierte Nachricht, die als Teil der Leitplanke konfiguriert wurde, an den Benutzer zurückgegeben.

Abgelehnte Themen können definiert werden, indem eine Definition des Themas in natürlicher Sprache zusammen mit einigen optionalen Beispielsätzen für das Thema bereitgestellt wird. Die Definition und die Beispielsätze werden verwendet, um zu ermitteln, ob eine Eingabeaufforderung oder eine Modellvervollständigung zum Thema gehört.

Abgelehnte Themen werden mit den folgenden Parametern definiert.

  • Name — Der Name des Themas. Der Name sollte ein Substantiv oder eine Phrase sein. Beschreiben Sie das Thema nicht im Namen. Beispielsweise:

    • Investment Advice

  • Definition — Bis zu 200 Zeichen, die den Inhalt des Themas zusammenfassen. Die Definition sollte den Inhalt des Themas und seiner Unterthemen beschreiben.

    Im Folgenden finden Sie ein Beispiel für eine Themendefinition, die Sie bereitstellen können:

    Investment advice is inquiries, guidance, or recommendations about the management or allocation of funds or assets with the goal of generating returns or achieving specific financial objectives.

  • Beispielsätze — Eine Liste mit bis zu fünf Beispielphrasen, die sich auf das Thema beziehen. Jeder Satz kann bis zu 100 Zeichen lang sein. Ein Beispiel ist eine Aufforderung oder Fortsetzung, die zeigt, welche Art von Inhalt herausgefiltert werden sollte. Beispielsweise:

    • Is investing in the stocks better than bonds?

    • Should I invest in gold?

Bewährte Methoden zur Definition eines Themas, das Sie blockieren möchten

  • Definieren Sie das Thema klar und präzise. Eine klare und eindeutige Themendefinition kann die Genauigkeit der Erkennung des Themas verbessern. Ein Thema zur Erkennung von Abfragen oder Aussagen im Zusammenhang mit Kryptowährungen kann beispielsweise als Question or information associated with investing, selling, transacting, or procuring cryptocurrencies definiert werden.

  • Nehmen Sie keine Beispiele oder Anweisungen in die Themendefinition auf. Block all contents associated to cryptocurrencyIst beispielsweise eine Anweisung und keine Definition des Themas. Solche Anweisungen dürfen nicht als Teil der Themendefinitionen verwendet werden.

  • Definieren Sie keine negativen Themen oder Ausnahmen. All contents except medical informationOder Contents not containing medical information sind negative Definitionen eines Themas und dürfen nicht verwendet werden.

  • Verwenden Sie abgelehnte Themen nicht, um Entitäten oder Wörter zu erfassen. Zum Beispiel Statement or questions containing the name of a person "X" oder Statements with a competitor name Y. Die Themendefinitionen stehen für ein Thema oder ein Thema, und Guardrails wertet Eingaben kontextbezogen aus. Die Themenfilterung sollte nicht verwendet werden, um einzelne Wörter oder Entitätstypen zu erfassen. Erwägen Sie stattdessen, Mithilfe PII von Filtern für vertrauliche Informationen aus Konversationen entfernen oder Entfernen Sie mit Wortfiltern eine bestimmte Liste von Wörtern und Ausdrücken aus Konversationen für solche Anwendungsfälle zu verwenden.