Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Bloquez les contenus dangereux dans les modèles utilisant Amazon Bedrock Guardrails
Amazon Bedrock Guardrails peut mettre en œuvre des mesures de protection pour vos applications d'IA générative en fonction de vos cas d'utilisation et de politiques d'IA responsables. Vous pouvez créer plusieurs garde-fous adaptés à différents cas d'utilisation et les appliquer à plusieurs modèles de base (FM), en fournissant une expérience utilisateur cohérente et en normalisant les contrôles de sécurité et de confidentialité dans les applications d'IA générative. Vous pouvez utiliser des barrières de sécurité à la fois pour les entrées des utilisateurs et pour modéliser les réponses en langage naturel.
Les barrières de sécurité peuvent être utilisées de différentes manières pour protéger les applications génératives d'IA. Par exemple :
Une application de chatbot peut utiliser des barrières de sécurité pour filtrer les entrées utilisateur nuisibles et les réponses toxiques des modèles.
Une application bancaire peut utiliser des garde-fous pour bloquer les requêtes des utilisateurs ou modéliser les réponses associées à la recherche ou à la fourniture de conseils en investissement.
Une application de centre d'appels résumant les transcriptions des conversations entre les utilisateurs et les agents peut utiliser des garde-fous pour supprimer les informations personnelles identifiables (PII) des utilisateurs afin de protéger la confidentialité des utilisateurs.
Amazon Bedrock Guardrails prend en charge les politiques suivantes :
-
Filtres de contenu : ajustez l'intensité des filtres pour bloquer les invites de saisie ou modéliser les réponses contenant du contenu préjudiciable. Le filtrage est effectué sur la base de la détection de certaines catégories de contenus préjudiciables prédéfinies : haine, insultes, relations sexuelles, violence, inconduite et attaque rapide.
-
Sujets refusés : définissez un ensemble de sujets indésirables dans le contexte de votre application. Le filtre aidera à les bloquer s'ils sont détectés dans les requêtes des utilisateurs ou dans les réponses des modèles.
-
Filtres de mots : configurez des filtres pour bloquer les mots, les phrases et les grossièretés indésirables (correspondance exacte). Ces mots peuvent inclure des termes offensants, des noms de concurrents, etc.
-
Filtres d'informations sensibles : configurez des filtres pour aider à bloquer ou à masquer les informations sensibles, telles que les informations personnelles identifiables (PII), ou des expressions régulières personnalisées dans les entrées utilisateur et les réponses du modèle. Le blocage ou le masquage sont effectués sur la base de la détection probabiliste d'informations sensibles dans des formats standard dans des entités telles que le numéro SSN, la date de naissance, l'adresse, etc. Cela permet également de configurer la détection basée sur des expressions régulières de modèles pour les identifiants.
-
Vérification contextuelle de l'ancrage : aide à détecter et à filtrer les hallucinations dans les réponses du modèle en fonction de l'ancrage dans une source et de la pertinence par rapport à la requête de l'utilisateur.
-
Filtre de contenu d'image : aide à détecter et à filtrer le contenu d'image inapproprié ou toxique. Les utilisateurs peuvent définir des filtres pour des catégories spécifiques et définir l'intensité du filtre.
Outre les politiques ci-dessus, vous pouvez également configurer les messages à renvoyer à l'utilisateur si une entrée utilisateur ou un modèle de réponse ne respecte pas les politiques définies dans le garde-fou.
Testez et évaluez différentes configurations et utilisez la fenêtre de test intégrée pour vous assurer que les résultats répondent aux exigences de votre cas d'utilisation. Lorsque vous créez un garde-corps, un brouillon de travail est automatiquement disponible pour que vous puissiez le modifier de manière itérative. Testez différentes configurations et utilisez la fenêtre de test intégrée pour voir si elles sont adaptées à votre cas d'utilisation. Si vous êtes satisfait d'un ensemble de configurations, vous pouvez créer une version du garde-corps et l'utiliser avec les modèles de base pris en charge.
Les garde-corps peuvent être utilisés directement FMs lors de l'appel de l'API d'inférence en spécifiant l'ID du garde-corps et la version. Les garde-corps peuvent également être utilisés directement via l' ApplyGuardrailAPI sans invoquer les modèles de base. Si un garde-corps est utilisé, il évaluera les demandes de saisie et les complétions FM par rapport aux politiques définies.
Pour les applications de génération augmentée ou de récupération (RAG) ou conversationnelles, vous devrez peut-être évaluer uniquement les informations saisies par l'utilisateur dans l'invite de saisie tout en supprimant les instructions système, les résultats de recherche, l'historique des conversations ou quelques courts exemples. Pour évaluer de manière sélective une section de l'invite de saisie, voirAppliquer des balises aux entrées utilisateur pour filtrer le contenu.
Important
-
Amazon Bedrock Guardrails prend en charge l'anglais, le français et l'espagnol en langage naturel. Les barrières de sécurité seront inefficaces dans toute autre langue.