Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Composants d'un garde-corps
Amazon Bedrock Guardrails consiste en un ensemble de différentes politiques de filtrage que vous pouvez configurer pour éviter les contenus indésirables et dangereux et pour supprimer ou masquer les informations sensibles afin de protéger la confidentialité.
Vous pouvez configurer les politiques suivantes dans un garde-corps :
Filtres de contenu : vous pouvez configurer des seuils pour bloquer les invites de saisie ou modéliser les réponses contenant du contenu préjudiciable tel que la haine, les insultes, le sexe, la violence, les fautes (y compris les activités criminelles) et les attaques rapides (injection rapide et jailbreaks). Par exemple, un site de commerce électronique peut concevoir son assistant en ligne de manière à éviter d'utiliser un langage inapproprié tel que des propos haineux ou des insultes.
Sujets refusés : vous pouvez définir un ensemble de sujets à éviter dans votre application d'IA générative. Par exemple, une application d'assistant bancaire peut être conçue pour éviter les sujets liés aux conseils d'investissement illégaux.
Filtres de mots : vous pouvez configurer un ensemble de mots ou d'expressions personnalisés que vous souhaitez détecter et bloquer lors de l'interaction entre vos utilisateurs et les applications d'IA générative. Par exemple, vous pouvez détecter et bloquer les grossièretés ainsi que les mots personnalisés spécifiques tels que les noms de concurrents ou d'autres mots offensants.
Filtres d'informations sensibles : vous pouvez détecter des contenus sensibles tels que des informations personnellement identifiables (PII) ou des entités regex personnalisées dans les entrées utilisateur et les réponses FM. Selon le cas d'utilisation, vous pouvez rejeter les entrées contenant des informations sensibles ou les supprimer dans les réponses FM. Par exemple, vous pouvez supprimer les informations personnelles des utilisateurs tout en générant des résumés à partir des transcriptions de conversations avec les clients et les agents.
Vérification contextuelle de l'ancrage — Vous pouvez détecter et filtrer les hallucinations dans les réponses du modèle si elles ne sont pas fondées (inexactes sur le plan factuel ou ajout de nouvelles informations) dans les informations source ou si elles ne sont pas pertinentes pour la requête de l'utilisateur. Par exemple, vous pouvez bloquer ou marquer les réponses dans les RAG applications (génération augmentée par extraction) si les réponses du modèle s'écartent des informations contenues dans les passages extraits ou ne répondent pas à la question posée par l'utilisateur.
Rubriques
- Bloquez les mots et les conversations dangereux à l'aide de filtres de contenu
- Bloquez les sujets refusés pour supprimer le contenu préjudiciable
- Supprimer PII des conversations en utilisant des filtres d'informations sensibles
- Supprimer une liste spécifique de mots et d'expressions des conversations à l'aide de filtres de mots
- Utilisez la vérification contextuelle des fondements pour filtrer les hallucinations dans les réponses