Détection des abus sur Amazon Bedrock - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Détection des abus sur Amazon Bedrock

AWS s'engage à utiliser l'IA de manière responsable. Pour éviter toute utilisation abusive potentielle, Amazon Bedrock implémente des mécanismes de détection automatique des abus afin d’identifier les violations potentielles de la politique d’utilisation acceptable (AUP) et des conditions d’utilisation d’ AWS, y compris la politique d’IA responsable ou la politique d’utilisation acceptable d’un fournisseur de modèles tiers.

Nos mécanismes de détection des abus sont entièrement automatisés. Personne ne vérifie ni ne consulte les entrées utilisateur ni les sorties des modèles.

La détection automatique des abus inclut ce qui suit :

  • Catégorisation du contenu : nous utilisons des classificateurs pour détecter les contenus préjudiciables (tels que les contenus incitant à la violence) dans les entrées utilisateur et dans les sorties des modèles. Un classificateur est un algorithme qui traite les entrées et les sorties des modèles, et attribue le type de préjudice et le niveau de confiance. Nous pouvons utiliser ces classificateurs à la fois sur des modèles tiers Titan et sur des modèles tiers. Le processus de classification est automatisé et n’implique aucune vérification humaine des entrées utilisateur ni des sorties des modèles.

  • Identification des tendances : nous utilisons les métriques du classificateur pour identifier les violations potentielles et les comportements récurrents. Nous pouvons compiler des métriques de classification anonymisées et les partager avec des fournisseurs de modèles tiers. Amazon Bedrock ne stocke pas les entrées utilisateur ni les sorties des modèles, et ne les partage pas avec des fournisseurs de modèles tiers.

  • Détection et blocage du matériel pédopornographique (CSAM) : vous êtes responsable du contenu que vous (et vos utilisateurs finaux) téléchargez sur Amazon Bedrock et devez vous assurer que ce contenu ne contient pas d'images illégales. Pour aider à stopper la diffusion du CSAM, Amazon Bedrock peut utiliser des mécanismes automatisés de détection des abus (tels que des technologies de hachage ou des classificateurs) pour détecter les CSAM apparents. Si Amazon Bedrock détecte un CSAM apparent dans vos images saisies, Amazon Bedrock bloquera la demande et vous recevrez un message d'erreur automatique. Amazon Bedrock peut également déposer un rapport auprès du National Center for Missing and Exploited Children (NCMEC) ou d'une autorité compétente. Nous prenons le CSAM très au sérieux et nous continuerons à mettre à jour nos mécanismes de détection, de blocage et de signalement. Les lois applicables peuvent vous obliger à prendre des mesures supplémentaires, et vous êtes responsable de ces actions.

Une fois que nos mécanismes automatisés de détection des abus ont identifié des violations potentielles, nous pouvons vous demander des informations sur votre utilisation d'Amazon Bedrock et sur le respect de nos conditions d'utilisation ou de l'AUP d'un fournisseur tiers. Si vous ne voulez pas ou ne pouvez pas vous conformer à ces conditions ou politiques, vous AWS pouvez suspendre votre accès à Amazon Bedrock.

Contactez AWS le Support si vous avez d'autres questions. Pour plus d’informations, consultez la FAQ Amazon Bedrock.