Detecção de abuso no Amazon Bedrock - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Detecção de abuso no Amazon Bedrock

AWS está comprometida com o uso responsável da IA. Para ajudar a evitar possíveis usos indevidos, o Amazon Bedrock implementa mecanismos automatizados de detecção de abuso para identificar possíveis violações da Política de uso aceitável (AUP) e dos Termos de Serviço da AWS, incluindo a Política de IA responsável ou a AUP de um provedor de modelos de terceiros.

Nossos mecanismos de detecção de abuso são totalmente automatizados, portanto não há análise humana nem acesso às entradas do usuário ou às saídas do modelo.

A detecção automática de abuso inclui:

  • Categorização do conteúdo: usamos classificadores para detectar conteúdo prejudicial (como conteúdo que incita a violência) nas entradas do usuário e nas saídas do modelo. Um classificador é um algoritmo que processa as entradas e saídas do modelo e atribui o tipo de dano e o nível de confiança. Podemos executar esses classificadores no uso de modelos Titan tanto no uso de modelos de terceiros. O processo de classificação é automatizado e não envolve análise humana das entradas do usuário ou das saídas do modelo.

  • Identificação de padrões: usamos métricas de classificadores para identificar possíveis violações e comportamentos recorrentes. Podemos compilar e compartilhar métricas de classificadores anônimas com provedores de modelos de terceiros. O Amazon Bedrock não armazena a entrada do usuário ou a saída do modelo nem as compartilha com provedores de modelos de terceiros.

  • Detecção e bloqueio de material de abuso sexual infantil (CSAM) — Você é responsável pelo conteúdo que você (e seus usuários finais) carrega no Amazon Bedrock e deve garantir que esse conteúdo esteja livre de imagens ilegais. Para ajudar a impedir a disseminação do CSAM, o Amazon Bedrock pode usar mecanismos automatizados de detecção de abuso (como tecnologia de correspondência de hash ou classificadores) para detectar o CSAM aparente. Se o Amazon Bedrock detectar CSAM aparente em suas entradas de imagem, o Amazon Bedrock bloqueará a solicitação e você receberá uma mensagem de erro automática. O Amazon Bedrock também pode registrar uma denúncia no Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) ou em uma autoridade relevante. Levamos o CSAM a sério e continuaremos atualizando nossos mecanismos de detecção, bloqueio e denúncia. De acordo com as leis aplicáveis, você pode ser obrigado a tomar medidas adicionais, e você é responsável por essas ações.

Depois que nossos mecanismos automatizados de detecção de abusos identificarem possíveis violações, poderemos solicitar informações sobre seu uso do Amazon Bedrock e a conformidade com nossos termos de serviço ou com a AUP de um fornecedor terceirizado. Caso você não queira ou não possa cumprir esses termos ou políticas, AWS poderá suspender seu acesso ao Amazon Bedrock.

Entre em contato com o AWS Support se tiver mais perguntas. Para obter mais informações, consulte Amazon Bedrock FAQs.