Detecção de abuso no Amazon Bedrock - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Detecção de abuso no Amazon Bedrock

AWS está comprometida com o uso responsável da IA. Para ajudar a evitar possíveis usos indevidos, o Amazon Bedrock implementa mecanismos automatizados de detecção de abuso para identificar possíveis violações da Política de uso aceitável (AUP) e dos Termos de Serviço da AWS, incluindo a Política de IA responsável ou a AUP de um provedor de modelos de terceiros.

Nossos mecanismos de detecção de abuso são totalmente automatizados, portanto não há análise humana nem acesso às entradas do usuário ou às saídas do modelo.

A detecção automática de abuso inclui:

  • Categorização do conteúdo: usamos classificadores para detectar conteúdo prejudicial (como conteúdo que incita a violência) nas entradas do usuário e nas saídas do modelo. Um classificador é um algoritmo que processa entradas e saídas do modelo e atribui o tipo de dano e nível de confiança. Podemos executar esses classificadores em ambos Titan e uso de modelos de terceiros. Isso pode incluir modelos que são ajustados usando a personalização de modelos do Amazon Bedrock. O processo de classificação é automatizado e não envolve análise humana das entradas ou saídas do usuário modelo.

  • Identificação de padrões: usamos métricas de classificadores para identificar possíveis violações e comportamentos recorrentes. Podemos compilar e compartilhar métricas de classificadores anônimas com provedores de modelos de terceiros. O Amazon Bedrock não armazena a entrada do usuário ou a saída do modelo nem as compartilha com provedores de modelos de terceiros.

  • Detecção e bloqueio de material de abuso sexual infantil (CSAM): o cliente (e seus usuários finais) é responsável pelo conteúdo que carrega no Amazon Bedrock e deve garantir que ele esteja livre de imagens ilegais. Para ajudar a impedir a disseminação de CSAM, o Amazon Bedrock pode usar mecanismos automatizados de detecção de abuso (como tecnologia de correspondência de hash ou classificadores) para detectar CSAM aparente. Se o Amazon Bedrock detectar CSAM aparente nas entradas de imagem do cliente, ele bloqueará a solicitação e enviará uma mensagem de erro automática. O Amazon Bedrock também pode registrar uma denúncia no Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) ou em uma autoridade relevante. Levamos o CSAM a sério e continuaremos a atualizar nossos mecanismos de detecção, bloqueio e denúncia. De acordo com as leis aplicáveis, o cliente pode ser obrigado a tomar medidas adicionais e é responsável por essas medidas.

Quando nossos mecanismos automatizados de detecção de abuso identificarem possíveis violações, poderemos solicitar ao cliente informações sobre o seu uso do Amazon Bedrock e a sua conformidade com nossos termos de serviço ou com a AUP de provedores de terceiros. Caso você não queira ou não possa cumprir esses termos ou políticas, AWS poderá suspender seu acesso ao Amazon Bedrock. Você também pode ser cobrado pelas falhas nos trabalhos de ajuste fino se nossos testes automatizados detectarem que as respostas do modelo são inconsistentes com os termos e políticas de licenças de fornecedores de modelos terceirizados.

Entre em contato com o AWS Support se tiver mais perguntas. Para obter mais informações, consulte o Amazon Bedrock FAQs.