Detecção de abuso no Amazon Bedrock - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Detecção de abuso no Amazon Bedrock

AWS está comprometida com o uso responsável da IA. Para ajudar a evitar possíveis usos indevidos, o Amazon Bedrock implementa mecanismos automatizados de detecção de abuso para identificar possíveis violações da Política de Uso Aceitável (AUP) e dos AWS Termos de Serviço, incluindo a Política de IA Responsável ou a de um fornecedor de modelos terceirizado. AUP

Nossos mecanismos de detecção de abuso são totalmente automatizados, portanto não há análise humana nem acesso às entradas do usuário ou às saídas do modelo.

A detecção automática de abuso inclui:

  • Categorização do conteúdo: usamos classificadores para detectar conteúdo prejudicial (como conteúdo que incita a violência) nas entradas do usuário e nas saídas do modelo. Um classificador é um algoritmo que processa entradas e saídas do modelo e atribui o tipo de dano e nível de confiança. Podemos executar esses classificadores em ambos Titan e uso de modelos de terceiros. Isso pode incluir modelos que são ajustados usando a personalização de modelos do Amazon Bedrock. O processo de classificação é automatizado e não envolve análise humana das entradas ou saídas do usuário modelo.

  • Identificação de padrões: usamos métricas de classificadores para identificar possíveis violações e comportamentos recorrentes. Podemos compilar e compartilhar métricas de classificadores anônimas com provedores de modelos de terceiros. O Amazon Bedrock não armazena a entrada do usuário ou a saída do modelo nem as compartilha com provedores de modelos de terceiros.

  • Detecção e bloqueio de material de abuso sexual infantil (CSAM) — Você é responsável pelo conteúdo que você (e seus usuários finais) carrega no Amazon Bedrock e deve garantir que esse conteúdo esteja livre de imagens ilegais. Para ajudar a impedir a disseminação deCSAM, o Amazon Bedrock pode usar mecanismos automatizados de detecção de abusos (como tecnologia de correspondência de hash ou classificadores) para detectar aparentes. CSAM Se o Amazon Bedrock detectar algo aparente CSAM em suas entradas de imagem, o Amazon Bedrock bloqueará a solicitação e você receberá uma mensagem de erro automática. O Amazon Bedrock também pode registrar uma denúncia no Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) ou em uma autoridade relevante. Levamos CSAM a sério e continuaremos atualizando nossos mecanismos de detecção, bloqueio e denúncia. De acordo com as leis aplicáveis, o cliente pode ser obrigado a tomar medidas adicionais e é responsável por essas medidas.

Depois que nossos mecanismos automatizados de detecção de abusos identificarem possíveis violações, poderemos solicitar informações sobre seu uso do Amazon Bedrock e a conformidade com nossos termos de serviço ou com os de um fornecedor terceirizado. AUP Caso você não queira ou não possa cumprir esses termos ou políticas, AWS poderá suspender seu acesso ao Amazon Bedrock. Você também pode ser cobrado pelas falhas nos trabalhos de ajuste fino se nossos testes automatizados detectarem que as respostas do modelo são inconsistentes com os termos e políticas de licenças de fornecedores de modelos terceirizados.

Entre em contato com o AWS Support se tiver mais perguntas. Para obter mais informações, consulte o Amazon Bedrock FAQs.