Detección de abusos de Amazon Bedrock - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Detección de abusos de Amazon Bedrock

AWS está comprometida con el uso responsable de la IA. Para ayudar a prevenir un posible uso indebido, Amazon Bedrock implementa mecanismos automatizados de detección de abusos para identificar posibles infracciones AWS de la Política de uso aceptable (AUP) y las Condiciones del servicio, incluida la Política de IA responsable o la de un proveedor de AUP modelos externo.

Nuestros mecanismos de detección de abusos están totalmente automatizados, por lo que no se puede revisar ni acceder a las entradas de usuario ni a las salidas del modelo.

La detección automática de abusos incluye:

  • Categorizar el contenido: utilizamos clasificadores para detectar el contenido dañino (como el que incita a la violencia) en las entradas de usuario y en las salidas del modelo. Un clasificador es un algoritmo que procesa las entradas y salidas del modelo y asigna el tipo de daño y el nivel de confianza. Podemos utilizar estos clasificadores en ambos Titan y el uso de modelos de terceros. Esto puede incluir modelos que se ajusten con precisión mediante la personalización de modelos de Amazon Bedrock. El proceso de clasificación está automatizado y no implica la revisión humana de entradas de usuario ni de salidas del modelo.

  • Identificar patrones: utilizamos métricas de clasificación para identificar posibles infracciones y comportamientos recurrentes. Podemos recopilar y compartir métricas de clasificadores anónimas con proveedores de modelos externos. Amazon Bedrock no almacena las entradas de usuario ni las salidas del modelo y no las comparte con proveedores de modelos externos.

  • Detección y bloqueo de material de abuso sexual infantil (CSAM): usted es responsable del contenido que usted (y sus usuarios finales) suban a Amazon Bedrock y debe asegurarse de que no contenga imágenes ilegales. Para ayudar a detener la difusión deCSAM, Amazon Bedrock puede utilizar mecanismos automatizados de detección de usos indebidos (como la tecnología de coincidencia de hash o los clasificadores) para detectar lo evidente. CSAM Si Amazon Bedrock detecta algo evidente CSAM en sus entradas de imagen, Amazon Bedrock bloqueará la solicitud y recibirá un mensaje de error automático. Amazon Bedrock también puede presentar una denuncia ante el Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) o ante la autoridad pertinente. Nos lo tomamos CSAM muy en serio y seguiremos actualizando nuestros mecanismos de detección, bloqueo e información. Es posible que las leyes aplicables le exijan que tome medidas adicionales. Usted es responsable de tomar dichas medidas.

Una vez que nuestros mecanismos automatizados de detección de abusos identifiquen posibles infracciones, podemos solicitarle información sobre su uso de Amazon Bedrock y el cumplimiento de nuestras condiciones de servicio o las de AUP un proveedor externo. En caso de que no quiera o no pueda cumplir con estos términos o políticas, AWS podrá suspender su acceso a Amazon Bedrock. También es posible que se le facture por los trabajos de ajuste fallidos si nuestras pruebas automatizadas detectan que las respuestas de los modelos no son compatibles con los términos y políticas de licencia de terceros proveedores de modelos.

Póngase en contacto con AWS Support si tiene más preguntas. Para obtener más información, consulte Amazon Bedrock FAQs.