Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Detección de abusos de Amazon Bedrock
AWS está comprometida con el uso responsable de la IA. Para ayudar a prevenir un posible uso indebido, Amazon Bedrock implementa mecanismos automatizados de detección de abusos para identificar y mitigar las posibles infracciones de la Política de uso aceptable (AUP)
Nuestros mecanismos de detección de abusos están totalmente automatizados, por lo que no se puede revisar ni acceder a las entradas de usuario ni a las salidas del modelo.
La detección automática de abusos incluye:
-
Categorizar el contenido: utilizamos clasificadores para detectar el contenido dañino (como el que incita a la violencia) en las entradas de usuario y en las salidas del modelo. Un clasificador es un algoritmo que procesa las entradas y salidas del modelo y asigna el tipo de daño y el nivel de confianza. Es posible que utilicemos estos clasificadores tanto Titan en modelos como en modelos de terceros. El proceso de clasificación está automatizado y no implica la revisión humana de entradas de usuario ni de salidas del modelo.
-
Identificar patrones: utilizamos métricas de clasificación para identificar posibles infracciones y comportamientos recurrentes. Podemos recopilar y compartir métricas de clasificadores anónimas con proveedores de modelos externos. Amazon Bedrock no almacena las entradas de usuario ni las salidas del modelo y no las comparte con proveedores de modelos externos.
-
Detección y bloqueo de material de abuso sexual infantil (CSAM): usted es responsable del contenido que usted (y sus usuarios finales) suban a Amazon Bedrock y debe asegurarse de que no contenga imágenes ilegales. Para ayudar a detener la difusión de la CSAM, Amazon Bedrock puede utilizar mecanismos automatizados de detección de usos indebidos (como la tecnología de coincidencia de hash o los clasificadores) para detectar la CSAM aparente. Si Amazon Bedrock detecta una CSAM aparente en las entradas de imagen, Amazon Bedrock bloqueará la solicitud y recibirá un mensaje de error automático. Amazon Bedrock también puede presentar una denuncia ante el Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) o ante la autoridad pertinente. Nos tomamos muy en serio la CSAM y seguiremos actualizando nuestros mecanismos de detección, bloqueo e información. Es posible que las leyes aplicables le exijan que tome medidas adicionales, y usted es responsable de esas acciones.
Una vez que nuestros mecanismos automatizados de detección de usos indebidos identifiquen posibles infracciones, podemos solicitarle información sobre su uso de Amazon Bedrock y el cumplimiento de nuestras condiciones de servicio o de la AUP de un proveedor externo. En caso de que no quiera o no pueda cumplir con estos términos o políticas, AWS podrá suspender su acceso a Amazon Bedrock.
Póngase en contacto con AWS Support si tiene más preguntas. Para obtener más información, consulte las preguntas frecuentes de Amazon Bedrock