Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
AWS está comprometida con el uso responsable de la IA. Para ayudar a prevenir un posible uso indebido, Amazon Bedrock implementa mecanismos automatizados de detección de abusos para identificar y mitigar las posibles infracciones de la Política de uso aceptable (AUP)
Nuestros mecanismos de detección de abusos están totalmente automatizados, por lo que no se puede revisar ni acceder a las entradas de usuario ni a las salidas del modelo.
La detección automática de abusos incluye:
-
Categorizar el contenido: utilizamos clasificadores para detectar el contenido dañino (como el que incita a la violencia) en las entradas de usuario y en las salidas del modelo. Un clasificador es un algoritmo que procesa las entradas y salidas del modelo y asigna el tipo de daño y el nivel de confianza. Podemos utilizar estos clasificadores en ambos Titan y el uso de modelos de terceros. Esto puede incluir modelos que se ajusten con precisión mediante la personalización de modelos de Amazon Bedrock. El proceso de clasificación está automatizado y no implica la revisión humana de entradas de usuario ni de salidas del modelo.
-
Identificar patrones: utilizamos métricas de clasificación para identificar posibles infracciones y comportamientos recurrentes. Podemos recopilar y compartir métricas de clasificadores anónimas con proveedores de modelos externos. Amazon Bedrock no almacena las entradas de usuario ni las salidas del modelo y no las comparte con proveedores de modelos externos.
-
Detección y bloqueo de material de abuso sexual infantil (CSAM): usted es responsable del contenido que usted y sus usuarios finales suban a Amazon Bedrock y debe asegurarse de que no contenga imágenes ilegales. Para ayudar a detener la difusión de CSAM, Amazon Bedrock puede utilizar mecanismos automatizados de detección de abusos (como la tecnología de coincidencia de hash o los clasificadores) para detectar posible CSAM. Si Amazon Bedrock detecta posible CSAM en las entradas de imágenes, bloqueará la solicitud y usted recibirá un mensaje de error automático. Amazon Bedrock también puede remitir una denuncia al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) o a la autoridad pertinente. Nos tomamos muy en serio el CSAM y, por ello, no dejaremos de actualizar nuestros mecanismos de detección, bloqueo y notificación. Es posible que las leyes aplicables le exijan que tome medidas adicionales. Usted es responsable de tomar dichas medidas.
Cuando nuestros mecanismos automatizados de detección de abusos identifiquen posibles infracciones, podemos solicitar información sobre el uso que hace de Amazon Bedrock y sobre el cumplimiento de nuestras condiciones de servicio o de la AUP de un proveedor externo. En caso de que no quiera o no pueda cumplir con estos términos o políticas, AWS podrá suspender su acceso a Amazon Bedrock. También es posible que se le facture por los trabajos de ajuste fallidos si nuestras pruebas automatizadas detectan que las respuestas del modelo no son compatibles con los términos y políticas de licencia de terceros proveedores de modelos.
Póngase en contacto con AWS Support si tiene más preguntas. Para obtener más información, consulte Amazon Bedrock FAQs