Seleccione sus preferencias de cookies

Usamos cookies esenciales y herramientas similares que son necesarias para proporcionar nuestro sitio y nuestros servicios. Usamos cookies de rendimiento para recopilar estadísticas anónimas para que podamos entender cómo los clientes usan nuestro sitio y hacer mejoras. Las cookies esenciales no se pueden desactivar, pero puede hacer clic en “Personalizar” o “Rechazar” para rechazar las cookies de rendimiento.

Si está de acuerdo, AWS y los terceros aprobados también utilizarán cookies para proporcionar características útiles del sitio, recordar sus preferencias y mostrar contenido relevante, incluida publicidad relevante. Para aceptar o rechazar todas las cookies no esenciales, haga clic en “Aceptar” o “Rechazar”. Para elegir opciones más detalladas, haga clic en “Personalizar”.

Detección del habla tóxica

Modo de enfoque
Detección del habla tóxica - Amazon Transcribe

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

La detección de voz tóxica está diseñada para ayudar a moderar las plataformas de redes sociales que implican peer-to-peer el diálogo, como los juegos en línea y las plataformas de chat social. El uso de habla tóxica puede ser muy perjudicial para las personas, los grupos de pares y las comunidades. Detectar el lenguaje dañino ayuda a las organizaciones a mantener conversaciones civilizadas y a mantener un entorno en línea seguro e inclusivo para que los usuarios puedan crear, compartir y participar libremente.

Amazon Transcribe Toxicity Detection utiliza señales de audio y texto para identificar y clasificar el contenido tóxico generado por la voz en siete categorías, entre las que se incluyen el acoso sexual, la incitación al odio, las amenazas, el abuso, las blasfemias, los insultos y los gráficos. Además del texto, la detección de toxicidad de Amazon Transcribe utiliza señales del habla, como los tonos y la entonación, para centrarse en la intención tóxica del discurso. Esto supone una mejora con respecto a los sistemas de moderación de contenido estándar, que están diseñados para centrarse únicamente en términos específicos, sin tener en cuenta la intención.

Amazon Transcribe identifica y clasifica las expresiones tóxicas, lo que minimiza el volumen de datos que deben procesarse manualmente. Esto permite a los moderadores de contenido gestionar el discurso en sus plataformas de forma rápida y eficiente.

Las categorías de habla tóxica incluyen:

  • Blasfemia: discurso que contiene palabras, frases o acrónimos que son de mala educación, vulgares u ofensivos.

  • Incitación al odio: discurso que critica, insulta, denuncia o deshumaniza a una persona o grupo sobre la base de una identidad, ya sea de raza, etnia, identidad de género, religión, orientación sexual, capacidad, origen nacional u otro grupo de identidad.

  • Sexual: discurso que indica interés, actividad o excitación sexual mediante referencias directas o indirectas a partes del cuerpo o rasgos físicos o al sexo.

  • Insultos: discurso que incluye lenguaje degradante, humillante, burlón, insultante o denigrante. Este tipo de lenguaje también se denomina intimidación.

  • Violencia o amenaza: discurso que incluye amenazas que tienen por objeto infligir dolor, lesión u hostilidad a una persona o grupo.

  • Gráfico: el discurso gráfico utiliza imágenes visualmente descriptivas, detalladas y desagradablemente vívidas. Este tipo de lenguaje suele ser intencionalmente detallado para aumentar la incomodidad del destinatario.

  • Acoso o abuso: discurso destinado a afectar el bienestar psicológico del destinatario, incluidos términos degradantes y deshumanizantes. Este tipo de lenguaje también se denomina acoso.

La detección de toxicidad analiza los segmentos del habla (el habla entre pausas naturales) y asigna puntuaciones de confianza a estos segmentos. Las puntuaciones de confianza son valores entre 0 y 1. Una puntuación de confianza más alta indica una mayor probabilidad de que el contenido sea de habla tóxica dentro de la categoría asociada. Puede utilizar estas puntuaciones de confianza para establecer el umbral de detección de toxicidad adecuado para su caso de uso.

nota

La detección de toxicidad sólo está disponible para las transcripciones por lotes en inglés estadounidense (en-US).

Vea el resultado de un ejemplo en formato JSON.

PrivacidadTérminos del sitioPreferencias de cookies
© 2025, Amazon Web Services, Inc o sus afiliados. Todos los derechos reservados.