As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
A detecção de fala tóxica foi projetada para ajudar a moderar plataformas de mídia social que envolvem peer-to-peer diálogo, como jogos online e plataformas de bate-papo social. O uso de fala tóxica pode ser profundamente prejudicial para indivíduos, grupos de pares e comunidades. A sinalização de linguagem prejudicial ajuda as organizações a manter as conversas em um tom civilizado e a manter um ambiente on-line seguro e inclusivo para que os usuários criem, compartilhem e participem livremente.
Amazon Transcribe A Detecção de Toxicidade utiliza sinais baseados em áudio e texto para identificar e classificar conteúdo tóxico baseado em voz em sete categorias, incluindo assédio sexual, discurso de ódio, ameaça, abuso, palavrões, insultos e gráficos. Além do texto, a Detecção de Toxicidade do Amazon Transcribe usa dicas de fala, como tons e inclinação, para identificar a intenção tóxica na fala. Essa é uma melhoria em relação aos sistemas padrão de moderação de conteúdo, projetados para se concentrar apenas em termos específicos, sem levar em conta a intenção.
Amazon Transcribe sinaliza e categoriza a fala tóxica, o que minimiza o volume de dados que devem ser processados manualmente. Isso permite que os moderadores de conteúdo gerenciem com rapidez e eficiência o discurso em suas plataformas.
As categorias de fala tóxica incluem:
-
Profanação: discurso que contém palavras, frases ou acrônimos que são indelicados, vulgares ou ofensivos.
-
Discurso de ódio: discurso que critica, insulta, denuncia ou desumaniza uma pessoa ou grupo com base em uma identidade (como raça, etnia, gênero, religião, orientação sexual, capacidade e origem nacional).
-
Sexual: discurso que indica interesse, atividade ou excitação sexual usando referências diretas ou indiretas a partes do corpo, características físicas ou sexo.
-
Insultos: discurso que inclui linguagem degradante, humilhante, zombeteira, insultante ou depreciativa. Esse tipo de linguagem também é chamado de bullying.
-
Violência ou ameaça: discurso que inclui ameaças com o objetivo de infligir dor, lesão ou hostilidade a uma pessoa ou grupo.
-
Gráfico: discurso que usa imagens visualmente descritivas e desagradavelmente vívidas. Em geral, esse tipo de linguagem é intencionalmente prolixo para ampliar o desconforto do destinatário.
-
Assédio ou abuso: discurso destinado a afetar o bem-estar psicológico do destinatário, incluindo termos humilhantes e objetificantes. Esse tipo de linguagem também é chamado de assédio.
A detecção de toxicidade analisa segmentos da fala (a fala entre pausas naturais) e atribui pontuações de confiança a esses segmentos. Os escores de confiança são valores entre 0 e 1. Uma pontuação de confiança maior indica uma probabilidade maior de que o conteúdo seja um discurso tóxico na categoria associada. Você pode usar essas pontuações de confiança para definir o limite apropriado de detecção de toxicidade para seu caso de uso.
nota
A detecção de toxicidade só está disponível para transcrições em lote em inglês dos EUA (en-US)
.
Veja um exemplo de saída no formato JSON.