Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
La détection vocale toxique est conçue pour aider à modérer les plateformes de réseaux sociaux qui impliquent peer-to-peer le dialogue, telles que les jeux en ligne et les plateformes de chat social. L’utilisation d’un discours toxique peut être profondément préjudiciable aux individus, aux groupes de pairs et aux communautés. Le signalement de propos préjudiciables aide les organisations à garder des conversations courtoises et à maintenir un environnement en ligne sûr et inclusif permettant aux utilisateurs de créer, partager et participer librement.
Amazon Transcribe La détection de la toxicité utilise à la fois des signaux audio et textuels pour identifier et classer les contenus toxiques vocaux en sept catégories, notamment le harcèlement sexuel, les discours de haine, les menaces, les abus, les blasphèmes, les insultes et les images. Outre le texte, Amazon Transcribe Toxicity Detection utilise des signaux vocaux, tels que les tonalités et le ton, pour mettre en évidence l’intention toxique du discours. Il s’agit d’une amélioration par rapport aux systèmes de modération de contenu standard conçus pour se concentrer uniquement sur des termes spécifiques, sans tenir compte de l’intention.
Amazon Transcribe signale et catégorise les discours toxiques, ce qui minimise le volume de données devant être traitées manuellement. Cela permet aux modérateurs de contenu de gérer rapidement et efficacement le discours sur leurs plateformes.
Les catégories de discours toxiques incluent :
-
Blasphème : discours contenant des mots, des expressions ou des acronymes impolis, vulgaires ou offensants.
-
Discours haineux : discours qui critique, insulte, dénonce ou déshumanise une personne ou un groupe de personnes sur la base d’une identité (telle que la race, l’origine ethnique, le sexe, la religion, l’orientation sexuelle, les capacités et l’origine nationale).
-
Sexualité : discours qui indique un intérêt, une activité ou une excitation sexuelle en utilisant des références directes ou indirectes à des parties du corps, à des traits physiques ou au sexe.
-
Insultes : discours qui inclut un langage dégradant, humiliant, moqueur, insultant ou dénigrant. Ce type de langage est également qualifié d’intimidation.
-
Violence ou menace : discours qui inclut des menaces visant à infliger de la douleur, des blessures ou de l’hostilité à une personne ou à un groupe de personnes.
-
Graphique : discours qui utilise des images visuellement descriptives et d’une expression désagréable. Ce type de langage est souvent intentionnellement verbeux pour amplifier l’inconfort du destinataire.
-
Harcèlement ou abus : discours visant à affecter le bien-être psychologique du destinataire et comprenant notamment des termes dégradants et objectivants. Ce type de langage est également qualifié de harcèlement.
La détection de toxicité analyse les segments vocaux (le discours entre les pauses naturelles) et attribue des scores de confiance à ces segments. Les scores de confiance sont des valeurs comprises entre 0 et 1. Un score de confiance plus élevé indique une plus grande probabilité que le contenu soit un discours toxique au sein de la catégorie spécifiée. Vous pouvez utiliser ces scores de confiance pour définir le seuil de détection de toxicité adapté à votre cas d’utilisation.
Note
La détection de toxicité n’est disponible que pour les transcriptions par lots en anglais américain (en-US)
.
Consultez un exemple de sortie au format JSON.