Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Détection de discours toxique

Mode de mise au point
Détection de discours toxique - Amazon Transcribe

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

La détection vocale toxique est conçue pour aider à modérer les plateformes de réseaux sociaux qui impliquent peer-to-peer le dialogue, telles que les jeux en ligne et les plateformes de chat social. L’utilisation d’un discours toxique peut être profondément préjudiciable aux individus, aux groupes de pairs et aux communautés. Le signalement de propos préjudiciables aide les organisations à garder des conversations courtoises et à maintenir un environnement en ligne sûr et inclusif permettant aux utilisateurs de créer, partager et participer librement.

Amazon Transcribe La détection de la toxicité utilise à la fois des signaux audio et textuels pour identifier et classer les contenus toxiques vocaux en sept catégories, notamment le harcèlement sexuel, les discours de haine, les menaces, les abus, les blasphèmes, les insultes et les images. Outre le texte, Amazon Transcribe Toxicity Detection utilise des signaux vocaux, tels que les tonalités et le ton, pour mettre en évidence l’intention toxique du discours. Il s’agit d’une amélioration par rapport aux systèmes de modération de contenu standard conçus pour se concentrer uniquement sur des termes spécifiques, sans tenir compte de l’intention.

Amazon Transcribe signale et catégorise les discours toxiques, ce qui minimise le volume de données devant être traitées manuellement. Cela permet aux modérateurs de contenu de gérer rapidement et efficacement le discours sur leurs plateformes.

Les catégories de discours toxiques incluent :

  • Blasphème : discours contenant des mots, des expressions ou des acronymes impolis, vulgaires ou offensants.

  • Discours haineux : discours qui critique, insulte, dénonce ou déshumanise une personne ou un groupe de personnes sur la base d’une identité (telle que la race, l’origine ethnique, le sexe, la religion, l’orientation sexuelle, les capacités et l’origine nationale).

  • Sexualité : discours qui indique un intérêt, une activité ou une excitation sexuelle en utilisant des références directes ou indirectes à des parties du corps, à des traits physiques ou au sexe.

  • Insultes : discours qui inclut un langage dégradant, humiliant, moqueur, insultant ou dénigrant. Ce type de langage est également qualifié d’intimidation.

  • Violence ou menace : discours qui inclut des menaces visant à infliger de la douleur, des blessures ou de l’hostilité à une personne ou à un groupe de personnes.

  • Graphique : discours qui utilise des images visuellement descriptives et d’une expression désagréable. Ce type de langage est souvent intentionnellement verbeux pour amplifier l’inconfort du destinataire.

  • Harcèlement ou abus : discours visant à affecter le bien-être psychologique du destinataire et comprenant notamment des termes dégradants et objectivants. Ce type de langage est également qualifié de harcèlement.

La détection de toxicité analyse les segments vocaux (le discours entre les pauses naturelles) et attribue des scores de confiance à ces segments. Les scores de confiance sont des valeurs comprises entre 0 et 1. Un score de confiance plus élevé indique une plus grande probabilité que le contenu soit un discours toxique au sein de la catégorie spécifiée. Vous pouvez utiliser ces scores de confiance pour définir le seuil de détection de toxicité adapté à votre cas d’utilisation.

Note

La détection de toxicité n’est disponible que pour les transcriptions par lots en anglais américain (en-US).

Consultez un exemple de sortie au format JSON.

ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.