Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Exemple de flux de travail d'analyse des tonalités vocales pour le SDK Amazon Chime

Mode de mise au point
Exemple de flux de travail d'analyse des tonalités vocales pour le SDK Amazon Chime - Kit SDK Amazon Chime

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Important

L'analyse du ton vocal consiste à faire des prédictions sur le sentiment d'un locuteur sur la base d'informations linguistiques et tonales. Vous ne devez pas utiliser l'analyse des sentiments d'une manière interdite par la loi, notamment pour prendre des décisions concernant une personne qui auraient des répercussions juridiques ou similaires importantes sur cette personne (par exemple, liées à l'emploi, au logement, à la solvabilité ou aux offres financières, etc.).

L'analyse du ton vocal analyse les voix des personnes lors d'un appel et prédit leur sentiment, soit positivenegative, soitneutral.

Le schéma suivant montre un exemple de flux de travail pour une analyse de tonalité vocale. Les éléments numérotés situés sous l'image décrivent chaque étape du processus.

Note

Le schéma suppose que vous avez déjà configuré un connecteur vocal du SDK Amazon Chime avec une configuration d'analyse des appels dotée d'un. VoiceAnalyticsProcessor Pour de plus amples informations, veuillez consulter Enregistrement des appels via le connecteur vocal.

Schéma illustrant le flux de données par le biais d'une analyse de tonalité vocale.

Dans le schéma :

  1. Un appelant se connecte en utilisant un numéro de téléphone attribué à un connecteur vocal Amazon Chime SDK. Ou bien, un agent utilise un numéro de connecteur vocal pour passer un appel sortant.

  2. Le service Voice Connector crée un identifiant de transaction et l'associe à l'appel.

  3. Votre application, comme un système de réponse vocale interactive, ou votre agent informe l'appelant concernant l'enregistrement des appels et l'utilisation d'intégrations vocales à des fins d'analyse vocale et sollicite son consentement pour participer.

  4. En supposant que votre application soit abonnée à EventBridge des événements, elle appelle le CreateMediaInsightsPipelineAPI avec configuration du pipeline Media Insights et Kinesis Video Stream ARNs pour l'appel Voice Connector.

    Pour plus d'informations sur l'utilisation EventBridge, reportez-vous àComprendre les flux de travail pour les analyses basées sur l'apprentissage automatique pour le SDK Amazon Chime.

  5. Une fois que l'appelant a donné son consentement, votre application ou votre agent peut appeler le StartSpeakerSearchTaskAPI via le SDK vocal si vous disposez d'un connecteur vocal et d'un identifiant de transaction. Ou, si vous avez un identifiant de pipeline Media Insights au lieu d'un identifiant de transaction, vous appelez le StartSpeakerSearchTaskAPI dans le SDK Media Pipelines.

    Une fois que l'appelant a donné son consentement, votre application ou votre agent appelle l'StartSpeakerSearchTaskAPI. Vous devez transmettre l'identifiant du connecteur vocal, l'identifiant de transaction et l'identifiant de domaine du profil vocal à l'API. Un identifiant de tâche de recherche de haut-parleurs est renvoyé pour identifier la tâche asynchrone.

  6. L'utilisateur parle tout au long de l'appel.

  7. L'agent parle tout au long de l'appel.

  8. Toutes les 5 secondes, le pipeline d'informations sur les médias utilise un modèle d'apprentissage automatique pour analyser les 30 dernières secondes du discours et prévoir le ton de l'appelant pendant cet intervalle, et pour l'ensemble de l'appel depuis le StartVoiceToneAnalysisTask premier appel.

  9. Le pipeline Media Insights envoie une notification contenant ces informations aux cibles de notification configurées. Vous pouvez identifier la notification en fonction de son ARN de flux et de son identifiant de canal. Pour plus d'informations, reportez-vous àComprendre les notifications pour le SDK Amazon Chime, plus loin dans cette section.

  10. Répétez les étapes 9 et 10 jusqu'à la fin de l'appel.

  11. À la fin de l'appel, le pipeline Media Insights envoie une dernière notification avec la prédiction de tonalité moyenne actuelle pour les 30 dernières secondes, plus la tonalité moyenne de l'ensemble de l'appel.

  12. Votre application appelle le GetVoiceToneAnalysisTaskAPI selon les besoins pour obtenir le dernier statut de la tâche d'analyse du ton vocal.

    Note

    L'GetVoiceToneAnalysisTaskAPI ne diffuse pas les données de tonalité.

Note

La GetVoiceToneAnalysisTaskL'API ne renvoie pas les données de tonalité vocale.

ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.