Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Esempio di flusso di lavoro di analisi del tono vocale per l'SDK Amazon Chime

Modalità Focus
Esempio di flusso di lavoro di analisi del tono vocale per l'SDK Amazon Chime - SDK Amazon Chime

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Importante

L'analisi del tono vocale prevede la formulazione di previsioni sul sentimento di chi parla sulla base di informazioni linguistiche e tonali. Non devi utilizzare l'analisi del sentiment in alcun modo proibito dalla legge, anche per prendere decisioni su un individuo che potrebbero avere impatti legali o altrettanto significativi su tali individui (ad esempio, in relazione all'occupazione, all'alloggio, all'affidabilità creditizia o alle offerte finanziarie, ecc.).

L'analisi del tono vocale analizza le voci delle persone che partecipano a una chiamata e prevede il loro sentimento, oppure. positive negative neutral

Il diagramma seguente mostra un esempio di flusso di lavoro per l'analisi del tono vocale. Gli elementi numerati sotto l'immagine descrivono ogni fase del processo.

Nota

Il diagramma presuppone che tu abbia già configurato un Amazon Chime SDK Voice Connector con una configurazione di analisi delle chiamate con un. VoiceAnalyticsProcessor Per ulteriori informazioni, consulta Registrazione delle chiamate Voice Connector.

Un diagramma che mostra il flusso di dati attraverso un'analisi del tono vocale.

Nel diagramma:

  1. Un chiamante effettua il login utilizzando un numero di telefono assegnato a un Amazon Chime SDK Voice Connector. Oppure, un agente utilizza un numero di Voice Connector per effettuare una chiamata in uscita.

  2. Il servizio Voice Connector crea un ID di transazione e lo associa alla chiamata.

  3. L'applicazione, ad esempio un sistema di risposta vocale interattiva, o l'agente informano il chiamante in merito alla registrazione delle chiamate e all'uso degli incorporamenti vocali per l'analisi vocale e richiede il suo consenso a partecipare.

  4. Supponendo che l'applicazione sia abbonata agli eventi, l'applicazione chiama il EventBridge CreateMediaInsightsPipelineAPI con la configurazione della pipeline with the media insights e Kinesis Video ARNs Stream per la chiamata Voice Connector.

    Per ulteriori informazioni sull'utilizzo EventBridge, consulta. Comprensione dei flussi di lavoro per l'analisi basata sull'apprendimento automatico per l'SDK Amazon Chime

  5. Una volta che il chiamante ha fornito il consenso, l'applicazione o l'agente può chiamare il StartSpeakerSearchTaskAPI tramite Voice SDK se disponi di un Voice Connector e di un ID di transazione. Oppure, se disponi di un ID di pipeline di Media Insights anziché di un ID di transazione, chiami StartSpeakerSearchTaskAPI nell'SDK Media Pipelines.

    Una volta che il chiamante fornisce il consenso, l'applicazione o l'agente chiama l'API. StartSpeakerSearchTask È necessario trasmettere l'ID del connettore vocale, l'ID della transazione e l'ID di dominio del profilo vocale all'API. Viene restituito un ID dell'attività di ricerca degli altoparlanti per identificare l'attività asincrona.

  6. L'utente parla per tutta la durata della chiamata.

  7. L'agente parla per tutta la durata della chiamata.

  8. Ogni 5 secondi, la pipeline di analisi dei media utilizza un modello di apprendimento automatico per analizzare gli ultimi 30 secondi di discorso e prevedere il tono del chiamante per quell'intervallo e per l'intera chiamata dalla prima chiamata. StartVoiceToneAnalysisTask

  9. La pipeline di media insights invia una notifica con tali informazioni agli obiettivi di notifica configurati. Puoi identificare la notifica in base all'ARN dello stream e all'ID del canale. Per ulteriori informazioni, fare riferimento aComprendere le notifiche per l'SDK Amazon Chime, più avanti in questa sezione.

  10. Ripetere i passaggi 9 e 10 fino al termine della chiamata.

  11. Al termine della chiamata, la pipeline Media Insights invia un'ultima notifica con la previsione attuale del tono medio degli ultimi 30 secondi, più il tono medio dell'intera chiamata.

  12. L'applicazione chiama il GetVoiceToneAnalysisTaskAPI necessaria per ottenere lo stato più recente dell'attività di analisi del tono vocale.

    Nota

    L'GetVoiceToneAnalysisTaskAPI non trasmette in streaming i dati del tono.

Nota

Il GetVoiceToneAnalysisTaskL'API non restituisce dati sui toni vocali.

PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.