Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Beispiel für einen Workflow zur Sprachtonanalyse für das Amazon Chime SDK

Fokusmodus
Beispiel für einen Workflow zur Sprachtonanalyse für das Amazon Chime SDK - Amazon Chime SDK

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Wichtig

Bei der Stimmenanalyse werden auf der Grundlage sprachlicher und tonaler Informationen Vorhersagen über die Stimmung eines Sprechers getroffen. Sie dürfen Stimmungsanalysen nicht in gesetzlich verbotener Weise einsetzen, auch nicht im Zusammenhang mit Entscheidungen über eine Person, die rechtliche oder ähnlich erhebliche Auswirkungen auf diese Personen haben würden (z. B. in Bezug auf Beschäftigung, Wohnen, Kreditwürdigkeit oder finanzielle Angebote usw.).

Die Stimmenanalyse analysiert die Stimmen der Teilnehmer eines Anrufs und prognostiziert deren Stimmungslage, entweder, oderpositive. negative neutral

Das folgende Diagramm zeigt einen Beispiel-Workflow für eine Stimmenanalyse. Die nummerierten Elemente unter dem Bild beschreiben jeden Schritt des Prozesses.

Anmerkung

Das Diagramm geht davon aus, dass Sie bereits einen Amazon Chime SDK Voice Connector mit einer Anrufanalysekonfiguration konfiguriert haben, die über eine VoiceAnalyticsProcessor verfügt. Weitere Informationen finden Sie unter Aufzeichnen von Voice Connector-Anrufen.

Ein Diagramm, das den Datenfluss durch eine Stimmenanalyse zeigt.

Im Diagramm:

  1. Ein Anrufer wählt sich mit einer Telefonnummer ein, die einem Amazon Chime SDK Voice Connector zugewiesen ist. Oder ein Agent verwendet eine Voice Connector-Nummer, um einen ausgehenden Anruf zu tätigen.

  2. Der Voice Connector-Dienst erstellt eine Transaktions-ID und ordnet sie dem Anruf zu.

  3. Ihre Anwendung — z. B. ein Interactive Voice Response-System — oder Ihr Agent informiert den Anrufer über die Anrufaufzeichnung und die Verwendung von Spracheinbettungen für Sprachanalysen und bittet ihn um seine Zustimmung zur Teilnahme.

  4. Angenommen, Ihre Anwendung abonniert Ereignisse, ruft Ihre Anwendung die EventBridge CreateMediaInsightsPipelineAPI mit der Media Insights-Pipeline-Konfiguration und Kinesis Video Stream ARNs für den Voice Connector-Anruf.

    Weitere Informationen zur Verwendung finden EventBridge Sie unter. Grundlegendes zu Workflows für auf maschinellem Lernen basierende Analysen für das Amazon Chime SDK

  5. Sobald der Anrufer seine Zustimmung gegeben hat, kann Ihre Anwendung oder Ihr Mitarbeiter den StartSpeakerSearchTaskAPI über das Voice SDK, wenn Sie über einen Voice Connector und eine Transaktions-ID verfügen. Oder, wenn Sie statt einer Transaktions-ID eine Media Insights-Pipeline-ID haben, rufen Sie die StartSpeakerSearchTaskAPI im Media Pipelines SDK.

    Sobald der Anrufer seine Zustimmung erteilt hat, ruft Ihre Anwendung oder Ihr Agent die API aufStartSpeakerSearchTask. Sie müssen die Voice Connector-ID, die Transaktions-ID und die Domain-ID des Sprachprofils an die API übergeben. Es wird eine Aufgaben-ID für die Lautsprechersuche zurückgegeben, um die asynchrone Aufgabe zu identifizieren.

  6. Der Benutzer spricht während des gesamten Anrufs.

  7. Der Agent spricht während des gesamten Anrufs.

  8. Alle 5 Sekunden analysiert die Media Insights-Pipeline mithilfe eines Modells für maschinelles Lernen die letzten 30 Sekunden der Sprache und prognostiziert den Ton des Anrufers für dieses Intervall und für den gesamten Anruf ab dem StartVoiceToneAnalysisTask Zeitpunkt des ersten Anrufs.

  9. Die Media Insights-Pipeline sendet eine Benachrichtigung mit diesen Informationen an die konfigurierten Benachrichtigungsziele. Sie können die Benachrichtigung anhand ihres Stream-ARN und ihrer Kanal-ID identifizieren. Weitere Informationen finden Sie weiter Grundlegendes zu Benachrichtigungen für das Amazon Chime SDK unten in diesem Abschnitt.

  10. Wiederholen Sie die Schritte 9 und 10, bis der Anruf beendet ist.

  11. Am Ende des Anrufs sendet die Media Insights-Pipeline eine letzte Benachrichtigung mit der aktuellen durchschnittlichen Tonvorhersage für die letzten 30 Sekunden sowie dem durchschnittlichen Ton des gesamten Anrufs.

  12. Ihre Anwendung ruft den GetVoiceToneAnalysisTaskAPI nach Bedarf, um den neuesten Status der Aufgabe zur Stimmentonanalyse abzurufen.

    Anmerkung

    Die GetVoiceToneAnalysisTask API streamt die Tondaten nicht.

Anmerkung

Die GetVoiceToneAnalysisTaskDie API gibt keine Sprachtondaten zurück.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.