本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
重要
语音音调分析包括根据语言和音调信息来预测发言人的情绪。您不得以任何法律禁止的方式使用情绪分析,包括涉及对个人做出可能对此类个人产生法律或类似重大影响(例如与就业、住房、信用价值或财务报价等有关)的决策。
语音音调分析可以分析人们在呼叫中的语音并预测他们的情绪,可以是 positive
、negative
或 neutral
。
下图显示了语音音调分析的工作流程示例。图像下方的带编号的内容描述了该过程的每个步骤。
注意
该图假设您已经使用具有 VoiceAnalyticsProcessor
的呼叫分析配置来配置了 Amazon Chime SDK 语音连接器。有关更多信息,请参阅 录制 Voice Connector 通话。

在下图中:
-
呼叫者使用分配给 Amazon Chime SDK 语音连接器的电话号码拨号。或者,座席使用语音连接器号码执行出站呼叫。
-
语音连接器服务创建事务 ID 并将其与呼叫关联。
-
您的应用程序(例如交互式语音应答系统)或座席会向呼叫者提供有关呼叫记录和使用语音嵌入进行语音分析的通知,并征得他们的同意才能参与。
-
假设您的应用程序订阅了 EventBridge 事件,则您的应用程序会调用 CreateMediaInsightsPipelineAPI 包含媒体见解管道配置和 Kinesis 视频流, ARNs 用于语音连接器调用。
有关使用的更多信息 EventBridge,请参阅了解 Amazon Chime SDK 基于机器学习的分析工作流程。
-
一旦来电者表示同意,您的应用程序或代理就可以致电 StartSpeakerSearchTask如果您有语音连接器和交易 ID,则通过语音 SDK 进行 API。或者,如果您使用的是媒体见解渠道 ID 而不是交易 ID,则可以调用 StartSpeakerSearchTask媒体管道 SDK 中的 API。
一旦呼叫者表示同意,您的应用程序或座席就会调用
StartSpeakerSearchTask
API。您必须将语音连接器 ID、事务 ID 和语音配置文件域 ID 传递给 API。返回发言人搜索任务 ID 以识别异步任务。 -
用户在整个呼叫过程中说话。
-
座席在整个呼叫过程中说话。
-
每隔 5 秒,媒体见解管线就会使用机器学习模型来分析最后 30 秒的话音,并预测该间隔内呼叫者的音调,以及从首次呼叫
StartVoiceToneAnalysisTask
时起的整个呼叫的音调。 -
媒体见解管线向配置的通知目标发送包含该信息的通知。您可以根据通知的流 ARN 和通道 ID 来识别通知。有关更多信息,请参阅本节后文中的 了解 Amazon Chime SDK 的通知。
-
重复步骤 9 和 10,直到呼叫结束。
-
呼叫结束时,媒体见解管线会发送最后一条通知,其中包含过去 30 秒的当前平均音调预测以及整个呼叫的平均音调。
-
您的应用程序调用 GetVoiceToneAnalysisTask根据需要提供 API,用于获取语音分析任务的最新状态。
注意
GetVoiceToneAnalysisTask
API 不流式传输音调数据。
注意
这些区域有:GetVoiceToneAnalysisTaskAPI 不返回语音数据。