选择您的 Cookie 首选项

我们使用必要 Cookie 和类似工具提供我们的网站和服务。我们使用性能 Cookie 收集匿名统计数据,以便我们可以了解客户如何使用我们的网站并进行改进。必要 Cookie 无法停用,但您可以单击“自定义”或“拒绝”来拒绝性能 Cookie。

如果您同意,AWS 和经批准的第三方还将使用 Cookie 提供有用的网站功能、记住您的首选项并显示相关内容,包括相关广告。要接受或拒绝所有非必要 Cookie,请单击“接受”或“拒绝”。要做出更详细的选择,请单击“自定义”。

检测毒性言论

聚焦模式
检测毒性言论 - Amazon Transcribe

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

有毒言语音检测旨在帮助管理涉及 peer-to-peer对话的社交媒体平台,例如在线游戏和社交聊天平台。使用毒性言论可能对个人、同类群体和社区造成严重损害。标记毒性言论有助于组织保持对话的文明性,维护一个安全、包容的网络环境,让用户可以自由创建、分享和参与。

Amazon Transcribe 毒性检测利用音频和基于文本的线索,对基于语音的有毒内容进行识别和分类,分为七个类别,包括性骚扰、仇恨言论、威胁、虐待、亵渎、侮辱和图片。除文本外, Amazon Transcribe 毒性检测还使用言论线索(例如语调和音高)来仔细研究言论中的毒性意图。这是对标准内容审核系统的改进,标准内容审核系统旨在仅关注特定术语,而不考虑意图。

Amazon Transcribe 对有害言语进行标记和分类,从而最大限度地减少必须手动处理的数据量。这使内容审阅者能够快速高效地管理其平台上的话语。

毒性言论类别包括:

  • 亵渎:包含不礼貌、粗俗或令人反感的单词、短语或首字母缩略词的言论。

  • 仇恨言论:基于身份(例如种族、民族、性别、宗教、性取向、能力和国籍)批评、侮辱、谴责或非人性化的言论。

  • :通过直接或间接提及身体部位、身体特征或性别来表示性兴趣、活动或性唤起的言论。

  • 侮辱:包括贬低、羞辱、嘲笑、侮辱或贬低语言的言论。这种语言也被标记为欺凌。

  • 暴力或威胁:包括企图对个人或群体造成痛苦、伤害或敌意的威胁的言论。

  • 图形性言论:使用视觉描述和令人不快的生动形象来表达的言论。这种语言通常故意过于详细,以加剧接受者的不适感。

  • 骚扰或虐待:旨在影响接受者心理健康的言论,包括贬低和物化用语。这种语言也被标记为骚扰。

毒性检测会分析语音片段(自然停顿之间的语音),并为这些片段分配置信度分数。置信度分数是介于 0 和 1 之间的值。置信度分数越大,表示内容属于关联类别毒性言论中的内容的可能性越大。您可以使用这些置信度分数为您的用例设置适当的毒性检测阈值。

注意

毒性检测仅适用于美国英语 ((en-US)) 的批量转录。

查看 JSON 格式的示例输出

隐私网站条款Cookie 首选项
© 2025, Amazon Web Services, Inc. 或其附属公司。保留所有权利。