翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
有害な発話の検知
有毒な音声検出は、関与するソーシャルメディアプラットフォームをモデレートするのに役立つように設計されていますpeer-to-peerオンラインゲームやソーシャルチャットプラットフォームなどの対話。毒性のある言葉の使用は、個人、仲間グループ、コミュニティに深刻な悪影響を及ぼす可能性があります。有害な言葉にフラグを付けることで、組織は会話を礼儀正しく保ち、ユーザーが自由に作成、共有、参加できる安全で包括的なオンライン環境を維持できます。
Amazon TranscribeToxicity Detectionは、音声とテキストの両方の手がかりを活用して、性的嫌がらせ、ヘイトスピーチ、脅迫、虐待、冒涜、侮辱、グラフィックを含む7つのカテゴリにわたって、音声ベースの有害コンテンツを識別して分類します。テキストに加えて、Amazon Transcribe毒性検出では、トーンやピッチなどの音声合図を使用して、発話に含まれる有害な意図に焦点を合わせます。これは、意図を考慮せずに特定の用語のみに焦点を当てるように設計された標準的なコンテンツ管理システムからの改善点です。
Amazon Transcribe有害な発言にフラグを付けて分類することで、手動で処理しなければならないデータ量を最小限に抑えます。これにより、コンテンツモデレーターはプラットフォーム上の談話を迅速かつ効率的に管理できます。
有害な発話のカテゴリには以下が含まれます。
-
冒とく的な言葉: 失礼な、下品な、または攻撃的な言葉、フレーズ、または略語を含むスピーチ。
-
ヘイトスピーチ: アイデンティティ(人種、民族、性別、宗教、性的指向、能力、出身国など)に基づいて個人やグループを批判、侮辱、非人間化する言葉。
-
性的: 身体の部位、身体的特徴、性別への直接的または間接的な言及を使用して、性的興味、活動、または覚醒を示す発言。
-
侮辱: 品位を落とす、屈辱的な、嘲笑する、侮辱する、または軽蔑的な言葉を含む言葉。この種の言葉はいじめとも呼ばれます。
-
暴力または脅迫: 個人や団体に苦痛、傷害、敵意を与えるような脅迫を含む言葉。
-
グラフィック: 視覚的にわかりやすく、不快なほど鮮明な画像を使用するスピーチ。この種の言葉は、受信者の不快感を増幅させるために意図的に冗長化されていることがよくあります。
-
嫌がらせまたは虐待: 侮辱的または客観的な表現を含む、受取人の心理的健康に影響を及ぼすことを意図した発言 この種の言葉は嫌がらせとも呼ばれます。
毒性検出は、音声セグメント(自然な休止間の発話)を分析し、これらのセグメントに信頼度スコアを割り当てます。信頼度スコアは 0 から 1 の間の値です。信頼度スコアが高いほど、その内容が関連カテゴリの有害な表現である可能性が高くなります。これらの信頼度スコアを使用して、ユースケースに適した毒性検出の閾値を設定できます。
注記
毒性検出は、米国英語でのバッチ転写でのみ利用可能です(en-US)
。
[ビュー]出力例JSON フォーマットで。