翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
有害音声検出は、オンラインゲームやソーシャルチャットプラットフォームなど、ピアツーピアの対話を伴うソーシャルメディアプラットフォームの管理に役立つように設計されています。有害な音声の使用は、個人、仲間グループ、コミュニティに深刻な悪影響を及ぼす可能性があります。有害な音声にフラグを立てることで、組織は会話を礼儀正しく保ち、ユーザーが自由に作成、共有、参加できる安全で包括的なオンライン環境を維持できます。
Amazon Transcribe 有害性検出は、音声とテキストの両方のキューを活用して、性的行為、ヘイトスピーチ、脅威、虐待、冒涜、侮辱、グラフィックを含む 7 つのカテゴリにわたって音声ベースの有害コンテンツを識別して分類します。 Amazon Transcribe 有害性検出では、テキストだけでなく、トーンやピッチなどの音声キューも使用して、発話に含まれる有害な意図に的を絞ります。これは、意図を考慮せずに特定の用語のみに焦点を当てるように設計された標準のコンテンツモデレーションシステムから改善された点です。
Amazon Transcribe は有害な音声にフラグを付けて分類するため、手動で処理する必要があるデータの量を最小限に抑えることができます。これにより、コンテンツモデレーターはプラットフォーム上の会話を迅速かつ効率的に管理できます。
有害な音声の分類には以下が含まれます。
-
不敬: 無礼、下品、攻撃的な単語やフレーズ、または頭字語を含む言葉。
-
ヘイトスピーチ: 人種、民族、性同一性、宗教、性的指向、能力、出身国、その他のアイデンティティグループなど、アイデンティティに基づいて個人またはグループを批判、侮辱、否定する発言。
-
セクシャル: 体の一部、身体的特徴、性別への直接的または間接的な言及により、性的関心、活動、性的嗜好を示す発言。
-
侮辱: 屈辱的、嘲笑的、侮辱的、または軽蔑的な言葉を含む発言。この種の発言は、「いじめ」とも呼ばれます。
-
暴力または脅し: 個人または集団に対して苦痛や痛み、敵意を与えることを意図する脅迫的な発言。
-
グラフィックスピーチ: 視覚的に説明的で詳細、不快かつ生々しい画像を使った発言。この種の言葉は、受け手の不快感を増幅させるために、意図的に冗長になることが多いのです。
-
ハラスメントや虐待: 相手を侮辱したり対象化したりする発言など、受け手の心理的健康に影響を与えることを意図した発言。この種の言葉は、「ハラスメント」とも呼ばれます。
有毒性検出では、音声セグメント (自然な一時停止の間の音声) を分析し、これらのセグメントに信頼度スコアを割り当てます。信頼度スコアの値は 0~1 です。信頼スコアが大きいほど、コンテンツが関連したカテゴリ内の有害な音声である可能性が高くなります。これらの信頼度スコアを使用して、ユースケースに適した有毒性検出の閾値を設定できます。
注記
有毒性検出は、米国英語 (en-US)
のバッチ文字起こしでのみ利用できます。
JSON 形式の出力例を表示します。