Amazon Bedrock による不正検出 - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon Bedrock による不正検出

AWS は AI の責任ある使用にコミットしています。不正利用の芽を摘むため、Amazon Bedrock は、「責任ある AI ポリシー」またはサードパーティーのモデルプロバイダーの利用規約を含む、 AWSの「利用規約(AUP)」および「サービス条件」に対する違反の芽を特定して回避する不正利用自動検出メカニズムを実装しています。

Amazon の不正検出メカニズムは完全に自動化されているため、ユーザー入力やモデル出力を人間が確認したりアクセスしたりする必要はありません。

不正利用の自動検出には以下が含まれます。

  • コンテンツの分類 - 分類子を使用して、ユーザー入力やモデル出力に含まれる有害なコンテンツ (暴力を扇動するコンテンツなど) を検出します。分類子は、モデルの入力と出力を処理し、攻撃の種類と信頼度を割り当てるアルゴリズムです。これらの分類子は Titan とサードパーティーのモデルの両方に対して実行できます。これには、Amazon Bedrock のモデルカスタマイズを使用して微調整されたモデルが含まれる場合があります。分類プロセスは自動化されており、ユーザー入力やモデル出力を人間が確認する必要はありません。

  • パターンの特定 - 分類メトリクスを使用して、違反の芽や繰り返し発生する動作を特定します。当社では、匿名化された分類メトリクスをまとめ、サードパーティーのモデルプロバイダーと共有する場合があります。Amazon Bedrock はユーザー入力やモデル出力を保管せず、サードパーティーのモデルプロバイダーと共有することもありません。

  • 児童性的虐待コンテンツ (CSAM) の検出とブロック — お客様は、お客様自身 (およびエンドユーザー) が Amazon Bedrock にアップロードするコンテンツについて責任を負い、こうした違法な画像が含まれるコンテンツを確実に排除する必要があります。CSAM の拡散を防止するために、Amazon Bedrock では自動不正検出メカニズム (ハッシュマッチング技術や分類子など) を使用して、CSAM とみられるコンテンツの検出が行われる場合があります。画像入力に CSAM とみられるコンテンツが検出されると、Amazon Bedrock はリクエストをブロックし、ユーザーに自動エラーメッセージを送信します。Amazon Bedrock から、National Center for Missing and Exploited Children (NCMEC) や関連機関に報告することもできます。当社では、CSAM の問題を重く受け止め、検出、ブロック、報告のメカニズムを引き続き更新していきます。お客様は、適用される法律により追加のアクションを求められる場合があり、こうしたアクションの実施は、お客様の責任となります。

当社の自動不正検出メカニズムによって違反の芽が特定されると、お客様による Amazon Bedrock の使用状況、および当社のサービス条件やサードパーティープロバイダーの利用規約の遵守について、当社から情報を求める場合があります。これらの条件またはポリシーに従う意思がない場合、または従うことができない場合は、Amazon Bedrock へのアクセスが停止 AWS されることがあります。また、自動テストにより、モデルレスポンスがサードパーティーのモデルプロバイダーのライセンス条項やポリシーと矛盾していることが検出された場合、失敗したファインチューニングジョブに対して請求される場合があります。

その他の質問がある場合は、 AWS サポートにお問い合わせください。詳細については、「Amazon Bedrock FAQs」を参照してください。