Amazon Bedrock のガードレール - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon Bedrock のガードレール

Amazon Bedrock のガードレールを使用すると、ユースケースと責任ある AI ポリシーに基づいて生成 AI アプリケーションの保護を実装できます。さまざまなユースケースに合わせた複数のガードレールを作成し、複数の基盤モデル (FM) に適用して、一貫したユーザーエクスペリエンスを提供し、生成 AI アプリケーション全体で安全性とプライバシーの制御を標準化できます。ガードレールは、テキストベースのユーザー入力とモデルレスポンスで使用できます。

ガードレールは、生成 AI アプリケーションを保護するために複数の方法で使用できます。例:

  • Chatbot アプリケーションは、ガードレールを使用して、有害なユーザー入力と有害なモデルレスポンスをフィルタリングできます。

  • 銀行アプリケーションは、ガードレールを使用して、投資アドバイスを求めたり提供したりすることに関連するユーザークエリやモデルレスポンスをブロックできます。

  • ユーザーとエージェント間の会話のトランスクリプトを要約するためのコールセンターアプリケーションは、ガードレールを使用してユーザーの個人を特定できる情報 (PII) を編集し、ユーザーのプライバシーを保護します。

ガードレールで次のポリシーを設定して、望ましくないコンテンツや有害なコンテンツを回避し、プライバシー保護のために機密情報を削除できます。

  • コンテンツフィルター – フィルターの強度を調整して、有害なコンテンツを含む入力プロンプトまたはモデルレスポンスをブロックします。

  • 拒否されたトピック – アプリケーションのコンテキストで望ましくない一連のトピックを定義します。これらのトピックは、ユーザークエリまたはモデルレスポンスで検出されるとブロックされます。

  • 単語フィルター — 望ましくない単語、フレーズ、冒涜的な言葉をブロックするようにフィルターを設定します。このような単語には、不快な用語、名詞などが含まれます。

  • 機密情報フィルター – ユーザー入力やモデルレスポンスで、個人を特定できる情報 (PII) やカスタム正規表現などの機密情報をブロックまたはマスクします。

上記のポリシーに加えて、ユーザー入力またはモデルレスポンスがガードレールで定義されているポリシーに違反している場合にユーザーに返されるメッセージを設定することもできます。

ガードレールには複数のガードレールバージョンを作成できます。ガードレールを作成すると、作業中のドラフトが自動的に変更できるようになります。さまざまな設定を試し、組み込みのテストウィンドウを使用して、それらがユースケースに適しているかどうかを確認します。一連の設定に問題がなければ、ガードレールのバージョンを作成し、サポートされている基盤モデルで使用できます。

ガードレールは、ガードレール ID とバージョンを指定することで、推論 API の呼び出し中に FMs で直接使用できます。ガードレールを使用すると、定義されたポリシーに対して入力プロンプトと FM 完了が評価されます。

検索拡張生成 (RAG) または会話アプリケーションの場合、システム命令、検索結果、会話履歴、またはいくつかの短い例を破棄しながら、入力プロンプトのユーザー入力のみを評価する必要がある場合があります。入力プロンプトのセクションを選択的に評価するには、「」を参照してくださいガードレールを使用してタグ付きのユーザー入力を選択的に評価する

重要

Amazon Bedrock のガードレールは英語のみをサポートしています。他の言語でテキストコンテンツを評価すると、信頼できない結果になる可能性があります。

Amazon Bedrock のガードレールでサポートされているリージョンとモデル

Amazon Bedrock のガードレールの料金は、ガードレールで設定されたポリシーに対してのみ発生します。各ポリシータイプの料金は、Amazon Bedrock 料金表 で入手できます。ガードレールが入力プロンプトをブロックすると、ガードレールの評価に対して課金されます。基盤モデルの推論呼び出しには料金はかかりません。ガードレールがモデルレスポンスをブロックする場合、入力プロンプトのガードレール評価とモデルレスポンスに対して課金されます。この場合、基盤モデルの推論呼び出しと、ガードレールの評価前に生成されたモデルレスポンスに対して課金されます。