翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
シャドウテスト
Amazon SageMaker AI では、モデル提供インフラストラクチャに対するあらゆる変更を、そのパフォーマンスを現在デプロイされているインフラストラクチャと比較することで評価できます。この方法はシャドウテストと呼ばれています。シャドウテストは、潜在的な設定エラーやパフォーマンスの問題がエンドユーザーに影響を与える前に発見するのに役立ちます。 SageMaker AI を使用すると、シャドウテストインフラストラクチャの構築に投資する必要がなくなるため、モデル開発に集中できます。
この機能を使用することで、モデル、コンテナ、インスタンスなど、本番稼働用バリアントのあらゆるコンポーネントへの変更を、エンドユーザーに影響を与えることなく検証できます。これは次のような状況で役立ちます (これらに限定されません)。
-
オフラインで検証された新しいモデルを本番環境に導入することを検討しているものの、この決定を下す前に、レイテンシーやエラー率などの運用パフォーマンス指標を評価したい場合。
-
脆弱性へのパッチ適用や新しいバージョンへのアップグレードなど、サービス提供インフラストラクチャコンテナへの変更を検討しており、本番環境に移行する前にこれらの変更の影響を評価したい場合。
-
ML インスタンスの変更を検討しており、新しいインスタンスがライブ推論リクエストでどのように機能するかを評価したい場合。
SageMaker AI コンソールは、シャドウテストのワークフローを管理するためのガイド付きエクスペリエンスを提供します。事前に設定した期間のシャドウテストを設定し、ライブダッシュボードでテストの進行状況を監視し、完了時にクリーンアップし、結果に基づいてアクションを実行できます。テストする本番稼働用バリアントを選択すると、 SageMaker AI は新しいバリアントをシャドウモードで自動的にデプロイし、推論リクエストのコピーを同じエンドポイント内でリアルタイムでルーティングします。本番稼働用バリアントの応答のみが呼び出し元のアプリケーションに返されます。シャドウバリアントの応答を破棄するか、オフラインで比較できるようにログに残すかを選択できます。本番稼働用バリアントとシャドウバリアントの詳細については、「本番環境でのモデルの検証」を参照してください。
シャドウテストを作成する手順については、「シャドウテストを作成する」を参照してください。
注記
特定のエンドポイント機能によっては、エンドポイントとシャドウテストに互換性がない場合があります。エンドポイントで次の機能のいずれかを使用している場合、エンドポイントでシャドウテストを使用することはできません。シャドウテストの設定をリクエストすると検証エラーになります。
サーバーレス推論
非同期推論
Marketplace コンテナ
マルチコンテナエンドポイント
マルチモデルエンドポイント
Inf1 (Inferentiaベース) インスタンスを使うエンドポイント