想定インスタンスを即時に入手する - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

想定インスタンスを即時に入手する

Inference Recommender は、 SageMaker AI モデルの詳細ページで、モデルに適した可能性のあるインスタンスまたはインスタンスタイプのリストを提供することもできます。Inference Recommender はモデルに対して自動的に予備的なベンチマークを行い、上位 5 つの想定インスタンスを提供します。これらは予備的なレコメンデーションであるため、より正確な結果を得るには、さらにインスタンスレコメンデーションジョブを実行することをお勧めします。

、 SageMaker Python API、または SageMaker AI DescribeModel コンソールを使用してSDK、モデルのインスタンス候補のリストをプログラムで表示できます。

注記

この機能が利用可能になる前に SageMaker AI で作成したモデルのインスタンス候補は取得されません。

コンソールを使用してモデルの想定インスタンスを表示するには、以下の操作を行います。

  1. の SageMaker コンソールに移動しますhttps://console.aws.amazon.com/sagemaker/

  2. 左側のナビゲーションペインで [推論] を選択し、次に [モデル] を選択します。

  3. モデルのリストから、目的のモデルを選択します。

モデルの詳細ページで、[モデルをデプロイする想定インスタンス] セクションに移動します。次のスクリーンショットは、このセクションを示しています。

モデル詳細ページの想定インスタンスのリストのスクリーンショット。

このセクションでは、モデルデプロイのコスト、スループット、レイテンシーに最適化されたインスタンス候補と、メモリサイズ、CPUGPUカウント、1 時間あたりのコストなどの各インスタンスタイプの追加情報を表示できます。

サンプルペイロードをベンチマークしてモデルの推論の完全レコメンデーションジョブを実行する場合は、このページからデフォルトの推論レコメンデーションジョブを開始できます。コンソールからデフォルトジョブを開始するには、以下の操作を行います。

  1. モデルの詳細ページの [モデルをデプロイする想定インスタンス] セクション[推論レコメンダージョブを実行] を選択します。

  2. 表示されるダイアログボックスの [ペイロードのベンチマーク用 S3 バケット] に、モデルのサンプルペイロードを保存した Amazon S3 の場所を入力します。

  3. ペイロードコンテンツタイプには、ペイロードデータのMIMEタイプを入力します。

  4. (オプション) SageMaker Neo を使用したモデルコンパイルセクションで、データ入力設定にディクショナリ形式でデータシェイプを入力します。

  5. [ジョブの実行] を選択します。

Inference Recommender はジョブを開始し、 SageMaker AI コンソールの推論レコメンダーリストページからジョブとその結果を表示できます。

高度なジョブを実行してカスタムのロードテストを実行する場合や、ジョブに追加の設定とパラメータを設定する場合は、「カスタムロードテストを実行する」を参照してください。