翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
想定インスタンスを即時に入手する
Inference Recommender は、モデル SageMaker の詳細ページで、モデルに適した可能性のあるインスタンス またはインスタンスタイプのリストを提供することもできます。Inference Recommender はモデルに対して自動的に予備的なベンチマークを行い、上位 5 つの想定インスタンスを提供します。これらは予備的なレコメンデーションであるため、より正確な結果を得るには、さらにインスタンスレコメンデーションジョブを実行することをお勧めします。
、 SageMaker Python DescribeModelAPI、または SageMaker コンソールを使用してSDK、プログラムでモデルのプロスペクティブインスタンスのリストを表示できます。
注記
この機能が利用可能になる SageMaker 前に で作成したモデルのプロスペクティブインスタンスは取得されません。
コンソールを使用してモデルの想定インスタンスを表示するには、以下の操作を行います。
-
の SageMaker コンソールに移動しますhttps://console.aws.amazon.com/sagemaker/
。 -
左側のナビゲーションペインで [推論] を選択し、次に [モデル] を選択します。
-
モデルのリストから、目的のモデルを選択します。
モデルの詳細ページで、[モデルをデプロイする想定インスタンス] セクションに移動します。次のスクリーンショットは、このセクションを示しています。
このセクションでは、モデルデプロイのコスト、スループット、レイテンシーに最適化されたプロスペクティブインスタンスと、メモリサイズ、CPUGPUカウント、1 時間あたりのコストなどの各インスタンスタイプの追加情報を表示できます。
サンプルペイロードをベンチマークしてモデルの推論の完全レコメンデーションジョブを実行する場合は、このページからデフォルトの推論レコメンデーションジョブを開始できます。コンソールからデフォルトジョブを開始するには、以下の操作を行います。
-
モデルの詳細ページの [モデルをデプロイする想定インスタンス] セクションで [推論レコメンダージョブを実行] を選択します。
-
表示されるダイアログボックスの [ペイロードのベンチマーク用 S3 バケット] に、モデルのサンプルペイロードを保存した Amazon S3 の場所を入力します。
-
ペイロードコンテンツタイプ には、ペイロードデータのMIMEタイプを入力します。
-
(オプション) SageMaker Neo を使用したモデルコンパイルセクションで、データ入力設定 にディクショナリ形式でデータ形状を入力します。
-
[Run job] (ジョブの実行) を選択します。
Inference Recommender はジョブを開始し、 SageMaker コンソールの推論レコメンダーリストページからジョブとその結果を表示できます。
高度なジョブを実行してカスタムのロードテストを実行する場合や、ジョブに追加の設定とパラメータを設定する場合は、「カスタムロードテストを実行する」を参照してください。