翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon SageMaker 推論レコメンダー
Amazon SageMaker Inference Recommender は Amazon の機能です SageMaker。ML インスタンス間で SageMakerロードテストとモデル調整を自動化することで、機械学習 (ML) モデルを本番稼働させるのに必要な時間を短縮できます。Inference Recommender を使用して、リアルタイムまたはサーバーレスの推論エンドポイントにモデルをデプロイすれば、最小のコストでベストパフォーマンスを実現できます。Inference Recommender は、ML モデルとワークロードに最適なインスタンスタイプと設定を選択するのに役立ちます。インスタンス数、コンテナパラメータ、モデル最適化、最大同時実行数、メモリサイズなどの要因を考慮します。
Amazon SageMaker Inference Recommender は、ジョブの実行中に使用されたインスタンスに対してのみ課金します。
仕組み
Amazon SageMaker Inference Recommender を使用するには、 SageMaker モデルを作成するか、モデルアーティファクトを使用して SageMaker モデルレジストリにモデルを登録します。 AWS SDK for Python (Boto3) または SageMaker コンソールを使用して、さまざまな SageMaker エンドポイント設定のベンチマークジョブを実行します。推論レコメンダージョブは、パフォーマンスとリソース使用率に関するメトリクスを収集して視覚化し、どのエンドポイントタイプと構成を選択するかを決定するのに役立ちます。
開始方法
Amazon SageMaker Inference Recommender を初めて使用する場合は、以下を実行することをお勧めします。
-
Amazon SageMaker Inference Recommender を使用するための前提条件 セクションを読み、Amazon SageMaker Inference Recommender を使用するための要件を満たしていることを確認します。
-
「Amazon SageMaker Inference Recommender を使用したレコメンデーションジョブ」セクションを参照し、最初の推論レコメンダーのレコメンデーションジョブを開始します。
-
Amazon SageMaker Inference Recommender Jupyter Notebook
の紹介例を参照するか、次のセクションのノートブックの例を確認してください。
サンプルノートブックの例
以下の Jupyter Notebook の例は、Inference Recommender の複数のユースケースのワークフローに役立ちます。
-
TensorFlow モデルをベンチマークする入門ノートブックが必要な場合は、SageMaker 「推論レコメンダー TensorFlow
ノートブック」を参照してください。 -
HuggingFace モデルをベンチマークする場合は、ノートブックSageMaker の推論レコメンダー HuggingFace
を参照してください。 -
XGBoost モデルをベンチマークする場合は、SageMaker 「推論レコメンダーノートブックXGBoost
」を参照してください。 -
Inference Recommender ジョブの CloudWatch メトリクスを確認するには、SageMaker Inference Recommender CloudWatch メトリクス
ノートブックを参照してください。