翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon SageMaker 推論レコメンダー
Amazon SageMaker Inference Recommender は、ML SageMaker インスタンス全体の負荷テストとモデルチューニングを自動化することで、機械学習 (ML) モデルを本番環境に導入するのに必要な時間を短縮する Amazon SageMaker の機能です。Inference Recommender を使用して、リアルタイムまたはサーバーレスの推論エンドポイントにモデルをデプロイすれば、最小のコストでベストパフォーマンスを実現できます。Inference Recommender は、機械学習モデルとワークロードに最適なインスタンスタイプと設定 (インスタンス数、コンテナパラメータ、モデルの最適化など) または機械学習モデルおよびワークフローロードのサーバーレス構成 (最大同時実行数、メモリサイズなど) を選択するのに役立ちます。
Amazon SageMaker 推論レコメンダーは、ジョブの実行中に使用されたインスタンスに対してのみ料金を請求します。
仕組み
Amazon SageMaker Inference Recommender を使用するには、 SageMaker モデルを作成するか、 SageMaker モデルアーティファクトを使用してモデルをモデルレジストリに登録できます。 AWS SDK for Python (Boto3) SageMaker またはコンソールを使用して、さまざまなエンドポイント構成のベンチマークジョブを実行します。 SageMaker推論レコメンダージョブは、パフォーマンスとリソース使用率に関するメトリクスを収集して視覚化し、どのエンドポイントタイプと構成を選択するかを決定するのに役立ちます。
開始方法
Amazon SageMaker 推論レコメンダーを初めて使用する方には、次のことを行うことをお勧めします。
-
前提条件セクションを読んで、Amazon SageMaker Inference Recommender を使用するための要件を満たしていることを確認してください。
-
「レコメンデーションジョブ」セクションを参照し、最初の推論レコメンダーのレコメンデーションジョブを開始します。
-
入門用の Amazon SageMaker Inference レコメンダー Jupyter ノートブックの例を確認するか
、次のセクションでサンプルノートブックを確認してください。
サンプルノートブックの例
以下の Jupyter Notebook の例は、Inference Recommender の複数のユースケースのワークフローに役立ちます。
モデルのベンチマークを行う入門用ノートブックが必要な場合は、Inference Recommender ノートブックを参照してください。 TensorFlow SageMaker TensorFlow
HuggingFace モデルのベンチマークを行う場合は、ノートブック用推論レコメンダーを参照してください。SageMaker HuggingFace
XGBoost モデルのベンチマークを行う場合は、推論レコメンダー XGBoost ノートブックを参照してください。SageMaker
CloudWatch 推論レコメンダーのジョブのメトリクスを確認したい場合は、推論レコメンダーメトリクスノートブックを参照してください。SageMaker CloudWatch