翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon SageMaker AI の推論パイプライン
推論パイプラインは Amazon SageMaker AI モデルで、データに対する推論リクエストを処理する 2~15 個のコンテナの線形シーケンスで構成されています。推論パイプラインを使用して、事前トレーニング済みの SageMaker AI 組み込みアルゴリズムと、Docker コンテナにパッケージ化された独自のカスタムアルゴリズムの任意の組み合わせを定義してデプロイします。推論パイプラインを使用して、事前処理、予測、および後処理のデータサイエンスタスクを組み合わせることができます。推論パイプラインは完全に管理されます。
モデルのトレーニング用に開発されたデータトランスフォーマーを再利用する SageMaker AI Spark ML Serving コンテナと scikit-learn コンテナを追加できます。アセンブルされた推論パイプライン全体は、SageMaker AI モデルと見なすことができます。このモデルを使用すると、リアルタイムの予測を行ったり、外部前処理なしでバッチ変換を直接処理したりできます。
推論パイプラインモデル内では、SageMaker AI は呼び出しを一連の HTTP リクエストとして処理します。最初のリクエストはパイプラインの最初のコンテナによって処理され、次に中間レスポンスが 2 番目のコンテナへのリクエストとして送信され、以降、パイプラインの各コンテナに対して同様の処理が繰り返され、SageMaker AI はクライアントに最終レスポンスを返します。
パイプラインモデルをデプロイすると、SageMaker AI はエンドポイントまたは変換ジョブの各 Amazon Elastic Compute Cloud (Amazon EC2) インスタンスにすべてのコンテナをインストールして実行します。機能の処理と推測は低レイテンシーで実行されます。これは、コンテナが同じ EC2 インスタンスに配置されているためです。CreateModel
オペレーションを使用するか、コンソールから、パイプラインモデルのコンテナを定義します。PrimaryContainer
を 1 つ設定する代わりに、Containers
パラメータを使用して、パイプラインを構成する複数のコンテナを設定します。また、コンテナを実行する順序も指定します。
パイプラインモデルは変更不可能ですが、UpdateEndpoint
オペレーションを使用して新しいモデルをデプロイすることにより、推論パイプラインを更新できます。このモジュール性により、実験中の柔軟性が高まります。
SageMaker Model Registry を使用して推論パイプラインを作成する方法については、「」を参照してくださいModel Registry を使用したモデル登録デプロイ。
この機能の使用に追加料金はかかりません。エンドポイントで実行されているインスタンスに対してのみ料金が発生します。
トピック
推論パイプラインのサンプルノートブック
推論パイプラインを作成してデプロイする方法を示す例については、「Inference Pipeline with Scikit-learn and Linear Learner
すべての SageMaker AI サンプルのリストを表示するには、ノートブックインスタンスを作成して開いた後、SageMaker AI Examples タブを選択します。推論パイプラインノートブックは 3 つあります。説明した最初の 2 つの推論パイプラインノートブックは advanced_functionality
フォルダにあり、3 番目のノートブックは sagemaker-python-sdk
フォルダにあります。ノートブックを開くには、その [使用] タブを選び、次に [コピーを作成] を選択します。