翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon の推論パイプライン SageMaker
推論パイプラインは、データの推論リクエストを処理する 2~15 個のコンテナの線形シーケンスで構成される Amazon SageMaker モデルです。推論パイプラインを使用して、事前トレーニング済みの SageMaker 組み込みアルゴリズムと Docker コンテナにパッケージ化された独自のカスタムアルゴリズムの任意の組み合わせを定義してデプロイします。推論パイプラインを使用して、事前処理、予測、および後処理のデータサイエンスタスクを組み合わせることができます。推論パイプラインは完全に管理されます。
Spark SageMaker ML Serving コンテナと scikit-learn コンテナを追加して、トレーニングモデル用に開発されたデータトランスフォーマーを再利用できます。アセンブルされた推論パイプライン全体は、リアルタイムの予測を行うか、外部前処理なしで直接バッチ変換を処理するために使用できる SageMaker モデルと見なすことができます。
推論パイプラインモデル内で、 は一連のHTTPリクエストとして呼び出し SageMaker を処理します。パイプライン内の最初のコンテナは最初のリクエストを処理し、中間レスポンスは 2 番目のコンテナにリクエストとして送信されます。パイプライン内の各コンテナに対して、 はクライアントに最終レスポンス SageMaker を返します。
パイプラインモデルをデプロイすると、 はエンドポイントまたは変換ジョブの各 Amazon Elastic Compute Cloud (Amazon EC2) インスタンスにすべてのコンテナ SageMaker をインストールして実行します。コンテナは同じEC2インスタンスに同じ場所にあるため、特徴量処理と推論は低レイテンシーで実行されます。CreateModel
オペレーションを使用するか、コンソールから、パイプラインモデルのコンテナを定義します。1 つの を設定する代わりにPrimaryContainer
、 Containers
パラメータを使用してパイプラインを構成するコンテナを設定します。また、コンテナを実行する順序も指定します。
パイプラインモデルは変更不可能ですが、UpdateEndpoint
オペレーションを使用して新しいモデルをデプロイすることにより、推論パイプラインを更新できます。このモジュール性により、実験中の柔軟性が高まります。
SageMaker モデルレジストリで推論パイプラインを作成する方法については、「」を参照してくださいModel Registry を使用したモデル登録デプロイ。
この機能の使用に追加料金はかかりません。エンドポイントで実行されているインスタンスに対してのみ料金が発生します。
トピック
推論パイプラインのサンプルノートブック
推論パイプラインを作成してデプロイする方法を示す例については、「Inference Pipeline with Scikit-learn and Linear Learner
すべての SageMaker サンプルのリストを表示するには、ノートブックインスタンスを作成して開いた後、SageMaker サンプルタブを選択します。推論パイプラインノートブックは 3 つあります。説明した最初の 2 つの推論パイプラインノートブックは advanced_functionality
フォルダにあり、3 番目のノートブックは sagemaker-python-sdk
フォルダにあります。ノートブックを開くには、その [使用] タブを選び、次に [コピーを作成] を選択します。