デプロイの有効化 - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

デプロイの有効化

共有するモデルを追加する場合、組織内の共同作業者が推論用に共有モデルをデプロイできる推論環境をオプションで用意することができます。

機械学習モデルをトレーニングしたら、推論のために Amazon SageMaker AI エンドポイントにデプロイする必要があります。例えば、コンテナ環境、推論スクリプト、トレーニング中に生成されるモデルアーティファクトを指定し、適切なコンピューティングインスタンスタイプを選択します。デプロイしたモデルが正確な予測を行い、推論リクエストを効率的に処理できるように、これらの設定を適切に行うことが肝要です。推論用にモデルを設定するには、次の手順に従ってください。

  1. 推論に使用するコンテナを追加します。Amazon で独自のコンテナを持ち込むECRか、Amazon SageMaker AI Deep Learning Container を使用できます。

  2. 推論スクリプトURIに Amazon S3 を指定します。カスタム推論スクリプトは選択したコンテナ内で実行されます。推論スクリプトには、モデルロード用の関数、およびオプションで予測を生成する関数、入出力処理を行う関数を含める必要があります。選択したフレームワークの推論スクリプトの作成の詳細については、Python SageMaker SDKドキュメントの「フレームワーク」を参照してください。例えば、 の場合は TensorFlow、「前処理ハンドラーまたは後処理ハンドラー (複数可) を実装する方法」を参照してください。

  3. モデルアーティファクトURIに Amazon S3 を指定します。モデルアーティファクトはモデルをトレーニングした結果の出力で、通常はトレーニング済みのパラメータ、推論の計算方法を記述するモデル定義、およびその他のメタデータで構成されます。 SageMaker AI でモデルをトレーニングした場合、モデルアーティファクトは 1 つの圧縮TARファイルとして Amazon S3 に保存されます。 SageMaker AI の外部でモデルをトレーニングした場合は、この単一の圧縮TARファイルを作成し、Amazon S3 の場所に保存する必要があります。

  4. インスタンスのタイプを選択します。バッチサイズが大きいトレーニングには、より多くのメモリを持つGPUインスタンスをお勧めします。リージョン間の SageMaker AWS トレーニングインスタンスの包括的なリストについては、「Amazon AI 料金表」の「オンデマンド料金表」を参照してください。 SageMaker