深層学習用の構築済みの SageMaker AI Docker イメージ - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

深層学習用の構築済みの SageMaker AI Docker イメージ

Amazon SageMaker AI は、トレーニングと推論に必要な深層学習フレームワークやその他の依存関係を含む構築済みの Docker イメージを提供します。SageMaker AI によって管理される構築済み Docker イメージの完全なリストについては、「Docker Registry Paths and Example Code」を参照してください。

SageMaker AI Python SDK の使用

SageMaker Python SDK を使用すると、次に示す一般的な深層学習フレームワークを使用して、モデルのトレーニングおよびデプロイができます。SDK のインストールおよび使用の手順については、「Amazon SageMaker Python SDK」を参照してください。次の表に、使用可能なフレームワークと、これらのフレームワークを SageMaker Python SDK で使用する方法を示します。

構築済みの SageMaker AI Docker イメージの拡張

これらの構築済みコンテナをカスタマイズしたり、必要に応じて拡張したりできます。このカスタマイズにより、構築済みの SageMaker AI Docker イメージがサポートしていないアルゴリズムまたはモデルの追加機能要件を処理できます。この例については、「既存の PyTorch コンテナを拡張して、独自のスクリプトとデータセットを使用して SageMaker AI に BERTopic モデルをファインチューニングしてデプロイする」を参照してください。

構築済みのコンテナを使用して、カスタムモデルや SageMaker AI 以外のフレームワークでトレーニングされたモデルをデプロイすることもできます。プロセスの概要については、「自分で事前にトレーニングした MXNet または TensorFlow のモデルを Amazon SageMaker に導入する」を参照してください。このチュートリアルでは、トレーニング済みモデルアーティファクトを SageMaker AI に取り込み、エンドポイントでホストする方法について説明します。