翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
EI をノートブックインスタンスにアタッチする
EI を使用して推論パフォーマンスをテストおよび評価するには、ノートブックインスタンスを作成または更新するときに EI をノートブックインスタンスにアタッチします。これにより、ローカルモードで EI を使用して、ノートブックインスタンスでホストされているエンドポイントでモデルをホストできます。ユースケースに最適な設定を評価するためには、さまざまなサイズのノートブックインスタンスと EI アクセラレーターをテストする必要があります。
EI を使用するように設定する
ノートブックインスタンスで EI をローカルに使用するには、EI インスタンスを使用してノートブックインスタンスを作成します。
EI インスタンスを使用してノートブックインスタンスを作成するには
-
https://console.aws.amazon.com/sagemaker/
で Amazon SageMaker コンソールを開きます。 -
ナビゲーションペインで [ノートブックインスタンス] を選択します。
-
[Create notebook instance] (ノートブックインスタンスの作成) を選択します。
-
[ノートブックインスタンス名] に、ノートブックインスタンスの一意の名前を入力します。
-
[ノートブックインスタンスのタイプ] で、ml.t2.medium などの CPU インスタンスを選択します。
-
[Elastic Inference (EI)] で、リストからインスタンス (ml.eia2.medium など) を選択します。
-
IAM ロール で、 SageMaker と EI を使用するために必要なアクセス許可を持つ IAM ロールを選択します。
-
(オプション) [VPC - Optional (VPC - オプション)] で、ノートブックインスタンスに VPC を使用させる場合は、表示されているリストから 1 つを選択します。それ以外の場合は、[No VPC (VPC なし)] のままにします。VPC を使用する場合は、カスタム VPC を使用して EI に接続するの手順に従ってください。
-
(オプション) [ライフサイクル設定 - optional (オプション)] で、[設定なし] のままにするか、ライフサイクル設定を選択します。詳細については、「LCC スクリプトを使用して SageMaker ノートブックインスタンスをカスタマイズする」を参照してください。
-
(オプション) 暗号化キー - オプション 、オプション) AWS Key Management Service (AWS KMS) キー SageMaker を使用してノートブックインスタンスにアタッチされた ML ストレージボリューム内のデータを暗号化する場合は、 キーを指定します。
-
(オプション) [Volume Size In GB (ボリュームサイズ (GB)) - optional (オプション)] はデフォルト値の 5 のままにします。
-
(オプション) [Tags (タグ)] で、ノートブックインスタンスにタグを追加します。タグは、ノートブックインスタンスを管理しやすくするために割り当てるラベルです。タグは、1 つのキーと 1 つの値で構成されており、どちらもお客様側が定義します。
-
[ノートブックインスタンスの作成] を選択します。
EI がアタッチされたノートブックインスタンスを作成したら、Jupyter ノートブックを作成し、そのノートブックインスタンスでローカルにホストされる EI エンドポイントを設定することができます。
のローカルモードで EI を使用する SageMaker
ノートブックインスタンスでホストされているエンドポイントで EI をローカルで使用するには、、MXNet TensorFlow、または PyTorch推定器またはモデルの Amazon SageMaker Python SDK
トピック
ローカルモードで EI SageMaker TensorFlow を推定器とモデルとともに使用する
ローカルモードで TensorFlow で EI を使用するには、推定器またはモデルオブジェクトの deploy
メソッドを呼び出すaccelerator_type
ときに、 local
instance_type
と local_sagemaker_notebook
に を指定します。Amazon SageMaker Python SDK
次のコードは、推定器オブジェクトとともにローカルモードを使用する方法を示しています。deploy
メソッドを呼び出すには、あらかじめ次のいずれかが必要です。
-
推定器の
fit
メソッドを呼び出してモデルをトレーニングしておく。 -
モデルオブジェクトを初期化するときにモデルアーティファクトを渡す。
# Deploys the model to a local endpoint tf_predictor = tf_model.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')
Apache MXNet SageMaker 推定器とモデルでローカルモードで EI を使用する
ローカルモードで MXNet とともに EI を使用するには、推定器またはモデルオブジェクトの deploy
メソッドを呼び出すときに、instance_type
に local
を、accelerator_type
に local_sagemaker_notebook
を指定します。Amazon SageMaker Python SDK
次のコードは、推定器オブジェクトとともにローカルモードを使用する方法を示しています。モデルをトレーニングするためには、あらかじめ推定器の fit
メソッドを呼び出しておく必要があります。
# Deploys the model to a local endpoint mxnet_predictor = mxnet_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')
MXNet でローカルモードで EI を使用する完全な例については、https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-python-sdk/mxnet_mnist/mxnet_mnist_elastic_inference_local.html
ローカルモードで EI SageMaker PyTorch を推定器とモデルで使用する
ローカルモードで PyTorch で EI を使用するには、推定器またはモデルオブジェクトの deploy
メソッドを呼び出すときに、 に を、 local
に instance_type
local_sagemaker_notebook
を指定しますaccelerator_type
。Amazon SageMaker Python SDK
次のコードは、推定器オブジェクトとともにローカルモードを使用する方法を示しています。モデルをトレーニングするためには、あらかじめ推定器の fit
メソッドを呼び出しておく必要があります。
# Deploys the model to a local endpoint pytorch_predictor = pytorch_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')