翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Neptune ML ステージのインスタンス選択
Neptune ML 処理のさまざまなステージでは、異なる SageMaker インスタンスが使用されます。ここでは、ステージごとに適切なインスタンスタイプを選択する方法について説明します。SageMaker インスタンスタイプと価格については、Amazon SageMaker 料金表
データ処理用のインスタンスの選択
SageMaker データ処理ステップには入力、中間、および出力データを格納するための十分なメモリとディスクストレージがある処理インスタンスを要します。必要なメモリとディスクストレージの特定の量は、Neptune ML グラフの特性とエクスポートされた機能によって異なります。
デフォルトでは、Neptune ML は、ディスク上にエクスポートされたグラフデータのサイズの 10 倍のメモリを持つ最も小さい ml.r5
インスタンスを選択します。。
モデルトレーニングとモデル変換のインスタンスの選択
タスクタイプ、グラフサイズ、およびターンアラウンド要件によって異なる、モデルトレーニングまたはモデルの変換の適切なインスタンスタイプの選択。GPU インスタンスは、最高のパフォーマンスを提供します。一般的に p3
および g4dn
シリアルインスタンスを推奨します。また、p2
または p4d
インスタンスもご使用いただけます。
デフォルトでは、Neptune ML はモデルトレーニングとモデル変換が必要とするよりも多くのメモリを持つ最小の GPU インスタンスを選択します。その選択内容については、Amazon S3 データ処理の出力場所に格納されている train_instance_recommendation.json
ファイルに説明されています。この train_instance_recommendation.json
ファイルの内容の例を示します。
{ "instance": "
(the recommended instance type for model training and transform)
", "cpu_instance": "(the recommended instance type for base processing instance)
", "disk_size": "(the estimated disk space required)
", "mem_size": "(the estimated memory required)
" }
推論エンドポイントのインスタンスを選択する
タスクタイプ、グラフサイズ、予算に応じた推論エンドポイントに適切なインスタンスタイプの選択。デフォルトでは、Neptune ML は推論エンドポイントが必要とするメモリが多い最小の ml.m5d
インスタンスを選択します。
注記
384 GB 以上のメモリが必要な場合は、Neptune MLは ml.r5d.24xlarge
インスタンスを使用します。
Neptune ML が推奨するインスタンスタイプは、モデルトレーニングに使用している Amazon S3 の場所にある infer_instance_recommendation.json
ファイルに記載されています。このファイルの内容例を示します。
{ "instance" : "
(the recommended instance type for an inference endpoint)
", "disk_size" : "(the estimated disk space required)
", "mem_size" : "(the estimated memory required)
" }