モデルをコンパイルする (Amazon SageMaker SDK) - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

モデルをコンパイルする (Amazon SageMaker SDK)

Amazon SageMaker SDK for Python compile_modelAPIの を使用して、トレーニング済みモデルをコンパイルし、特定のターゲットハードウェアに合わせて最適化できます。は、モデルトレーニング中に使用される推定器オブジェクトで呼び出すAPI必要があります。

注記

モデルを MXNetまたは でコンパイル500する場合は、MMS_DEFAULT_RESPONSE_TIMEOUT環境変数を に設定する必要があります PyTorch。環境変数は には必要ありません TensorFlow。

以下は、trained_model_estimator オブジェクトを使ってモデルをコンパイルする方法の例を示しています。

# Replace the value of expected_trained_model_input below and # specify the name & shape of the expected inputs for your trained model # in json dictionary form expected_trained_model_input = {'data':[1, 784]} # Replace the example target_instance_family below to your preferred target_instance_family compiled_model = trained_model_estimator.compile_model(target_instance_family='ml_c5', input_shape=expected_trained_model_input, output_path='insert s3 output path', env={'MMS_DEFAULT_RESPONSE_TIMEOUT': '500'})

このコードはモデルをコンパイルし、最適化されたモデルを に保存しoutput_path、エンドポイントにデプロイできる SageMaker モデルを作成します。SDK for Python を使用するサンプルノートブックは、Neo Model Compilation サンプルノートブックセクションで提供されています。