翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
モデルのデプロイ
Amazon SageMaker Neo コンパイルモデルをHTTPSエンドポイントにデプロイするには、Amazon SageMaker ホスティングサービスを使用してモデルのエンドポイントを設定および作成する必要があります。現在、デベロッパーは Amazon SageMaker APIs を使用して、モジュールを ml.c5、ml.c4、ml.m5、ml.m4、ml.p3、ml.p2、ml.inf1 インスタンスにデプロイできます。
Inferentia
コンパイル済みモデルをデプロイするときは、コンパイルに使用したものと同じインスタンスをターゲットに使用する必要があります。これにより、推論の実行に使用できる SageMaker エンドポイントが作成されます。Amazon SageMaker SDK for Python
注記
AWS CLI、コンソール、または Boto3 を使用してモデルをデプロイするには、「Neo 推論コンテナイメージ」を参照して、プライマリコンテナURIの推論イメージを選択します。