翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon SageMaker AI のモデルデプロイオプション
機械学習モデルをトレーニングしたら、Amazon SageMaker AI を使用してモデルをデプロイして予測を取得できます。Amazon SageMaker AI は、ユースケースに応じて、次の方法でモデルをデプロイできます。
-
一度に 1 つの予測を行う永続的なリアルタイムエンドポイントの場合は、SageMaker AI リアルタイムホスティングサービスを使用します。「リアルタイム推論」を参照してください。
-
トラフィックのスパイク間にアイドル期間があり、コールドスタートを許容できるワークロードは、サーバーレス推論を使用します。「Amazon SageMaker Serverless Inference を使用してモデルをデプロイする」を参照してください。
-
1 GB までの大きなペイロードサイズ、長い処理時間、ほぼリアルタイムのレイテンシー要件を持つリクエストでは、Amazon SageMaker 非同期推論を使用します。「非同期推論」を参照してください。
-
データセット全体の予測を取得するには、SageMaker AI バッチ変換を使用します。「Amazon SageMaker AI による推論のためのバッチ変換」を参照してください。
SageMaker AI には、機械学習モデルのデプロイ時にリソースを管理し、推論パフォーマンスを最適化する機能もあります。
-
エッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、保守できるようにエッジデバイス上のモデルを管理するには、「SageMaker Edge Manager を使用したエッジでのモデルのデプロイ」を参照してください。これは、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスに適用されます。
-
Ambarella、ARM、Intel、Nvidia、NXP、Qualcomm、Texas Instruments、Xilinx のプロセッサをベースとする Android、Linux、Windows マシンで推論を行うために、Gluon、Keras、MXNet、PyTorch、TensorFlow-Lite、ONNX モデルを最適化するには、「SageMaker Neo によるモデルパフォーマンスの最適化」を参照してください。
これらすべてのデプロイオプションの詳細については、「推論のためのモデルをデプロイする」を参照してください。