Amazon SageMaker AI のモデルデプロイオプション - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon SageMaker AI のモデルデプロイオプション

機械学習モデルをトレーニングしたら、Amazon SageMaker AI を使用してモデルをデプロイして予測を取得できます。Amazon SageMaker AI は、ユースケースに応じて、次の方法でモデルをデプロイできます。

  • 一度に 1 つの予測を行う永続的なリアルタイムエンドポイントの場合は、SageMaker AI リアルタイムホスティングサービスを使用します。「リアルタイム推論」を参照してください。

  • トラフィックのスパイク間にアイドル期間があり、コールドスタートを許容できるワークロードは、サーバーレス推論を使用します。「Amazon SageMaker Serverless Inference を使用してモデルをデプロイする」を参照してください。

  • 1 GB までの大きなペイロードサイズ、長い処理時間、ほぼリアルタイムのレイテンシー要件を持つリクエストでは、Amazon SageMaker 非同期推論を使用します。「非同期推論」を参照してください。

  • データセット全体の予測を取得するには、SageMaker AI バッチ変換を使用します。「Amazon SageMaker AI による推論のためのバッチ変換」を参照してください。

SageMaker AI には、機械学習モデルのデプロイ時にリソースを管理し、推論パフォーマンスを最適化する機能もあります。

  • エッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、保守できるようにエッジデバイス上のモデルを管理するには、「SageMaker Edge Manager を使用したエッジでのモデルのデプロイ」を参照してください。これは、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスに適用されます。

  • Ambarella、ARM、Intel、Nvidia、NXP、Qualcomm、Texas Instruments、Xilinx のプロセッサをベースとする Android、Linux、Windows マシンで推論を行うために、Gluon、Keras、MXNet、PyTorch、TensorFlow-Lite、ONNX モデルを最適化するには、「SageMaker Neo によるモデルパフォーマンスの最適化」を参照してください。

これらすべてのデプロイオプションの詳細については、「推論のためのモデルをデプロイする」を参照してください。