Amazon SageMaker AI のモデルデプロイオプション - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon SageMaker AI のモデルデプロイオプション

機械学習モデルをトレーニングしたら、Amazon SageMaker AI を使用してモデルをデプロイして予測を取得できます。Amazon SageMaker AI は、ユースケースに応じて、次の方法でモデルをデプロイできます。

  • 一度に 1 つの予測を行う永続的なリアルタイムエンドポイントの場合は、 SageMaker AI リアルタイムホスティングサービスを使用します。「リアルタイム推論」を参照してください。

  • トラフィックのスパイク間にアイドル期間があり、コールドスタートを許容できるワークロードは、サーバーレス推論を使用します。「Amazon SageMaker Serverless Inference を使用してモデルをデプロイする」を参照してください。

  • 最大 1GB の大きなペイロードサイズ、長い処理時間、ほぼリアルタイムのレイテンシー要件を持つリクエストは、Amazon SageMaker 非同期推論を使用します。「非同期推論」を参照してください。

  • データセット全体の予測を取得するには、 SageMaker AI バッチ変換を使用します。「Amazon SageMaker AI による推論のためのバッチ変換」を参照してください。

SageMaker AI には、機械学習モデルのデプロイ時にリソースを管理し、推論パフォーマンスを最適化する機能もあります。

  • エッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、保守できるようにエッジデバイス上のモデルを管理するには、「 SageMaker Edge Manager を使用したエッジでのモデルデプロイ」を参照してください。これは、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスに適用されます。

  • Ambarella、、Intel、Nvidia、、、NXPQualcomm、Texas Instruments、Xilinx のプロセッサに基づいて、Android、LinuxARM、Windows マシンで推論ONNX用に Gluon、Keras、、、-MXNet PyTorch TensorFlow TensorFlowLite、モデルを最適化するには、「」を参照してください SageMaker Neo によるモデルパフォーマンスの最適化

これらすべてのデプロイオプションの詳細については、「推論のためのモデルをデプロイする」を参照してください。