Cookie の設定を選択する

当社は、当社のサイトおよびサービスを提供するために必要な必須 Cookie および類似のツールを使用しています。当社は、パフォーマンス Cookie を使用して匿名の統計情報を収集することで、お客様が当社のサイトをどのように利用しているかを把握し、改善に役立てています。必須 Cookie は無効化できませんが、[カスタマイズ] または [拒否] をクリックしてパフォーマンス Cookie を拒否することはできます。

お客様が同意した場合、AWS および承認された第三者は、Cookie を使用して便利なサイト機能を提供したり、お客様の選択を記憶したり、関連する広告を含む関連コンテンツを表示したりします。すべての必須ではない Cookie を受け入れるか拒否するには、[受け入れる] または [拒否] をクリックしてください。より詳細な選択を行うには、[カスタマイズ] をクリックしてください。

Amazon SageMaker AI のモデルデプロイオプション

フォーカスモード
Amazon SageMaker AI のモデルデプロイオプション - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

機械学習モデルをトレーニングしたら、Amazon SageMaker AI を使用してモデルをデプロイして予測を取得できます。Amazon SageMaker AI は、ユースケースに応じて、次の方法でモデルをデプロイできます。

  • 一度に 1 つの予測を行う永続的なリアルタイムエンドポイントの場合は、SageMaker AI リアルタイムホスティングサービスを使用します。「リアルタイム推論」を参照してください。

  • トラフィックのスパイク間にアイドル期間があり、コールドスタートを許容できるワークロードは、サーバーレス推論を使用します。「Amazon SageMaker Serverless Inference を使用してモデルをデプロイする」を参照してください。

  • 1 GB までの大きなペイロードサイズ、長い処理時間、ほぼリアルタイムのレイテンシー要件を持つリクエストでは、Amazon SageMaker 非同期推論を使用します。「非同期推論」を参照してください。

  • データセット全体の予測を取得するには、SageMaker AI バッチ変換を使用します。「Amazon SageMaker AI による推論のためのバッチ変換」を参照してください。

SageMaker AI には、機械学習モデルのデプロイ時にリソースを管理し、推論パフォーマンスを最適化する機能もあります。

  • エッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、保守できるようにエッジデバイス上のモデルを管理するには、「SageMaker Edge Manager を使用したエッジでのモデルのデプロイ」を参照してください。これは、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスに適用されます。

  • Ambarella、ARM、Intel、Nvidia、NXP、Qualcomm、Texas Instruments、Xilinx のプロセッサをベースとする Android、Linux、Windows マシンで推論を行うために、Gluon、Keras、MXNet、PyTorch、TensorFlow-Lite、ONNX モデルを最適化するには、「SageMaker Neo によるモデルパフォーマンスの最適化」を参照してください。

これらすべてのデプロイオプションの詳細については、「推論のためのモデルをデプロイする」を参照してください。

プライバシーサイト規約Cookie の設定
© 2025, Amazon Web Services, Inc. or its affiliates.All rights reserved.