Cookie の設定を選択する

当社は、当社のサイトおよびサービスを提供するために必要な必須 Cookie および類似のツールを使用しています。当社は、パフォーマンス Cookie を使用して匿名の統計情報を収集することで、お客様が当社のサイトをどのように利用しているかを把握し、改善に役立てています。必須 Cookie は無効化できませんが、[カスタマイズ] または [拒否] をクリックしてパフォーマンス Cookie を拒否することはできます。

お客様が同意した場合、AWS および承認された第三者は、Cookie を使用して便利なサイト機能を提供したり、お客様の選択を記憶したり、関連する広告を含む関連コンテンツを表示したりします。すべての必須ではない Cookie を受け入れるか拒否するには、[受け入れる] または [拒否] をクリックしてください。より詳細な選択を行うには、[カスタマイズ] をクリックしてください。

エッジデバイス

フォーカスモード
エッジデバイス - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon SageMaker Neo は、一般的な機械学習フレームワークのためのコンパイルをサポートしています。Raspberry Pi 3、Texas Instruments の Sitara、Jetson TX1 など、Neo コンパイル済みのエッジデバイスをデプロイできます。サポートされているフレームワークとエッジデバイスの完全なリストについては、「サポートされているフレームワーク、デバイス、システム、アーキテクチャ」を参照してください。

エッジデバイスが AWS サービスを使用できるように設定する必要があります。これを行う方法の 1 つは、DLR と Boto3 をデバイスにインストールすることです。そのためには、認証情報を設定する必要があります。詳細については、「Boto3 AWS Configuration」を参照してください。モデルをコンパイルし、エッジデバイスを設定すると、Amazon S3 からエッジデバイスにモデルをダウンロードできます。そこから、Deep Learning Runtime (DLR) を使って、コンパイルされたモデルを読み取り、推論を実行できます。

初めてのユーザーには、「ご利用開始にあたって」のガイドを参照することをお勧めします。このガイドでは、認証情報の設定、モデルのコンパイル、Raspberry Pi 3 へのモデルのデプロイ、イメージで推論を行う方法を実際的に説明しています。

プライバシーサイト規約Cookie の設定
© 2025, Amazon Web Services, Inc. or its affiliates.All rights reserved.