

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 推奨 Trainium インスタンス
<a name="trainium"></a>

AWS Trainium インスタンスは、深層学習モデル推論ワークロードに高いパフォーマンスとコスト効率を提供するように設計されています。具体的には、Trn1 インスタンスタイプはAWS Trainium チップと [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/) を使用します。これは TensorFlow や PyTorch などの一般的な機械学習フレームワークと統合されています。

お客様は Trn1 インスタンスを使用して、検索、レコメンデーションエンジン、コンピュータビジョン、音声認識、自然言語処理、パーソナライゼーション、不正検出などの大規模な機械学習推論アプリケーションをクラウド内で低コストで実行できます。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 Trn1 インスタンス](https://aws.amazon.com/ec2/instance-types/trn1/)には、最大 16 AWS Trainium チップと 100 Gbps のネットワークスループットがあります。