

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 推奨 Inferentia インスタンス
<a name="inferentia"></a>

AWS Inferentia インスタンスは、深層学習モデル推論ワークロードに高いパフォーマンスとコスト効率を提供するように設計されています。具体的には、Inf2 インスタンスタイプはAWS Inferentia チップと [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/) を使用します。これは TensorFlow や PyTorch などの一般的な機械学習フレームワークと統合されています。

お客様は Inf2 インスタンスを使用して、検索、レコメンデーションエンジン、コンピュータビジョン、音声認識、自然言語処理、パーソナライゼーション、不正検出などの大規模な機械学習推論アプリケーションをクラウド内で低コストで実行できます。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 Inf2 インスタンス](https://aws.amazon.com/ec2/instance-types/inf2/)には、最大 16 個のAWS Inferentia チップと 100 Gbps のネットワークスループットがあります。

AWS Inferentia DLAMIs「」を参照してください[DLAMI を使用した AWS Inferentia チップ](tutorial-inferentia.md)。

**次回の予定**  
[推奨 Trainium インスタンス](trainium.md)