建議的 Inferentia 執行個體 - AWS 深度學習 AMIs

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

建議的 Inferentia 執行個體

AWS Inferentia 執行個體旨在為深度學習模型推論工作負載提供高效能和成本效益。具體而言,Inf2 執行個體類型使用 AWS Inferentia 晶片和 AWS Neuron SDK,該晶片與熱門機器學習架構整合,例如 TensorFlow 和 PyTorch。

客戶可以使用 Inf2 執行個體,以最低的成本執行大規模機器學習推論應用程式,例如搜尋、推薦引擎、電腦視覺、語音辨識、自然語言處理、個人化和詐騙偵測。

注意

模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM,請選擇具有足夠記憶體的不同執行個體類型,供您的應用程式使用。

如需開始使用 AWS Inferentia 的詳細資訊DLAMIs,請參閱 AWS Inferentia Chip with DLAMI

接下來

建議的 Trainium 執行個體