本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
建議的 Inferentia 執行個體
AWS Inferentia 執行個體旨在為深度學習模型推論工作負載提供高效能和成本效益。具體而言,Inf2 執行個體類型使用 AWS Inferentia 晶片和 AWS Neuron SDK
客戶可以使用 Inf2 執行個體,以最低的成本執行大規模機器學習推論應用程式,例如搜尋、推薦引擎、電腦視覺、語音辨識、自然語言處理、個人化和詐騙偵測。
注意
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM,請選擇具有足夠記憶體的不同執行個體類型,供您的應用程式使用。
Amazon EC2 Inf2 執行個體
最多有 16 AWS 個 Inferentia 晶片和 100 Gbps 的網路輸送量。
如需開始使用 AWS Inferentia 的詳細資訊DLAMIs,請參閱 AWS Inferentia Chip with DLAMI。