AWS Inferentia Chip with DLAMI - AWS 深度學習 AMIs

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

AWS Inferentia Chip with DLAMI

AWS Inferentia 是 設計的自訂機器學習晶片 AWS ,可用於高效能推論預測。若要使用晶片,請設定 Amazon Elastic Compute Cloud 執行個體,並使用 AWS Neuron 軟體開發套件 (SDK) 來叫用 Inferentia 晶片。為了為客戶提供最佳的 Inferentia 體驗,Neuron 已內建於 AWS 深度學習 AMIs (DLAMI)。

下列主題說明如何開始使用 Inferentia 搭配 DLAMI。