Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
I seguenti argomenti forniscono indicazioni sulle migliori pratiche per la distribuzione di modelli di machine learning in Amazon SageMaker AI.
Argomenti
Le migliori pratiche per l'implementazione di modelli su SageMaker AI Hosting Services
Inferenza in tempo reale a bassa latenza con AWS PrivateLink
Migra il carico di lavoro di inferenza da x86 a Graviton AWS
Risolvi i problemi relativi alle implementazioni dei modelli Amazon SageMaker AI
Best practice per ridurre al minimo le interruzioni durante gli aggiornamenti dei driver della GPU
Le migliori pratiche per la sicurezza e l'integrità degli endpoint con Amazon SageMaker AI
Aggiornamento degli endpoint SageMaker AI per renderli conformi a NVIDIA Container Toolkit