Aiutaci a migliorare questa pagina
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Per contribuire a questa guida per l'utente, scegli il GitHub link Modifica questa pagina nel riquadro destro di ogni pagina.
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Prova i tutorial per l'implementazione dei carichi di lavoro di Machine Learning su EKS
Se sei interessato a configurare piattaforme e framework di Machine Learning in EKS, esplora i tutorial descritti in questa pagina. Questi tutorial coprono tutto, dai modelli per utilizzare al meglio i processori GPU alla scelta degli strumenti di modellazione alla creazione di framework per settori specializzati.
Crea piattaforme di intelligenza artificiale generativa su EKS
Esegui framework di intelligenza artificiale generativa specializzati su EKS
Massimizza le prestazioni della GPU NVIDIA per ML su EKS
-
Implementa la condivisione della GPU per utilizzare in modo efficiente NVIDIA GPUs per i tuoi cluster EKS:
Condivisione di GPU su Amazon EKS con istanze NVIDIA time-slicing e accelerate EC2
-
Usa i microservizi Multi-Instance GPUs (MIGs) e NIM per eseguire più pod per GPU sui tuoi cluster EKS:
-
Sfrutta i microservizi NVIDIA NIM per ottimizzare i carichi di lavoro di inferenza utilizzando microservizi ottimizzati per implementare modelli di intelligenza artificiale su larga scala:
-
Crea e distribuisci un sistema di machine learning scalabile su Kubernetes con Kubeflow su AWS