Aidez à améliorer cette page
Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Vous souhaitez contribuer à ce guide de l'utilisateur ? Faites défiler cette page vers le bas et sélectionnez Modifier cette page sur GitHub. Vos contributions contribueront à améliorer notre guide de l'utilisateur pour tous.
Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Essayez des didacticiels pour déployer des charges de travail et des plateformes de Machine Learning sur EKS
Si vous souhaitez configurer des plateformes et des frameworks de Machine Learning dansEKS, consultez les didacticiels décrits dans cette page. Ces didacticiels couvrent tout, des modèles permettant d'utiliser au mieux les GPU processeurs au choix des outils de modélisation, en passant par la création de cadres pour les industries spécialisées.
Créez des plateformes d'IA générative sur EKS
Exécutez des frameworks d'IA générative spécialisés sur EKS
Optimisez NVIDIA GPU les performances du ML sur EKS
-
Mettez en œuvre GPU le partage afin de l'utiliser efficacement NVIDIA GPUs pour vos EKS clusters :
GPUpartage sur Amazon EKS avec des instances NVIDIA accélérées et découpées dans le temps EC2
-
Utilisez le Multi-Instance GPUs (MIGs) et les NIM microservices pour exécuter un plus grand nombre de pods par GPU cluster : EKS
-
Tirez parti NVIDIA NIM des microservices pour optimiser les charges de travail d'inférence en utilisant des microservices optimisés pour déployer des modèles d'IA à grande échelle :
Partie 1 : Déploiement d'applications d'IA générative NVIDIA NIMs sur Amazon EKS
-
Mise à l'échelle d'un modèle linguistique étendu NVIDIA NIM sur Amazon EKS avec Karpenter
Exécutez des charges de travail d'encodage vidéo sur EKS
Accélérez le chargement des images pour les charges de travail d'inférence
Témoignages pour ML on EKS
Surveillance des charges de travail ML
Annonces pour ML on EKS
-
Nouveau — EC2 Instances (G5) avec NVIDIA A10G Tensor Core GPUs
-
Nouvelles instances EC2 P4 GPU équipées pour le Machine Learning et HPC
-
Déploiement d'instances P4d gérées dans Amazon Elastic Kubernetes Service avec NVIDIA GPUDirectRDMA
-
Création d'un centre d'excellence en intelligence artificielle et en apprentissage automatique
📝 Modifiez cette page sur GitHub