Consultez l'utilisation des ressources à l'aide du KubernetesMetrics Server - Amazon EKS

Aidez à améliorer cette page

Vous souhaitez contribuer à ce guide de l'utilisateur ? Faites défiler cette page vers le bas et sélectionnez Modifier cette page sur GitHub. Vos contributions aideront à améliorer notre guide de l'utilisateur pour tous.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Consultez l'utilisation des ressources à l'aide du KubernetesMetrics Server

Le Kubernetes Metrics Server est un agrégateur de données d'utilisation des ressources dans votre cluster, et il n'est pas déployé par défaut dans les EKS clusters Amazon. Pour plus d’informations, consultez .Kubernetes Serveur de métriques activé GitHub. Le serveur de métriques est couramment utilisé par d'autres Kubernetes des options supplémentaires, telles que le Faites évoluer les déploiements de pods avec Horizontal Pod Autoscaler ou le Kubernetes Tableau de bord. Pour plus d'informations, consultez la section Pipeline de mesures relatives aux ressources dans le Kubernetes . Cette rubrique explique comment déployer le Kubernetes Serveur de métriques sur votre EKS cluster Amazon.

Important

Les métriques sont destinées à point-in-time l'analyse et ne constituent pas une source précise pour l'analyse historique. Elles ne peuvent pas être utilisées comme solution de surveillance ou à d'autres fins de mise à l'échelle non auto. Pour de plus amples informations sur la surveillance, consultez Surveillez les performances de votre cluster et consultez les journaux.

Déployer le serveur de métriques
  1. Déployez le serveur de métriques à l'aide de la commande suivante :

    kubectl apply -f https://github.com/kubernetes-sigs/metrics-server/releases/latest/download/components.yaml

    Si vous utilisez Fargate, vous devez modifier ce fichier. Dans la configuration par défaut, le serveur de métriques utilise le port 10250. Ce port est réservé sur Fargate. Remplacez les références au port 10250 dans components.yaml par un autre port, tel que 10251.

  2. Vérifiez que le metrics-server déploiement exécute le nombre souhaité de Pods avec la commande suivante.

    kubectl get deployment metrics-server -n kube-system

    L'exemple qui suit illustre un résultat.

    NAME READY UP-TO-DATE AVAILABLE AGE metrics-server 1/1 1 1 6m
  3. Testez le fonctionnement du serveur de métriques en affichant l'utilisation des ressources (CPU/mémoire) des nœuds.

    kubectl top nodes
  4. Si le message d'erreur s'afficheError from server (Forbidden), vous devez mettre à jour votre configuration RBAC Kubernetes. Votre RBAC identité Kubernetes nécessite des autorisations suffisantes pour lire les métriques du cluster. Vérifiez les APIautorisations Kubernetes minimales requises pour lire les métriques sur. GitHub Découvrez comment accorder à AWS IAM des identités, telles que des rôles, l'accès à Kubernetes APIs.