Helfen Sie mit, diese Seite zu verbessern
Möchten Sie zu diesem Benutzerhandbuch beitragen? Scrollen Sie zum Ende dieser Seite und wählen Sie Diese Seite bearbeiten am aus GitHub. Ihre Beiträge werden dazu beitragen, unser Benutzerhandbuch für alle zu verbessern.
Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Horizontal Pod Autoscaler
Der Kubernetes Horizontal Pod Autoscaler
Beim Horizontal Pod Autoscaler handelt es sich um eine Standard-API-Ressource in Kubernetes, für die eine Metrikquelle (z. B. der Kubernetes-Metrikserver) in Ihrem Amazon-EKS-Cluster installiert sein muss. Den Horizontal Pod Autoscaler müssen Sie nicht in Ihrem Cluster bereitstellen oder installieren, um mit der Skalierung Ihrer Anwendungen zu beginnen. Weitere Informationen finden Sie unter Horizontal Pod Autoscaler in der Kubernetes-Dokumentation.
Verwenden Sie dieses Thema, um den Horizontal Pod Autoscaler für Ihren Amazon-EKS-Cluster vorzubereiten und zu überprüfen, ob er mit einer Beispielanwendung funktioniert.
Anmerkung
Dieses Thema basiert auf der Anleitung zu Horizontal Pod autoscaler
Voraussetzungen
-
Sie haben einen vorhandenen Amazon-EKS-Cluster. Falls nicht, finden Sie weitere Informationen unter Erste Schritte mit Amazon EKS.
-
Sie haben den Kubernetes Metrics Server installiert. Weitere Informationen finden Sie unter Installieren von Kubernetes Metrics Server.
-
Sie verwenden einen
kubectl
-Client, der für die Kommunikation mit Ihrem Amazon EKS-Cluster konfiguriert ist.
Ausführen einer Horizontal Pod Autoscaler-Testanwendung
In diesem Abschnitt stellen Sie eine Beispielanwendung bereit, um zu überprüfen, ob der Horizontal Pod Autoscaler funktioniert.
Anmerkung
Dieses Beispiel basiert auf dem Horizontal-Pod-Autoscaler-Walkthrough
So testen Sie die Installation von Horizontal Pod Autoscaler
-
Stellen Sie mit dem folgenden Befehl eine einfache Apache-Webserveranwendung bereit.
kubectl apply -f https://k8s.io/examples/application/php-apache.yaml
Dieser Apache-Webserver-Pod verfügt über ein CPU-Limit von 500 milliCPU und wird auf Port 80 bereitgestellt.
-
Erstellen Sie eine Horizontal Pod Autoscaler-Ressource für die
php-apache
-Bereitstellung.kubectl autoscale deployment php-apache --cpu-percent=50 --min=1 --max=10
Dieser Befehl erstellt einen Autoscaler, der 50 Prozent CPU-Auslastung für die Bereitstellung anvisiert, mit mindestens einem Pod und maximal zehn Pods. Wenn die durchschnittliche CPU-Auslastung unter 50 Prozent liegt, versucht der Autoscaler, die Anzahl der Pods in der Bereitstellung auf minimal eins reduzieren. Wenn die Last größer als 50 Prozent ist, versucht der Autoscaler, die Anzahl der Pods in der Bereitstellung auf maximal zehn zu erhöhen. Weitere Informationen finden Sie unter Wie HorizontalPodAutoscaler funktioniert ein ?
in der -KubernetesDokumentation. -
Beschreiben Sie den Autoscaler mit dem folgenden Befehl, um seine Details anzuzeigen.
kubectl get hpa
Eine Beispielausgabe sieht wie folgt aus.
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE php-apache Deployment/php-apache 0%/50% 1 10 1 51s
Wie Sie sehen, ist die aktuelle CPU-Last
0%
, weil es noch keine Last auf dem Server gibt. Die Pod-Anzahl befindet sich bereits an der untersten Grenze (eins), daher kann sie nicht weiter nach unten skaliert werden. -
Erstellen Sie eine Last für den Webserver, indem Sie einen Container ausführen.
kubectl run -i \ --tty load-generator \ --rm --image=busybox \ --restart=Never \ -- /bin/sh -c "while sleep 0.01; do wget -q -O- http://php-apache; done"
-
Um die Skalierung der Bereitstellung zu beobachten, führen Sie in regelmäßigen Abständen den folgenden Befehl in einem anderen Terminal als demjenigen aus, in dem Sie den vorherigen Schritt ausgeführt haben.
kubectl get hpa php-apache
Eine Beispielausgabe sieht wie folgt aus.
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE php-apache Deployment/php-apache 250%/50% 1 10 5 4m44s
Es kann mehr als eine Minute dauern, bis die Anzahl der Replikate zunimmt. Solange der tatsächliche CPU-Prozentsatz höher als der Zielprozentsatz ist, erhöht sich die Replikatanzahl auf bis zu 10. In diesem Fall ist dies
250%
, so dass die Anzahl derREPLICAS
weiter steigt.Anmerkung
Es kann einige Minuten dauern, bis die Replikatanzahl ihr Maximum erreicht. Wenn beispielsweise nur 6 Replikate erforderlich sind, damit die CPU-Last bei oder unter 50 % bleibt, wird die Last nicht über 6 Replikate hinaus skaliert.
-
Stoppen Sie die Last. Halten Sie im Terminalfenster, in dem Sie die Last erzeugen, die Last an, indem Sie die
Ctrl+C
-Tasten gedrückt halten. Sie können beobachten, wie die Replikate auf 1 zurückskalieren, indem Sie den folgenden Befehl erneut in dem Terminal ausführen, in dem Sie die Skalierung beobachten.kubectl get hpa
Eine Beispielausgabe sieht wie folgt aus.
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE php-apache Deployment/php-apache 0%/50% 1 10 1 25m
Anmerkung
Der Standardzeitrahmen für das Zurückskalieren beträgt fünf Minuten. Es wird daher einige Zeit dauern, bis die Replikatanzahl wieder 1 erreicht, selbst wenn der aktuelle CPU-Prozentsatz 0 Prozent beträgt. Der Zeitrahmen ist veränderbar. Weitere Informationen finden Sie unter Horizontal Pod Autoscaler
in der Kubernetes-Dokumentation. -
Wenn Sie mit dem Experimentieren mit Ihrer Beispielanwendung fertig sind, löschen Sie die
php-apache
-Ressourcen.kubectl delete deployment.apps/php-apache service/php-apache horizontalpodautoscaler.autoscaling/php-apache