Horizontal Pod Autoscaler - Amazon EKS

Aiutaci a migliorare questa pagina

Vuoi contribuire a questa guida per l'utente? Scorri fino alla fine di questa pagina e seleziona Modifica questa pagina su GitHub. I tuoi contributi contribuiranno a rendere la nostra guida utente migliore per tutti.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Horizontal Pod Autoscaler

Horizontal Pod Autoscaler di Kubernetes dimensiona automaticamente il numero di Pods in un'implementazione, un controller di replica o un set di repliche in base all'utilizzo della CPU di tale risorsa. Ciò consente alle applicazioni di dimensionare orizzontalmente le risorse in base all'aumento della domanda, o di ridurle orizzontalmente quando non sono necessarie, liberando così i nodi per altre applicazioni. Quando imposti una percentuale di utilizzo della CPU target, Horizontal Pod Autoscaler aumenta o riduce le risorse dell'applicazione in modo conforme all'obiettivo prefissato.

Horizontal Pod Autoscaler è una risorsa API standard in Kubernetes il cui funzionamento richiede solo l'installazione di una fonte di parametri (ad esempio il server di parametri Kubernetes) nel cluster Amazon EKS. Non è necessario implementare o installare Horizontal Pod Autoscaler sul cluster per iniziare a dimensionare le applicazioni. Per ulteriori informazioni, consulta Horizontal Pod Autoscaler nella documentazione Kubernetes.

Utilizza questo argomento per preparare Horizontal Pod Autoscaler per il cluster Amazon EKS e per verificare che funzioni con un'applicazione di esempio.

Nota

Questo argomento si basa sulla procedura guidata per Horizontal Pod autoscaler riportata nella documentazione di Kubernetes.

Prerequisiti

Esecuzione di un'applicazione di test di Horizontal Pod Autoscaler

In questa sezione implementerai un'applicazione di esempio per verificare il corretto funzionamento di Horizontal Pod Autoscaler.

Nota

Questo esempio si basa sulla procedura guidata per Horizontal Pod Autoscaler riportata nella documentazione Kubernetes.

Per testare l'installazione di Horizontal Pod Autoscaler
  1. Implementa un'applicazione server Web Apache con il comando seguente.

    kubectl apply -f https://k8s.io/examples/application/php-apache.yaml

    Questo Pod del server Web Apache ha un limite di CPU di 500 millicpu e serve sulla porta 80.

  2. Crea una risorsa Horizontal Pod Autoscaler per l'implementazione di php-apache.

    kubectl autoscale deployment php-apache --cpu-percent=50 --min=1 --max=10

    Questo comando crea un componente di scalabilità automatica che destina il 50% di utilizzo della CPU per l'implementazione, con un minimo di un Pod e un massimo di dieci Pods. Quando il carico medio della CPU è inferiore al 50%, tale componente cerca di ridurre il numero di Pods nell'implementazione, fino a un minimo di uno. Quando il carico è maggiore del 50%, il componente di scalabilità automatica cerca di aumentare il numero di Pods nell'implementazione, fino a un massimo di dieci. Per ulteriori informazioni, consulta How does HorizontalPodAutoscaler a? nella Kubernetes documentazione.

  3. Descrivere il componente di scalabilità automatica con il comando seguente per visualizzarne i dettagli.

    kubectl get hpa

    Di seguito viene riportato un output di esempio:

    NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE php-apache Deployment/php-apache 0%/50% 1 10 1 51s

    Come si può vedere, il carico corrente della CPU è 0% perché non c'è ancora carico sul server. Il conteggio dei Pod è già al limite più basso (uno), quindi non può essere ridotto orizzontalmente.

  4. Crea un carico per il server Web eseguendo un container.

    kubectl run -i \ --tty load-generator \ --rm --image=busybox \ --restart=Never \ -- /bin/sh -c "while sleep 0.01; do wget -q -O- http://php-apache; done"
  5. Per osservare l'incremento dell'implementazione, esegui periodicamente il seguente comando in un terminale separato dal terminale in cui hai eseguito il passaggio precedente.

    kubectl get hpa php-apache

    Di seguito viene riportato un output di esempio:

    NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE php-apache Deployment/php-apache 250%/50% 1 10 5 4m44s

    Potrebbe essere necessario più di un minuto per aumentare il numero di repliche. Finché la percentuale effettiva della CPU è superiore alla percentuale di destinazione, il conteggio delle repliche aumenta fino a 10. In questo caso, è 250%, quindi il numero di REPLICAS continua ad aumentare.

    Nota

    Potrebbero essere necessari alcuni minuti prima che il numero di repliche raggiunga il limite massimo. Se, ad esempio, sono necessarie solo 6 repliche affinché il carico della CPU rimanga pari o inferiore al 50%, il carico non verrà dimensionato oltre 6 repliche.

  6. Arresta il carico. Nella finestra del terminale in cui si sta generando il carico, arrestare il carico tenendo premuti i tasti Ctrl+C. È possibile guardare il dimensionamento delle repliche nuovamente a 1 eseguendo di nuovo il seguente comando nel terminale corrispondente.

    kubectl get hpa

    Di seguito viene riportato un output di esempio:

    NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE php-apache Deployment/php-apache 0%/50% 1 10 1 25m
    Nota

    Il periodo di tempo di default per il ridimensionamento è di cinque minuti, quindi ci vorrà un po' di tempo prima di vedere il conteggio delle repliche raggiungere di nuovo 1, anche quando la percentuale corrente della CPU è 0. L'intervallo di tempo è modificabile. Per ulteriori informazioni, consulta Horizontal Pod Autoscaler nella documentazione Kubernetes.

  7. Al termine dell'esercitazione con l'applicazione di esempio, elimina le risorse php-apache.

    kubectl delete deployment.apps/php-apache service/php-apache horizontalpodautoscaler.autoscaling/php-apache