Aiutaci a migliorare questa pagina
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Per contribuire a questa guida per l'utente, scegli il GitHub link Modifica questa pagina nel riquadro destro di ogni pagina.
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
I tuoi carichi di lavoro vengono distribuiti in container, che vengono distribuiti in Pods in Kubernetes. Un Pod include uno o più contenitori. In genere, uno o più Pod che forniscono lo stesso servizio vengono distribuiti in un servizio Kubernetes. Dopo aver distribuito più Pod che forniscono lo stesso servizio, puoi:
-
Visualizzare le informazioni sui carichi di lavoro in esecuzione su ogni cluster utilizzando il AWS Management Console.
-
Scala verticalmente i Pod verso l'alto o verso il basso con Kubernetes Vertical Pod Autoscaler.
-
Crea un sistema di bilanciamento del carico di rete esterno (per i Pod accessibili a Internet) o interno (per i Pod privati) per bilanciare il traffico di rete tra i Pod. Il load balancer indirizza il traffico al livello 4 del modello OSI.
-
Crea un Application Load Balancer per bilanciare il traffico delle applicazioni tra i pod. Il load balancer di applicazione indirizza il traffico al livello 7 del modello OSI.
-
Se non conosci Kubernetes, questo argomento ti aiuta a distribuire un'applicazione di esempio.
-
È possibile limitare gli indirizzi IP assegnabili a un servizio con
externalIPs
.