Aiutaci a migliorare questa pagina
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Vuoi contribuire a questa guida per l'utente? Scorri fino alla fine di questa pagina e seleziona Modifica questa pagina su GitHub. I tuoi contributi contribuiranno a rendere la nostra guida utente migliore per tutti.
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Scopri come distribuire carichi di lavoro e componenti aggiuntivi su Amazon EKS
I tuoi carichi di lavoro vengono distribuiti in container, che vengono distribuiti in Pods in KubernetesA. Pod include uno o più contenitori. In genere, uno o più Pods che forniscono lo stesso servizio vengono distribuiti in un Kubernetes servizio. Dopo averne distribuiti più Pods che forniscono lo stesso servizio, puoi:
-
Visualizzare le informazioni sui carichi di lavoro in esecuzione su ogni cluster utilizzando il AWS Management Console.
-
Scalare verticalmente Pods verso l'alto o verso il basso con il Kubernetes Vertical Pod Autoscaler.
-
Ridimensiona orizzontalmente il numero di Pods necessario per soddisfare l'aumento o la diminuzione della domanda con Kubernetes Pod Autoscaler orizzontale.
-
Crea un file esterno (accessibile da Internet) Pods) o interno (per uso privato) Pods) sistema di bilanciamento del carico di rete per bilanciare il traffico di rete attraverso Pods. Il sistema di bilanciamento del carico indirizza il traffico al livello 4 del OSI modello.
-
Crea un Application Load Balancer per bilanciare il traffico delle applicazioni su Pods. L'application load balancer indirizza il traffico al livello 7 del OSI modello.
-
Se sei nuovo Kubernetes, questo argomento consente di distribuire un'applicazione di esempio.
-
È possibile limitare gli indirizzi IP assegnabili a un servizio con
externalIPs
.
📝 Modifica questa pagina su GitHub