Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
EKSBewährte Methoden zur Skalierbarkeit
Dieser Leitfaden enthält Ratschläge zur Skalierung von EKS Clustern. Das Ziel der Skalierung eines EKS Clusters besteht darin, den Arbeitsaufwand, den ein einzelner Cluster ausführen kann, zu maximieren. Die Verwendung eines einzelnen, großen EKS Clusters kann die Betriebslast im Vergleich zur Verwendung mehrerer Cluster reduzieren, bringt jedoch Kompromisse bei Bereitstellungen in mehreren Regionen, Mandantenisolierung und Cluster-Upgrades mit sich. In diesem Dokument werden wir uns darauf konzentrieren, wie mit einem einzigen Cluster maximale Skalierbarkeit erreicht werden kann.
Verwendung dieses Leitfadens
Dieses Handbuch richtet sich an Entwickler und Administratoren, die für die Erstellung und Verwaltung von EKS Clustern in verantwortlich sindAWS. Es konzentriert sich auf einige generische Kubernetes-Skalierungspraktiken, enthält jedoch keine Besonderheiten für selbstverwaltete Kubernetes-Cluster oder Cluster, die außerhalb einer Region mit Anywhere ausgeführt werden. AWS EKS
Jedes Thema bietet einen kurzen Überblick, gefolgt von Empfehlungen und bewährten Methoden für den Betrieb von Clustern in großem Maßstab. EKS Die Themen müssen nicht in einer bestimmten Reihenfolge gelesen werden, und Empfehlungen sollten nicht angewendet werden, ohne sie zu testen und zu überprüfen, ob sie in Ihren Clustern funktionieren.
Die Dimensionen der Skalierung verstehen
Skalierbarkeit unterscheidet sich von Leistung und Zuverlässigkeit
Die Skalierung in Kubernetes ist mehrdimensional und es gibt keine spezifischen Einstellungen oder Empfehlungen, die in jeder Situation funktionieren. Zu den wichtigsten Bereichen, in denen wir Hinweise zur Skalierung geben können, gehören:
Kubernetes Control Plane in einem EKS Cluster umfasst alle Dienste, die automatisch für Sie AWS ausgeführt und skaliert werden (z. B. API Kubernetes-Server). Die Skalierung der Kontrollebene liegt AWS in Ihrer Verantwortung, aber die verantwortungsvolle Nutzung der Kontrollebene liegt in Ihrer Verantwortung.
Die Skalierung der Kubernetes-Datenebene befasst sich mit AWS Ressourcen, die für Ihren Cluster und Ihre Workloads erforderlich sind, sich jedoch außerhalb der Kontrollebene befinden. EKS Ressourcen wie EC2 Instanzen, Kubelet und Speicher müssen alle mit der Skalierung Ihres Clusters skaliert werden.
Clusterdienste sind Kubernetes-Controller und -Anwendungen, die innerhalb des Clusters ausgeführt werden und Funktionen für Ihren Cluster und Ihre Workloads bereitstellen. Dies können EKSAdd-Ons und auch andere Dienste oder Helm-Charts sein, die Sie aus Compliance-Gründen und Integrationen installieren. Diese Dienste hängen oft von Workloads ab, und wenn Ihre Workloads wachsen, müssen Ihre Cluster-Services mit ihnen skalieren.
Workloads sind der Grund dafür, dass Sie einen Cluster haben und diese horizontal mit dem Cluster skalieren sollten. Es gibt Integrationen und Einstellungen, die Workloads in Kubernetes haben und die die Skalierung des Clusters unterstützen können. Bei Kubernetes-Abstraktionen wie Namespaces und Diensten gibt es auch architektonische Überlegungen.
Extra große Skalierung
Wenn Sie einen einzelnen Cluster auf mehr als 1000 Knoten oder 50.000 Pods skalieren möchten, würden wir uns freuen, mit Ihnen zu sprechen. Wir empfehlen Ihnen, sich an Ihr Support-Team oder Ihren technischen Kundenbetreuer zu wenden, um mit Experten in Kontakt zu treten, die Ihnen bei der Planung und Skalierung helfen können, und zwar über die Informationen in diesem Leitfaden hinaus.
📝 Bearbeiten Sie diese Seite auf GitHub