Skalierung ElastiCache - Amazon ElastiCache

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Skalierung ElastiCache

Sie können Ihren ElastiCache Cache an Ihre Bedürfnisse anpassen. Serverlose Caches und selbst entworfene Cluster bieten verschiedene Skalierungsoptionen.

ElastiCache Serverlose Skalierung

ElastiCache Serverless passt sich automatisch Ihrem Workload-Verkehr an, wenn er steigt oder fällt. Verfolgt für jeden ElastiCache serverlosen Cache ElastiCache kontinuierlich die Auslastung von Ressourcen wie Arbeitsspeicher CPU und Netzwerk. Wenn eine dieser Ressourcen eingeschränkt ist, skaliert ElastiCache Serverless, indem es einen neuen Shard hinzufügt und die Daten auf den neuen Shard umverteilt, ohne dass es zu Ausfallzeiten Ihrer Anwendung kommt. Sie können die von Ihrem Cache-In CloudWatch verbrauchten Ressourcen überwachen, indem Sie die BytesUsedForCache Metrik für den Cache-Datenspeicher und ElastiCacheProcessingUnits () ECPU für die Computenutzung überwachen.

Festlegen von Skalierungslimits zur Kostenkontrolle

Sie können wählen, ob Sie eine maximale Nutzung sowohl für den Cache-Datenspeicher als auch für ECPU /Sekunde für Ihren Cache konfigurieren möchten, um die Cache-Kosten zu kontrollieren. Dadurch wird sichergestellt, dass Ihre Cache-Nutzung das konfigurierte Maximum nicht überschreitet.

Wenn Sie ein Skalierungsmaximum festlegen, kann es bei Ihrer Anwendung zu einer verminderten Cacheleistung kommen, wenn der Cache das Maximum erreicht. Wenn Sie ein Maximum für den Cache-Datenspeicher festlegen und Ihr Cache-Datenspeicher das Maximum erreicht, ElastiCache beginnt das Löschen von Daten in Ihrem Cache, für die ein Time-To-Live (TTL) gesetzt ist. Dabei wird die LRU Logik verwendet. Wenn keine Daten vorhanden sind, die gelöscht werden können, wird bei Anfragen zum Schreiben zusätzlicher Daten die Fehlermeldung Out Of Memory () OOM angezeigt. Wenn Sie ein Maximum von ECPU /second festlegen und die Rechenauslastung Ihres Workloads diesen Wert überschreitet, ElastiCache beginnt die Drosselung von Anfragen.

Wenn Sie ein Höchstlimit für BytesUsedForCache oder einrichtenElastiCacheProcessingUnits, empfehlen wir dringend, einen CloudWatch Alarm bei einem niedrigeren Wert als dem Höchstwert einzurichten, damit Sie benachrichtigt werden, wenn Ihr Cache in der Nähe dieser Grenzwerte arbeitet. Wir empfehlen, einen Alarm bei 75 % des von Ihnen festgelegten maximalen Limits einzustellen. Informationen zum Einrichten von CloudWatch Alarmen finden Sie in der Dokumentation.

Vorskalierung mit Serverless ElastiCache

ElastiCache Serverlose Vorskalierung

Mit der Vorskalierung, auch Pre-Warming genannt, können Sie die unterstützten Mindestgrenzen für Ihren Cache festlegen. ElastiCache Sie können diese Mindestwerte für ElastiCache Verarbeitungseinheiten (ECPUs) pro Sekunde oder Datenspeicher festlegen. Dies kann bei der Vorbereitung auf erwartete Skalierungsereignisse nützlich sein. Wenn ein Spieleunternehmen beispielsweise innerhalb der ersten Minute, in der sein neues Spiel veröffentlicht wird, eine 5-fache Zunahme der Logins erwartet, kann es seinen Cache für diesen deutlichen Anstieg der Nutzung vorbereiten.

Sie können die Vorskalierung mit der ElastiCache Konsole, oder durchführen. CLI API ElastiCache Serverless aktualisiert den verfügbaren Wert ECPUs pro Sekunde im Cache innerhalb von 60 Minuten und sendet eine Ereignisbenachrichtigung, wenn die Aktualisierung des Mindestlimits abgeschlossen ist.

So funktioniert die Vorskalierung

Wenn das Mindestlimit für ECPUs /second oder Datenspeicher über die Konsole,, oder API aktualisiert wirdCLI, ist dieses neue Limit innerhalb von 1 Stunde verfügbar. ElastiCache Serverless unterstützt 30.000 ECPUs pro Sekunde bei leerem Cache und bis zu 90.000 ECPUs pro Sekunde bei Verwendung der Funktion „Aus Replikat lesen“. ElastiCache kann den Wert pro Sekunde alle 10—12 Minuten verdoppeln. ECPUs Diese Skalierungsgeschwindigkeit ist für die meisten Workloads ausreichend. Wenn Sie davon ausgehen, dass ein bevorstehendes Skalierungsereignis diese Rate überschreiten könnte, empfehlen wir, den Mindestwert pro Sekunde auf den Höchstwert ECPUs pro Sekunde festzulegen, den Sie mindestens 60 Minuten vor dem ECPUs Spitzenereignis erwarten. Andernfalls kann es bei der Anwendung zu erhöhter Latenz und Drosselung von Anfragen kommen.

Sobald die Aktualisierung des Mindestlimits abgeschlossen ist, beginnt ElastiCache Serverless mit der Berechnung des neuen Mindestwerts ECPUs pro Sekunde oder des neuen Mindestspeichers. Dies ist auch dann der Fall, wenn Ihre Anwendung keine Anforderungen im Cache ausführt oder wenn Ihre Datenspeichernutzung unter dem Mindestwert liegt. Wenn Sie den Mindestgrenzwert gegenüber der aktuellen Einstellung herabsetzen, erfolgt die Aktualisierung sofort, sodass ElastiCache Serverless sofort mit der Messung des neuen Mindestlimits beginnt.

Anmerkung
  • Wenn Sie ein Mindestnutzungslimit festlegen, wird Ihnen dieses Limit in Rechnung gestellt, auch wenn Ihre tatsächliche Nutzung unter dem Mindestnutzungslimit liegt. ECPUoder Datenspeichernutzung, die das Mindestnutzungslimit überschreitet, wird der reguläre Tarif berechnet. Wenn Sie beispielsweise ein Mindestnutzungslimit von 100.000 ECPUs €/Sekunde festlegen, werden Ihnen mindestens 1,224 USD pro Stunde berechnet (unter Verwendung von ECPU Preisen in US-East-1), auch wenn Ihre Nutzung unter dem festgelegten Mindestwert liegt.

  • ElastiCache Serverless unterstützt den angeforderten Mindestmaßstab auf aggregierter Ebene im Cache. ElastiCache Serverless unterstützt außerdem maximal 30.000 ECPUs €/Sekunde pro Steckplatz (90.000 ECPUs €/Sekunde, wenn Read from Replica mithilfe von Verbindungen verwendet wird). READONLY Als bewährte Methode sollte Ihre Anwendung sicherstellen, dass die Schlüsselverteilung zwischen den Valkey- oder OSS Redis-Steckplätzen und der Datenverkehr zwischen den Schlüsseln so einheitlich wie möglich sind.

Skalierungsgrenzen mithilfe der Konsole festlegen und AWS CLI

Skalierungsgrenzen mithilfe der AWS Konsole festlegen

  1. Melden Sie sich bei der an AWS Management Console und öffnen Sie die ElastiCache Konsole unter https://console.aws.amazon.com/elasticache/.

  2. Wählen Sie im Navigationsbereich die Engine, die in dem Cache ausgeführt wird, den Sie ändern möchten.

  3. Es wird eine Liste der Caches der ausgewählten Engine angezeigt.

  4. Wählen Sie den zu ändernden Cache aus, indem Sie das Optionsfeld links neben dem Cache-Namen anklicken.

  5. Wählen Sie Aktionen und dann Ändern.

  6. Legen Sie unter Nutzungslimits die entsprechenden Speicher - oder Rechenlimits fest.

  7. Klicken Sie auf Änderungen in der Vorschau anzeigen und dann auf Änderungen speichern.

Einstellen von Skalierungsgrenzen mithilfe der AWS CLI

Um Skalierungsgrenzen mit dem zu ändernCLI, verwenden Sie den modify-serverless-cacheAPI.

Linux:

aws elasticache modify-serverless-cache --serverless-cache-name <cache name> \ --cache-usage-limits 'DataStorage={Minimum=10,Maximum=100,Unit=GB}, ECPUPerSecond={Minimum=1000,Maximum=100000}'

Windows:

aws elasticache modify-serverless-cache --serverless-cache-name <cache name> ^ --cache-usage-limits 'DataStorage={Minimum=10,Maximum=100,Unit=GB}, ECPUPerSecond={Minimum=1000,Maximum=100000}'

Entfernen von Skalierungsbeschränkungen mit dem CLI

Um Skalierungsgrenzen mithilfe von zu entfernenCLI, setzen Sie die Parameter Minimal und Maximum auf 0.

Linux:

aws elasticache modify-serverless-cache --serverless-cache-name <cache name> \ --cache-usage-limits 'DataStorage={Minimum=0,Maximum=0,Unit=GB}, ECPUPerSecond={Minimum=0,Maximum=0}'

Windows:

aws elasticache modify-serverless-cache --serverless-cache-name <cache name> ^ --cache-usage-limits 'DataStorage={Minimum=0,Maximum=0,Unit=GB}, ECPUPerSecond={Minimum=0,Maximum=0}'