Einen ECS Amazon-Service mithilfe der Konsole aktualisieren - Amazon Elastic Container Service

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Einen ECS Amazon-Service mithilfe der Konsole aktualisieren

Sie können einen ECS Amazon-Service über die ECS Amazon-Konsole aktualisieren. Die aktuelle Service-Konfiguration ist vorausgefüllt. Sie können die Aufgabendefinition, die gewünschte Anzahl an Aufgaben, die Kapazitätsanbieterstrategie, die Plattformversion und die Bereitstellungskonfiguration oder eine beliebige Kombination hiervon aktualisieren.

Informationen zum Aktualisieren der Blau/Grün-Bereitstellungs-Konfiguration finden Sie unter Aktualisierung einer Amazon ECS Blue/Green-Bereitstellung mithilfe der Konsole.

Die folgenden Hinweise gelten für die Verwendung der Konsole:

Wenn Sie Ihren Service vorübergehend beenden möchten, setzen Sie Gewünschte Aufgaben auf 0. Wenn Sie dann bereit sind, den Dienst zu starten, aktualisieren Sie den Dienst mit der ursprünglichen Anzahl der gewünschten Aufgaben.

Die folgenden Hinweise gelten für die Verwendung der Konsole:

  • Sie müssen den verwenden AWS Command Line Interface , um einen Dienst zu aktualisieren, der einen der folgenden Parameter verwendet:

    • Blau/Grün-Bereitstellungen

    • Service Discovery — Sie können nur Ihre Service Discovery-Konfiguration anzeigen.

    • Tracking-Richtlinie mit einer benutzerdefinierten Metrik

    • Service aktualisieren — Sie können die awsvpc Netzwerkkonfiguration und den Kulanzzeitraum für die Integritätsprüfung nicht aktualisieren.

    Informationen zum Aktualisieren eines Dienstes mithilfe von finden Sie AWS CLI unter update-servicein der AWS Command Line Interface Referenz.

  • Wenn Sie die von Containern verwendeten Ports in einer Aufgabendefinition ändern, müssen Sie möglicherweise die Sicherheitsgruppen für die Container-Instances aktualisieren, damit diese mit den aktualisierten Ports arbeiten können.

  • Amazon aktualisiert die Sicherheitsgruppen, die Elastic Load Balancing-Load Balancern oder ECS Amazon-Container-Instances zugeordnet sind, ECS nicht automatisch.

  • Wenn Ihr Service einen Load Balancer verwendet, kann die Konfiguration des Load Balancer, die für Ihren Service bei seiner Erstellung definiert wurde, nicht mit der Konsole geändert werden. Sie können stattdessen AWS CLI oder verwenden, SDK um die Load Balancer-Konfiguration zu ändern. Informationen zum Ändern der Konfiguration finden Sie unter UpdateServicein der Amazon Elastic Container Service API Reference.

  • Wenn Sie die Aufgabendefinition für den Service aktualisieren, müssen der Containername und der Container-Port, die in der Load-Balancer-Konfiguration angegeben sind, in der Aufgabendefinition verbleiben.

Sie können einen vorhandenen Service während seiner Ausführung aktualisieren, um einige der Serverkonfigurationsparameter zu ändern, etwa die Anzahl der vom Service verwalteten Aufgaben, welche Aufgabendefinition von den Aufgaben verwendet wird, oder auch die Plattformversion, wenn Ihre Aufgaben den Starttyp Fargate verwenden. Ein Service, der eine Linux-Plattformversion verwendet, kann nicht aktualisiert werden, um eine Windows-Plattformversion zu verwenden und umgekehrt. Wenn Sie eine Anwendung haben, die mehr Kapazität benötigt, können Sie Ihren Service skalieren. Wenn Sie über ungenutzte Kapazitäten verfügen, können Sie die Anzahl der gewünschten Aufgaben in Ihrem Service reduzieren und Ressourcen freigeben und herunterskalieren.

Wenn Sie ein aktualisiertes Container-Image für Ihre Aufgaben verwenden möchten, können Sie eine neue Aufgabendefinitionsvision mit diesem Abbild erstellen und es mithilfe der Option Force new deployment (Neue Bereitstellung erzwingen) in der Konsole für Ihren Service bereitstellen.

Der Service Scheduler verwendet die minimalen gesunden Prozent und maximalen Prozentparameter (in der Bereitstellungskonfiguration für den Service), um die Bereitstellungsstrategie festzulegen.

Wenn ein Service den Bereitstellungstyp laufende Aktualisierung (ECS) verwendet, stellen die minimalen gesunden Prozent eine untere Grenze für die Anzahl der Aufgaben in einem Service dar, die während einer Bereitstellung im Zustand RUNNING verbleiben müssen, als Prozentsatz der gewünschten Anzahl von Aufgaben (aufgerundet auf die nächste ganze Zahl). Der Parameter gilt auch, solange sich alle Container-Instances im DRAINING Status befinden, wenn der Service Aufgaben enthält, die den EC2 Starttyp verwenden. Sie können diesen Parameter verwenden, um die Bereitstellung ohne zusätzliche Cluster-Kapazität durchzuführen. Wenn Ihr Service z. B. eine gewünschte Anzahl von vier Aufgaben und einen Mindestprozentsatz an gesunden Aufgaben von 50 % hat, könnte der Planer zwei bestehende Aufgaben stoppen, um Cluster-Kapazität freizugeben, bevor er zwei neue Aufgaben startet. Aufgaben für Services, die keinen Load Balancer verwenden, werden als fehlerfrei betrachtet, wenn sie sich im Status RUNNING befinden. Aufgaben für Services, die einen Load Balancer verwenden, gelten als gesund, wenn sie sich im Zustand RUNNING befinden und vom Load Balancer als gesund gemeldet werden. Der Standardwert für den minimalen gesunden Prozentsatz ist 100 Prozent.

Wenn ein Service den Bereitstellungstyp laufende Aktualisierung (ECS) verwendet, stellt der Parameter maximale Prozent eine Obergrenze für die Anzahl der Aufgaben in einem Service dar, die im Zustand PENDING, RUNNING oder STOPPING während einer Bereitstellung zulässig sind, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (abgerundet auf die nächste ganze Zahl). Der Parameter gilt auch, solange sich alle Container-Instances im DRAINING Status befinden, wenn der Service Aufgaben enthält, die den EC2 Starttyp verwenden. Mithilfe dieses Parameters können Sie die Größe der Bareitstellungsstapel definieren. Wenn Ihr Service beispielsweise eine gewünschte Anzahl von vier Aufgaben und einen maximalen Prozentwert von 200 Prozent hat, kann der Planer vier neue Aufgaben starten, bevor er die vier älteren Aufgaben stoppt. Voraussetzung dafür ist, dass die dafür erforderlichen Cluster-Ressourcen verfügbar sind. Der Standardwert für den maximalen Prozentsatz beträgt 200 Prozent.

Wenn der Service Scheduler während einer Aktualisierung eine Aufgabe ersetzt, entfernt der Service zuerst die Aufgabe aus dem Load Balancer (falls verwendet) und wartet, bis die Verbindungen ausgelaufen sind. Dann wird das Äquivalent von docker stop an die Container ausgegeben, die in der Aufgabe ausgeführt werden. Das löst ein SIGTERM-Signal und eine Zeitbeschränkung von 30 Sekunden aus, nach der SIGKILL gesendet und ein Stoppen der Container erzwungen wird. Wenn der Container das SIGTERM-Signal normal verarbeitet und innerhalb von 30 Sekunden nach Erhalt des Signals schließt, wird das SIGKILL-Signal gesendet. Der Service-Scheduler startet und stoppt Aufgaben entsprechend der Definition in Ihren Einstellungen für den mindestens fehlerfreien Prozentsatz und den maximalen Prozentsatz.

Der Service-Scheduler ersetzt auch Aufgaben, die nach einem Fehlschlagen einer Container-Zustandsprüfung oder einer Load-Balancer-Zielgruppen-Zustandsprüfung als fehlerhaft eingestuft wurden. Dieser Ersatz hängt von den Parametern maximumPercent und desiredCount der Servicedefinition ab. Wenn eine Aufgabe als fehlerhaft markiert ist, startet der Service-Scheduler zunächst eine Ersatzaufgabe. Dann passiert Folgendes.

  • Wenn die Ersatzaufgabe den Integritätsstatus hatHEALTHY, stoppt der Service Scheduler die fehlerhafte Aufgabe

  • Wenn die Ersatzaufgabe den Zustand UNHEALTHY hat, stoppt der Scheduler entweder die fehlerhafte Ersatzaufgabe oder die vorhandene fehlerhafte Aufgabe, sodass die Gesamtanzahl der Aufgaben auf einen Wert gleich desiredCount eingestellt wird.

Wenn der Parameter maximumPercent den Scheduler daran hindert, zuerst eine Ersatzaufgabe zu starten, stoppt der Scheduler fehlerhafte Aufgaben einzeln nach dem Zufallsprinzip, um Kapazität freizugeben, und startet dann eine Ersatzaufgabe. Der Start- und Stoppvorgang wird fortgesetzt, bis alle fehlerhaften Aufgaben durch fehlerfreie Aufgaben ersetzt wurden. Sobald alle fehlerhaften Aufgaben ersetzt wurden und nur noch fehlerfreie Aufgaben ausgeführt werden, werden, wenn die Gesamtzahl der Aufgaben desiredCount übersteigt, die fehlerfreien Aufgaben nach dem Zufallsprinzip angehalten, bis die Gesamtzahl der Aufgaben gleich desiredCount ist. Weitere Informationen zu maximumPercent und desiredCount finden Sie unter Servicedefinitionsparamater.

Wichtig

Wenn Sie die von den Containern in einer Aufgabendefinition verwendeten Ports ändern, müssen Sie eventuell die Sicherheitsgruppen für die Container-Instances aktualisieren, damit diese mit den aktualisierten Ports funktionieren.

Wenn Sie die Aufgabendefinition für den Service aktualisieren, müssen der Containername und der Container-Port, die bei der Erstellung des Services angegeben wurden, in der Aufgabendefinition bleiben.

Amazon aktualisiert die Sicherheitsgruppen, die Elastic Load Balancing-Load Balancern oder ECS Amazon-Container-Instances zugeordnet sind, ECS nicht automatisch.

Um einen Service zu aktualisieren (ECSAmazon-Konsole)
  1. Öffnen Sie die Konsole auf https://console.aws.amazon.com/ecs/Version 2.

  2. Wählen Sie auf der Cluster-Seite den Cluster aus.

  3. Aktivieren Sie auf der Seite mit den Cluster-Details im Abschnitt Dienste das Kontrollkästchen neben dem Dienst und wählen Sie dann Aktualisieren aus.

  4. Wählen Sie Force new deployment (Neue Bereitstellung erzwingen) aus, damit Ihr Service eine neue Bereitstellung startet.

  5. Wählen Sie für Aufgabendefinition die Aufgabendefinitionsfamilie und die Version aus.

    Wichtig

    Die Konsole überprüft, ob die ausgewählte Aufgabendefinitionsfamilie und Revision mit der definierten Rechenkonfiguration kompatibel sind. Wenn Sie eine Warnung erhalten, überprüfen Sie sowohl die Kompatibilität Ihrer Aufgabendefinition als auch die von Ihnen ausgewählte Rechenkonfiguration.

  6. Geben Sie unter Gewünschte Aufgaben die Anzahl der Aufgaben ein, die Sie für den Dienst ausführen möchten.

  7. Für Min running tasks (Min. laufende Aufgaben) geben Sie die untere Grenze für die Anzahl der Aufgaben im Service an, die während einer Bereitstellung in diesem RUNNING-Zustand verbleiben müssen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (aufgerundet auf die nächste ganze Zahl). Weitere Informationen finden Sie unter Bereitstellungs-Konfiguration.

  8. Geben Sie für Max. laufende Aufgaben, die Obergrenze für die Anzahl der Aufgaben im Service ein, die sich während einer Bereitstellung im Status RUNNING oder PENDING befinden dürfen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (abgerundet auf die nächste Ganzzahl).

  9. Um zu konfigurieren, wie Amazon Bereitstellungsfehler ECS erkennt und behandelt, erweitern Sie die Option Erkennung von Bereitstellungsfehlern und wählen Sie dann Ihre Optionen aus.

    1. Um eine Bereitstellung zu beenden, wenn die Aufgaben nicht gestartet werden können, wählen Sie Verwenden Sie den Amazon ECS Deployment Circuit Breaker.

      Damit die Software die Bereitstellung automatisch auf den Status der letzten abgeschlossenen Bereitstellung zurücksetzt, wenn der Deployment Circuit Breaker die Bereitstellung in den Status „Fehlgeschlagen“ versetzt, wählen Sie Rollback bei Fehlern.

    2. Um eine Bereitstellung auf der Grundlage von Anwendungsmetriken zu beenden, wählen Sie CloudWatch Alarm (en) verwenden aus. Wählen Sie dann unter CloudWatch Alarmname die Alarme aus. Um einen neuen Alarm zu erstellen, gehen Sie zur CloudWatch Konsole.

      Damit die Software die Bereitstellung automatisch auf den Status der letzten abgeschlossenen Bereitstellung zurücksetzt, wenn ein CloudWatch Alarm die Bereitstellung in einen fehlgeschlagenen Zustand versetzt, wählen Sie Rollback bei Fehlern.

  10. Um die Rechenoptionen zu ändern, erweitern Sie Compute-Konfiguration und gehen Sie dann wie folgt vor:

    1. Wählen Sie für Dienste auf AWS Fargate, für Plattformversion, die neue Version aus.

    2. Gehen Sie für Dienste, die eine Kapazitätsanbieterstrategie verwenden, unter Kapazitätsanbieterstrategie wie folgt vor:

      • Um einen zusätzlichen Kapazitätsanbieter hinzuzufügen, wählen Sie Weitere hinzufügen aus. Wählen Sie dann für Kapazitätsanbieter den Kapazitätsanbieter aus.

      • Um einen Kapazitätsanbieter zu entfernen, wählen Sie rechts neben dem Kapazitätsanbieter die Option Entfernen aus.

      Ein Dienst, der einen Auto Scaling Scaling-Gruppenkapazitätsanbieter verwendet, kann nicht aktualisiert werden, um einen Fargate-Kapazitätsanbieter zu verwenden. Ein Dienst, der einen Fargate-Kapazitätsanbieter verwendet, kann nicht aktualisiert werden, um einen Auto Scaling Scaling-Gruppenkapazitätsanbieter zu verwenden.

  11. (Optional) Um Service Auto Scaling zu konfigurieren, erweitern Sie Service Auto Scaling und geben Sie dann die folgenden Parameter an.

    1. Um das Auto Scaling der Services zu verwenden, wählen Sie Auto Scaling des Services.

    2. Geben Sie für Mindestanzahl von Aufgaben die Untergrenze der Anzahl der Aufgaben ein, die Service Auto Scaling verwenden soll. Die gewünschte Anzahl wird diese Anzahl nicht unterschreiten.

    3. Geben Sie für Maximale Anzahl von Aufgaben die Obergrenze für die Anzahl der Aufgaben ein, die Service Auto Scaling verwenden soll. Die gewünschte Anzahl wird diese Anzahl nicht überschreiten.

    4. Wählen Sie den Richtlinien-Typ aus. Wählen Sie unter Skalierungsrichtlinientyp eine der folgenden Optionen aus.

      Um diesen Richtlinientyp zu verwenden Vorgehensweise

      Zielverfolgung

      1. Wählen Sie für Scaling policy type (Typ der Skalierungsrichtlinie) Target tracking (Ziel-Nachverfolgung) aus.

      2. Geben Sie unter Richtlinienname, einen Namen für diese Richtlinie ein.

      3. Wählen Sie als ECSService-Metrik eine der folgenden Metriken aus.

        • ECSServiceAverageCPUUtilization— Durchschnittliche CPU Nutzung des Dienstes.

        • ECSServiceAverageMemoryUtilization— Durchschnittliche Speicherauslastung des Dienstes.

        • ALBRequestCountPerTarget— Anzahl der abgeschlossenen Anfragen pro Ziel in einer Application Load Balancer Balancer-Zielgruppe.

      4. Für Zielwert, geben Sie den Wert ein, den der Service für die ausgewählte Metrik beibehält.

      5. Geben Sie für Scale-Out-Cooldown-Periode die Zeit in Sekunden ein, die nach einer Scale-Out-Aktivität (Aufgaben hinzufügen) verstrichen sein muss, bevor eine weitere Scale-Out-Aktivität gestartet werden kann.

      6. Geben Sie für Scale-in-Abklingzeit die Zeit in Sekunden ein, die nach einer Scale-In-Aktivität (Aufgaben entfernen) vergehen muss, bevor eine weitere Scale-In-Aktivität beginnen kann.

      7. Um zu verhindern, dass die Richtlinie eine Abskalierungsaktivität ausführt, wählen Sie Turn off scale-in (Abskalierung ausschalten).

      8. • (Optional) Wählen Sie Scale-In deaktivieren aus, wenn Sie möchten, dass Ihre Skalierungsrichtlinie bei erhöhtem Traffic skaliert wird, sie aber nicht bei sinkendem Traffic skaliert werden muss.

      Schrittweise Skalierung
      1. Wählen Sie für Scaling policy type (Typ der Skalierungsrichtlinie) Step scaling (Schrittweise Skalierung) aus.

      2. Geben Sie unter Richtlinienname den Namen für diese Richtlinie ein.

      3. Geben Sie unter Alarm name (Alarmname) einen eindeutigen Namen für den Alarm ein.

      4. Wählen Sie für Amazon ECS Service Metric die Metrik aus, die für den Alarm verwendet werden soll.

      5. Wählen Sie für Statistik die Alarmstatistik aus.

      6. Wählen Sie unter Zeitraum den Zeitraum für den Alarm aus.

      7. Wählen Sie unter Alarmzustand aus, wie die ausgewählte Metrik mit dem definierten Schwellenwert verglichen werden soll.

      8. Geben Sie unter Schwellenwert für den Vergleich von Metriken und Auswertungszeitraum für die Auslösung des Alarms den Schwellenwert für den Alarm ein und wie lange der Schwellenwert ausgewertet werden soll.

      9. Führen Sie unter Skalierungsaktionen die folgenden Schritte aus:

        • Wählen Sie unter Aktion aus, ob Sie eine bestimmte Anzahl für Ihren Service hinzufügen, entfernen oder festlegen möchten.

        • Wenn Sie Aufgaben hinzufügen oder entfernen möchten, geben Sie unter Wert die Anzahl der Aufgaben (oder den Prozentsatz der vorhandenen Aufgaben) ein, die hinzugefügt oder entfernt werden sollen, wenn die Skalierungsaktion initiiert wird. Wenn Sie die gewünschte Anzahl festlegen möchten, geben Sie die Anzahl der Aufgaben ein. Wählen Sie unter Typ aus, ob der Wert eine Ganzzahl oder ein Prozentwert der vorhandenen gewünschten Anzahl ist.

        • Geben Sie für Untergrenze und Obergrenze die Untergrenze und Obergrenze der schrittweisen Skalierungsanpassung ein. Standardmäßig ist die untere Grenze für eine Hinzufügerichtlinie die Alarmschwelle und die obere Grenze ist positiv (+) unendlich. Standardmäßig ist die obere Grenze für eine Entfernerichtlinie die Alarmschwelle und die untere Grenze ist negativ (-) unendlich.

        • (Optional) Fügen Sie zusätzliche Skalierungsoptionen hinzu. Wählen Sie Neue Skalierungsaktion hinzufügen aus, und wiederholen Sie dann die Schritte zur Skalierungsaktion.

        • Geben Sie unter Abklingzeit die Zeit in Sekunden ein, nach der gewartet werden soll, bis eine vorherige Skalierungsaktivität wirksam wird. Bei einer Hinzufügen-Richtlinie ist dies die Zeit nach einer Scale-Out-Aktivität, in der die Skalierungsrichtlinie Scale-In-Aktivitäten blockiert und begrenzt, wie viele Aufgaben gleichzeitig skaliert werden können. Bei einer Entfernungsrichtlinie ist dies die Zeit nach einer Scale-In-Aktivität, die abgeschlossen sein muss, bevor eine weitere Scale-In-Aktivität beginnen kann.

  12. (Optional) Um Service Connect zu verwenden, wählen Sie Turn on Service Connect (Service Connect aktivieren) aus, und geben Sie dann Folgendes an:

    1. Geben Sie unter Service Connect configuration (Service-Connect-Konfiguration) den Client-Modus an.

      • Wenn Ihr Service eine Netzwerk-Client-Anwendung ausführt, die nur eine Verbindung zu anderen Services im Namespace herstellen muss, wählen Sie Client side only (Nur Client-Seite) aus.

      • Wenn Ihr Service eine Netzwerk- oder Webservice-Anwendung ausführt und Endpunkte für diesen Service bereitstellen muss und eine Verbindung zu anderen Services im Namespace herstellt, wählen Sie Client and server (Client und Server) aus.

    2. Um einen Namespace zu verwenden, der nicht der Standard-Cluster-Namespace ist, wählen Sie für Namespace den Service-Namespace aus.

  13. Wenn Ihre Aufgabe ein Datenvolume verwendet, das mit der Konfiguration bei der Bereitstellung kompatibel ist, können Sie das Volume konfigurieren, indem Sie Volume erweitern.

    Der Datenträgername und der Volumetyp werden konfiguriert, wenn Sie eine Revision der Aufgabendefinition erstellen, und können nicht geändert werden, wenn Sie einen Dienst aktualisieren. Um den Namen und den Typ des Volumes zu aktualisieren, müssen Sie eine neue Version der Aufgabendefinition erstellen und den Dienst mithilfe der neuen Version aktualisieren.

    Um diesen Volumetyp zu konfigurieren Vorgehensweise

    Amazon EBS

    1. Wählen Sie unter EBS Volumentyp den EBS Volumetyp aus, den Sie Ihrer Aufgabe zuordnen möchten.

    2. Geben Sie für Größe (GiB) einen gültigen Wert für die Volume-Größe in Gibibyte (GiB) ein. Sie können eine Volumengröße von mindestens 1 GiB und eine maximale Volumengröße von 16.384 GiB angeben. Dieser Wert ist erforderlich, sofern Sie keine Snapshot-ID angeben.

    3. Geben Sie für IOPSdie maximale Anzahl von Eingabe-/Ausgabevorgängen (IOPS) ein, die das Volume bereitstellen soll. Dieser Wert ist nur für die gp3 Volumetypen io1io2, und konfigurierbar.

    4. Geben Sie für Durchsatz (MIB/s) den Durchsatz in Mebibyte pro Sekunde (MiBpsoder MIB/s) ein, den das Volume bereitstellen soll. Dieser Wert ist nur für den Volumetyp konfigurierbar. gp3

    5. Wählen Sie als Snapshot-ID einen vorhandenen EBS Amazon-Volume-Snapshot aus oder geben Sie den ARN eines Snapshots ein, wenn Sie ein Volume aus einem Snapshot erstellen möchten. Sie können auch ein neues, leeres Volume erstellen, indem Sie keine Snapshot-ID auswählen oder eingeben.

    6. Wählen Sie unter Dateisystemtyp den Typ des Dateisystems aus, das für das Speichern und Abrufen von Daten auf dem Volume verwendet werden soll. Sie können entweder den Betriebssystemstandard oder einen bestimmten Dateisystemtyp wählen. Die Standardeinstellung für Linux istXFS. Für Volumes, die aus einem Snapshot erstellt wurden, müssen Sie denselben Dateisystemtyp angeben, den das Volume bei der Erstellung des Snapshots verwendet hat. Wenn der Dateisystemtyp nicht übereinstimmt, kann die Aufgabe nicht gestartet werden.

    7. Wählen Sie für die Infrastrukturrolle eine IAM Rolle mit den erforderlichen Berechtigungen aus, die es Amazon ermöglichen, EBS Amazon-Volumes für Aufgaben ECS zu verwalten. Sie können die AmazonECSInfrastructureRolePolicyForVolumes verwaltete Richtlinie an die Rolle anhängen, oder Sie können die Richtlinie als Leitfaden verwenden, um eine eigene Richtlinie mit Berechtigungen zu erstellen und anzuhängen, die Ihren spezifischen Anforderungen entsprechen. Weitere Informationen zu den erforderlichen Berechtigungen finden Sie unter IAMRolle bei der ECS Amazon-Infrastruktur.

    8. Wählen Sie unter Verschlüsselung die Option Standard, wenn Sie die EBS Amazon-Verschlüsselung standardmäßig verwenden möchten. Wenn für Ihr Konto standardmäßig Verschlüsselung konfiguriert ist, wird das Volume mit dem Schlüssel AWS Key Management Service (AWS KMS) verschlüsselt, der in der Einstellung angegeben ist. Wenn Sie Standard wählen und die EBS Amazon-Standardverschlüsselung nicht aktiviert ist, wird das Volume unverschlüsselt.

      Wenn Sie Benutzerdefiniert wählen, können Sie eine Option AWS KMS key Ihrer Wahl für die Volumenverschlüsselung angeben.

      Wenn Sie „Keine“ wählen, wird das Volume unverschlüsselt, es sei denn, Sie haben die Verschlüsselung standardmäßig konfiguriert oder Sie erstellen ein Volume aus einem verschlüsselten Snapshot.

    9. Wenn Sie Benutzerdefiniert für Verschlüsselung ausgewählt haben, müssen Sie angeben AWS KMS key , welche Sie verwenden möchten. Wählen Sie als KMSSchlüssel einen Schlüssel aus AWS KMS key oder geben Sie einen einARN. Wenn Sie Ihr Volume mithilfe eines symmetrischen, vom Kunden verwalteten Schlüssels verschlüsseln möchten, stellen Sie sicher, dass Sie in Ihrer AWS KMS key Richtlinie über die richtigen Berechtigungen verfügen. Weitere Informationen finden Sie unter Datenverschlüsselung für EBS Amazon-Volumes.

    10. (Optional) Unter Tags können Sie Ihrem EBS Amazon-Volume Tags hinzufügen, indem Sie entweder Tags aus der Aufgabendefinition oder dem Service weitergeben oder indem Sie Ihre eigenen Tags angeben.

      Wenn Sie Tags aus der Aufgabendefinition weitergeben möchten, wählen Sie Aufgabendefinition für Tags weitergeben aus. Wenn Sie Tags aus dem Service weitergeben möchten, wählen Sie Service für Tags propagieren aus. Wenn Sie Nicht weitergeben oder wenn Sie keinen Wert auswählen, werden die Tags nicht weitergegeben.

      Wenn Sie Ihre eigenen Tags angeben möchten, wählen Sie Tag hinzufügen und geben Sie dann den Schlüssel und den Wert für jedes Tag ein, das Sie hinzufügen.

      Weitere Informationen zum Taggen von EBS Amazon-Volumes finden Sie unter Amazon-Volumes taggen. EBS

  14. (Optional) Um Ihren Service leichter identifizieren zu können, erweitern Sie die Tags (Tags) und konfigurieren Sie dann Ihre Tags.

    • [Tag hinzufügen] Wählen Sie Tag hinzufügen und gehen Sie wie folgt vor:

      • Geben Sie bei Key (Schlüssel) den Schlüsselnamen ein.

      • Geben Sie bei Value (Wert) den Wert des Schlüssels ein.

    • [Tag entfernen] Wählen Sie neben dem Tag die Option Remove tag (Tag löschen) aus.

  15. Wählen Sie Aktualisieren.