Einen ECS Amazon-Service mithilfe der Konsole erstellen - Amazon Elastic Container Service

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Einen ECS Amazon-Service mithilfe der Konsole erstellen

Erstellen Sie einen Service, um eine bestimmte Anzahl von Instanzen einer Aufgabendefinition gleichzeitig in einem Cluster auszuführen und zu verwalten. Wenn eine Ihrer Aufgaben fehlschlägt oder beendet wird, startet der Amazon ECS Service Scheduler eine weitere Instanz Ihrer Aufgabendefinition, um sie zu ersetzen. Dies trägt dazu bei, dass die von Ihnen gewünschte Anzahl von Aufgaben im Service erhalten bleibt.

Entscheiden Sie sich für die folgenden Konfigurationsparameter, bevor Sie einen Service erstellen:

  • Es gibt zwei Rechenoptionen, die Ihre Aufgaben verteilen.

    • Eine Kapazitätsanbieterstrategie ECS veranlasst Amazon, Ihre Aufgaben auf einen oder mehrere Kapazitätsanbieter zu verteilen.

    • Ein Starttyp veranlasst AmazonECS, unsere Aufgaben direkt auf Fargate oder auf den EC2 Amazon-Instances zu starten, die in Ihren Clustern registriert sind.

  • Aufgabendefinitionen, die den awsvpc-Netzwerkmodus oder Dienste, die für die Verwendung eines Load Balancer konfiguriert sind, verwenden, müssen über eine Netzwerkkonfiguration verfügen. Standardmäßig wählt die Konsole das Standard-Amazon VPC zusammen mit allen Subnetzen und der Standardsicherheitsgruppe innerhalb des Standard-Amazon VPC aus.

  • Bei der Standardstrategie zur Aufgabenplatzierung werden Aufgaben gleichmäßig auf die Availability Zones verteilt.

  • Wenn Sie den Starttyp für Ihre Servicebereitstellung verwenden, startet der Dienst standardmäßig in den Subnetzen in Ihrem Cluster. VPC

  • Für die Strategie für Kapazitätsanbieter, wählt die Konsole standardmäßig eine Rechenoption aus. Im Folgenden wird die Reihenfolge beschrieben, in der die Konsole einen Standardwert auswählt:

    • Wenn der Cluster eine standardmäßige Kapazitätsanbieterstrategie definiert hat, ist diese ausgewählt.

    • Wenn für Ihren Cluster keine standardmäßige Kapazitätsanbieterstrategie definiert ist, Sie aber die Fargate-Kapazitätsanbieter zum Cluster hinzugefügt haben, wird eine benutzerdefinierte Kapazitätsanbieterstrategie ausgewählt, die den FARGATE Kapazitätsanbieter verwendet.

    • Wenn für Ihren Cluster keine Standardstrategie für Kapazitätsanbieter definiert ist, Sie dem Cluster jedoch einen oder mehrere Auto Scaling Scaling-Gruppenkapazitätsanbieter hinzugefügt haben, ist die Option Benutzerdefiniert (erweitert) verwenden ausgewählt und Sie müssen die Strategie manuell definieren.

    • Wenn in Ihrem Cluster keine Standardstrategie für Kapazitätsanbieter definiert ist und keine Kapazitätsanbieter zum Cluster hinzugefügt wurden, ist der Fargate Starttyp ausgewählt.

  • Die Standardoptionen für die Erkennung von Bereitstellungsfehlern bestehen darin, die Amazon ECS Deployment Circuit Breaker-Option mit der Option Rollback bei Fehlern zu verwenden.

    Weitere Informationen finden Sie unter So erkennt der Amazon ECS Deployment Circuit Breaker Ausfälle.

  • Wenn Sie die Bereitstellungsoption Blau/Grün verwenden möchten, legen Sie fest, wie die Anwendungen CodeDeploy verschoben werden. Verfügbar sind die nachfolgend aufgeführten Optionen:

    • CodeDeployDefault. ECSAllAtOnce: Verschiebt den gesamten Verkehr auf einmal auf den aktualisierten ECS Amazon-Container

    • CodeDeployDefault. ECSLinear10 PercentEvery 1Minutes: Verschiebt jede Minute 10 Prozent des Verkehrs, bis der gesamte Verkehr verlagert ist.

    • CodeDeployDefault. ECSLinear10 PercentEvery 3 Minuten: Verschiebt alle 3 Minuten 10 Prozent des Verkehrs, bis der gesamte Verkehr verlagert ist.

    • CodeDeployDefault. ECSCanary10Percent5Minutes: Verschiebt 10 Prozent des Traffics im ersten Schritt. Die restlichen 90 Prozent werden fünf Minuten später bereitgestellt.

    • CodeDeployDefault. ECSCanary10Percent15Minutes: Verschiebt 10 Prozent des Traffics im ersten Schritt. Die restlichen 90 Prozent werden 15 Minuten später bereitgestellt.

  • Wenn Sie eine Anwendung benötigen, um eine Verbindung zu anderen Anwendungen herzustellen, die in Amazon ausgeführt werdenECS, bestimmen Sie die Option, die zu Ihrer Architektur passt. Weitere Informationen finden Sie unter ECSAmazon-Dienste miteinander verbinden.

  • Sie müssen den AWS CloudFormation oder verwenden AWS Command Line Interface , um einen Service bereitzustellen, der einen der folgenden Parameter verwendet:

    • Tracking-Richtlinie mit einer benutzerdefinierten Metrik

    • Aktualisierungsdienst — Sie können die awsvpc Netzwerkkonfiguration und den Kulanzzeitraum für die Integritätsprüfung nicht aktualisieren.

    Informationen zum Erstellen eines Dienstes mithilfe von finden Sie AWS CLI unter create-servicein der AWS Command Line Interface Referenz.

    Informationen zum Erstellen eines Dienstes mit finden Sie AWS CloudFormation unter AWS::ECS::Service im AWS CloudFormation -Benutzerhandbuch.

Erstellen Sie schnell einen Service

Mit der Konsole können Sie schnell einen Service erstellen und bereitstellen. Der Service hat die folgenden Konfigurationseinstellungen:

  • Wird in den VPC und Subnetzen bereitgestellt, die Ihrem Cluster zugeordnet sind

  • Stellt eine Aufgabe bereit

  • Nutzt die laufende Bereitstellung

  • Verwendet die Kapazitätsanbieter-Strategie mit Ihrem Standardkapazitätsanbieter

  • Verwendet den Bereitstellungsschutzschalter, um Fehler zu erkennen, und legt die Option darauf fest, dass die Bereitstellung bei einem Fehler automatisch zurückgesetzt wird

Folgen Sie diesen Schritten, um einen Service mit den Standardparametern bereitzustellen.

Um einen Service zu erstellen (ECSAmazon-Konsole)
  1. Öffnen Sie die Konsole auf https://console.aws.amazon.com/ecs/Version 2.

  2. Klicken Sie im Navigationsbereich auf Cluster.

  3. Wählen Sie auf der Seite Cluster den Cluster aus, in dem der Service erstellt werden soll.

  4. Wählen Sie auf der Registerkarte Services die Option Create (Erstellen) aus.

  5. Unter Deployment configuration (Konfiguration der Bereitstellung), geben Sie an, wie Ihre Anwendung bereitgestellt wird.

    1. Für Application type (Anwendungstyp) wählen Sie Service (Service) aus.

    2. Wählen Sie für Aufgabendefinition die Aufgabendefinitionsfamilie und die zu verwendende Version aus.

    3. Wählen Sie für Service name (Servicename) einen Namen für Ihren Service aus.

    4. Geben Sie für Desired tasks (Gewünschte Aufgaben) die Anzahl der Aufgaben an, die im Service gestartet und aufrecht erhalten werden sollen.

  6. (Optional) Um Ihren Service und Ihre Aufgaben besser identifizieren zu können, erweitern Sie den Bereich Tags (Tags) und konfigurieren Sie dann Ihre Tags.

    Damit Amazon alle neu gestarteten Aufgaben ECS automatisch mit dem Clusternamen und den Aufgabendefinitions-Tags kennzeichnet, wählen Sie Von Amazon ECS verwaltete Tags aktivieren und dann Aufgabendefinitionen aus.

    Damit Amazon alle neu gestarteten Aufgaben ECS automatisch mit dem Clusternamen und den Service-Tags kennzeichnet, wählen Sie Von Amazon ECS verwaltete Tags aktivieren und dann Service aus.

    Hinzufügen oder Entfernen eines Tag.

    • [Ein Tag hinzufügen] Wählen Sie Add tag (Tag hinzufügen) und führen Sie dann das Folgende aus:

      • Geben Sie bei Key (Schlüssel) den Schlüsselnamen ein.

      • Geben Sie bei Value (Wert) den Wert des Schlüssels ein.

    • [Tag entfernen] Wählen Sie neben dem Tag die Option Remove tag (Tag löschen) aus.

Erstellen eines Services mit definierten Parametern

Gehen Sie wie folgt vor, um einen Service mithilfe definierter Parameter zu erstellen.

Um einen Service zu erstellen (ECSAmazon-Konsole)
  1. Öffnen Sie die Konsole auf https://console.aws.amazon.com/ecs/Version 2.

  2. Bestimmen Sie die Ressource, von der aus Sie den Service starten.

    So starten Sie einen Service von Schritte

    Cluster

    1. Wählen Sie auf der Seite Cluster den Cluster aus, den Sie im Service erstellen möchten.

    2. Wählen Sie auf der Registerkarte Services die Option Create (Erstellen) aus.

    Starttyp
    1. Wählen Sie auf der Seite mit den Aufgabendefinitionen das Optionsfeld neben der Aufgabendefinition aus.

    2. Wählen Sie im Menü Bereitstellen die Option Dienst erstellen aus.

  3. (Optional) Wählen Sie aus, wie Ihre geplante Aufgaben auf Ihre Cluster-Infrastruktur verteilt werden. Erweitern Sie Datenverarbeitungskonfiguration, und wählen Sie dann Ihre Option.

    Verteilungsmethode Schritte

    Kapazitätsanbieterstrategie

    1. Wählen Sie unter Rechenoptionen die Option Kapazitätsanbieterstrategie aus.

    2. Wählen Sie eine Strategie aus:

      • Um die standardmäßige Kapazitätsanbieter-Strategie des Clusters zu verwenden, wählen Sie Use cluster default (Cluster-Standard verwenden).

      • Wenn Ihr Cluster nicht über eine Standard-Kapazitätsanbieter-Strategie verfügt oder Sie eine benutzerdefinierte Strategie verwenden möchten, wählen Sie Benutzerdefiniert verwenden, Kapazitätsanbieter-Strategie hinzufügen und definieren dann Ihre benutzerdefinierte Kapazitätsanbieter-Strategie, indem Sie eine Basis, einen Kapazitätsanbieter und ein Gewicht angeben.

    Anmerkung

    Damit Kapazitätsanbieter in einer Strategie verwendet werden kann, muss er dem Cluster zugeordnet sein.

    Starttyp
    1. Wählen Sie im Bereich Compute options (Datenverarbeitungs-Optionen) die Option Launch type (Starttyp) aus.

    2. Wählen Sie unter Launch type (Starttyp) einen Starttyp aus.

    3. (Optional) Wenn der Fargate Starttyp angegeben ist, geben Sie für Plattformversion die zu verwendende Plattformversion an. Ist keine Plattformversion angegeben, wird die Plattformversion LATEST verwendet.

  4. Um anzugeben, wie Ihr Service bereitgestellt wird, gehen Sie zum Abschnitt Bereitstellungskonfiguration und wählen Sie dann Ihre Optionen aus.

    1. Belassen Sie für Anwendungstyp die Auswahl auf Service.

    2. Wählen Sie für Task definition (Aufgabendefinition) und Revision (Revision) die Aufgabendefinitionsfamilie und die zu verwendende Version aus.

    3. Wählen Sie für Servicename, einen Namen für Ihren Service aus.

    4. Für Service type (Service-Typ) wählen Sie die Strategie für die Serviceplanung.

      • Wählen Sie Daemon (Daemon), damit der Scheduler genau eine Aufgabe auf jede aktiven Container-Instance verteilt, die alle Bedingungen für die Aufgabenplatzierung erfüllt.

      • Damit der Scheduler die gewünschte Anzahl von Aufgaben in Ihrem Cluster platziert und verwaltet, wählen Sie Replica (Replikat).

    5. Wenn Sie Replica (Replikat) gewählt haben, geben Sie bei Desired tasks (Gewünschte Aufgaben) die Anzahl der Aufgaben ein, die im Service gestartet und gepflegt werden sollen.

    6. Ermitteln Sie den Bereitstellungstyp für Ihren Service. Erweitern Sie Bereitstellungsoptionen und geben Sie dann die folgenden Parameter an.

      Deployment type (Bereitstellungstyp) Schritte
      Laufende Aktualisierung
      1. Für Min running tasks (Min. laufende Aufgaben) geben Sie die untere Grenze für die Anzahl der Aufgaben im Service an, die während einer Bereitstellung in diesem RUNNING-Zustand verbleiben müssen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (aufgerundet auf die nächste ganze Zahl). Weitere Informationen finden Sie unter Bereitstellungs-Konfiguration.

      2. Geben Sie für Max. laufende Aufgaben, die Obergrenze für die Anzahl der Aufgaben im Service ein, die sich während einer Bereitstellung im Status RUNNING oder PENDING befinden dürfen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (abgerundet auf die nächste Ganzzahl).

      Blau/Grün-Bereitstellung
      1. Wählen Sie unter Bereitstellungskonfiguration aus, wie CodeDeploy der Produktionsdatenverkehr während einer Bereitstellung an Ihren Ersatz-Tasksatz weitergeleitet wird.

      2. Wählen Sie unter Servicerolle für die IAM Rolle aus CodeDeploy, die der Dienst verwendet, um API Anfragen an autorisierte Personen zu richten AWS-Services.

    7. Um zu konfigurieren, wie Amazon Bereitstellungsfehler ECS erkennt und behandelt, erweitern Sie die Option Erkennung von Bereitstellungsfehlern und wählen Sie dann Ihre Optionen aus.

      1. Um eine Bereitstellung zu beenden, wenn die Aufgaben nicht gestartet werden können, wählen Sie Verwenden Sie den Amazon ECS Deployment Circuit Breaker.

        Damit die Software die Bereitstellung automatisch auf den Status der letzten abgeschlossenen Bereitstellung zurücksetzt, wenn der Deployment Circuit Breaker die Bereitstellung in den Status „Fehlgeschlagen“ versetzt, wählen Sie Rollback bei Fehlern.

      2. Um eine Bereitstellung auf der Grundlage von Anwendungsmetriken zu beenden, wählen Sie CloudWatch Alarm (en) verwenden aus. Wählen Sie dann unter CloudWatch Alarmname die Alarme aus. Um einen neuen Alarm zu erstellen, gehen Sie zur CloudWatch Konsole.

        Damit die Software die Bereitstellung automatisch auf den Status der letzten abgeschlossenen Bereitstellung zurücksetzt, wenn ein CloudWatch Alarm die Bereitstellung in einen fehlgeschlagenen Zustand versetzt, wählen Sie Rollback bei Fehlern.

  5. (Optional) Um Service Connect zu verwenden, wählen Sie Turn on Service Connect (Service Connect aktivieren) aus, und geben Sie dann Folgendes an:

    1. Geben Sie unter Service Connect configuration (Service-Connect-Konfiguration) den Client-Modus an.

      • Wenn Ihr Dienst eine Netzwerk-Client-Anwendung ausführt, die nur eine Verbindung zu anderen Diensten im Namespace herstellen muss, wählen Sie Nur Client-Seite.

      • Wenn Ihr Service eine Netzwerk- oder Webservice-Anwendung ausführt und Endpunkte für diesen Service bereitstellen muss und eine Verbindung zu anderen Services im Namespace herstellt, wählen Sie Client and server (Client und Server) aus.

    2. Um einen Namespace zu verwenden, der nicht der Standard-Cluster-Namespace ist, wählen Sie für Namespace den Service-Namespace aus.

    3. (Optional) Wählen Sie die Option Use log collection (Protokollerfassung verwenden), um eine Protokollkonfiguration anzugeben. Für jeden verfügbaren Protokolltreiber gibt es Protokolltreiberoptionen, die angegeben werden müssen. Die Standardoption sendet Container-Logs an CloudWatch Logs. Die anderen Protokolltreiberoptionen werden mit konfiguriert AWS FireLens. Weitere Informationen finden Sie unter ECSAmazon-Logs an einen AWS Service senden oder AWS Partner.

      Im Folgenden wird jedes Container-Protokollziel ausführlicher beschrieben.

      • Amazon CloudWatch — Konfigurieren Sie die Aufgabe so, dass Container-Logs an CloudWatch Logs gesendet werden. Es werden die standardmäßigen Protokolltreiberoptionen bereitgestellt, mit denen in Ihrem Namen eine CloudWatch Protokollgruppe erstellt wird. Um einen anderen Protokollgruppen-Namen anzugeben, ändern Sie die Werte der Treiberoption.

      • Amazon Data Firehose — Konfigurieren Sie die Aufgabe, um Container-Protokolle an Firehose zu senden. Es werden die standardmäßigen Protokolltreiberoptionen bereitgestellt, die Protokolle an einen Firehose-Lieferstream senden. Um einen anderen Namen für den Bereitstellungsdatenstrom anzugeben, ändern Sie die Werte der Treiberoption.

      • Amazon Kinesis Data Streams — Konfigurieren Sie die Aufgabe so, dass Container-Logs an Kinesis Data Streams gesendet werden. Es werden die standardmäßigen Protokolltreiberoptionen bereitgestellt, mit denen Protokolle an einen Kinesis Data Streams Streams-Stream gesendet werden. Um einen anderen Datenstrom-Namen anzugeben, ändern Sie die Werte der Treiberoption.

      • Amazon OpenSearch Service — Konfigurieren Sie die Aufgabe, um Container-Logs an eine OpenSearch Service-Domain zu senden. Die Optionen für den Protokolltreiber müssen bereitgestellt werden.

      • Amazon S3 — Konfigurieren Sie die Aufgabe, um Container-Logs an einen Amazon S3 S3-Bucket zu senden. Die Standardoptionen für den Protokolltreiber sind verfügbar, Sie müssen jedoch einen gültigen Amazon S3 S3-Bucket-Namen angeben.

  6. (Optional) Um Service Discovery zu verwenden, wählen Sie Service Discovery verwenden aus und geben Sie dann Folgendes an.

    1. Um einen neuen Namespace zu verwenden, wählen Sie unter Namespace konfigurieren die Option Neuen Namespace erstellen aus, und geben Sie dann einen Namespace-Namen und eine Beschreibung ein. Um einen vorhandenen Namespace zu verwenden, wählen Sie Select an existing namespace und wählen Sie dann den Namespace aus, den Sie verwenden möchten.

    2. Geben Sie Informationen zum Service Discovery-Dienst an, z. B. den Namen und die Beschreibung des Dienstes.

    3. Um Amazon regelmäßige Zustandsprüfungen auf Container-Ebene ECS durchführen zu lassen, wählen Sie Amazon ECS Task Health Propagation aktivieren aus.

    4. Wählen Sie als DNSDatensatztyp den DNS Datensatztyp aus, den Sie für Ihren Service erstellen möchten. Amazon ECS Service Discovery unterstützt nur A und SRVRecords, abhängig vom Netzwerkmodus, den Ihre Aufgabendefinition angibt. Weitere Informationen zu diesen Datensatztypen finden Sie unter Unterstützte DNS Datensatztypen im Amazon Route 53 Developer Guide.

      • Wenn die in Ihrer Serviceaufgabe angegebene Aufgabendefinition den host Netzwerkmodus bridge oder verwendet, werden nur SRVTypdatensätze unterstützt. Wählen Sie eine Kombination aus Containername und -Port aus, die dem Datensatz zugeordnet werden soll.

      • Wenn die von Ihrer Servicetask angegebene Aufgabendefinition den awsvpc Netzwerkmodus verwendet, wählen Sie entweder den Typ A oder den SRVDatensatztyp aus. Wenn Sie A wählen, fahren Sie mit dem nächsten Schritt fort. Wenn Sie möchten SRV, geben Sie entweder den Port an, auf dem der Service gefunden werden kann, oder eine Kombination aus Containername und Port, die dem Datensatz zugeordnet werden soll.

      Geben Sie zum TTLBeispiel die Zeit in Sekunden ein, für die ein Datensatz von DNS Resolvern und Webbrowsern zwischengespeichert wird.

  7. (Optional) Um einen Load Balancer für Ihren Service zu konfigurieren, erweitern Sie Load balancing (Load Balancing).

    Wählen Sie den Load Balancer aus.

    So verwenden Sie diesen Load Balancer Vorgehensweise

    Application Load Balancer

    1. Wählen Sie für Load Balancer-Typ Application Load Balancer aus.

    2. Wählen Sie Erstellen eines neuen Load Balancers, um einen neuen Application Load Balancer zu erstellen, oder Verwenden eines vorhandenen Load Balancers um einen vorhandenen Application Load Balancer auszuwählen.

    3. Geben Sie für Load balancer name (Name des Load Balancers) einen eindeutigen Namen ein.

    4. Für Choose container to load balance (Container für den Lastausgleich wählen) wählen Sie den Container aus, der den Service hostet.

    5. Geben Sie für Listener (Zuhörer) einen Port und ein Protokoll für den Application Load Balancer an, an dem der Application Load Balancer auf Verbindungsanfragen lauschen soll. Standardmäßig wird der Load Balancer so konfiguriert, dass er Port 80 und verwendet. HTTP

    6. Geben Sie für Target group name (Name der Zielgruppe) einen Namen und ein Protokoll für die Zielgruppe ein, an die der Application Load Balancer Anforderungen weiterleitet. Standardmäßig leitet die Zielgruppe Anforderungen an den ersten Container weiter, der in Ihrer Aufgabendefinition definiert ist.

    7. Geben Sie für Verzögerung bei der Registrierung die Anzahl der Sekunden ein, auf die der Load Balancer den Zielstatus ändern soll. UNUSED Standardmäßig ist ein Zeitraum von 300 Sekunden festgelegt.

    8. Geben Sie für Health check path (Pfad für die Zustandsprüfung) einen Pfad an, der in Ihrem Container vorhanden ist, an den der Application Load Balancer regelmäßig Anforderungen senden soll, um den Verbindungszustand zwischen dem Application Load Balancer und dem Container zu überprüfen. Der Standard ist das Root-Verzeichnis (/).

    9. Geben Sie für Health check grace period (Wartefrist der Zustandsprüfungs) die Zeitspanne (in Sekunden) ein, die der Serviceplaner ungesunde Zustandsprüfungen des Ziels des Elastic Load Balancing ignorieren soll.

    Network Load Balancer
    1. Wählen Sie für Load balancer type (Load-Balancer-Typ) Network Load Balancer (Network Load Balancer) aus.

    2. Wählen Sie für Load Balancer (Load Balancer) einen vorhandenen Network Load Balancer.

    3. Für Choose container to load balance (Container für den Lastausgleich wählen) wählen Sie den Container aus, der den Service hostet.

    4. Geben Sie unter Target group name (Name der Zielgruppe) einen Namen und ein Protokoll für die Zielgruppe ein, an die der Network Load Balancer Anfragen weiterleitet. Standardmäßig leitet die Zielgruppe Anforderungen an den ersten Container weiter, der in Ihrer Aufgabendefinition definiert ist.

    5. Geben Sie für Verzögerung bei der Degeregistrierung die Anzahl der Sekunden ein, auf die der Load Balancer den Zielstatus ändern soll. UNUSED Standardmäßig ist ein Zeitraum von 300 Sekunden festgelegt.

    6. Geben Sie für Health check path (Pfad für die Zustandsprüfung) einen vorhandenen Pfad innerhalb Ihres Containers ein, an den der Network Load Balancer regelmäßig Anfragen sendet, um den Verbindungszustand zwischen dem Application Load Balancer und dem Container zu überprüfen. Der Standard ist das Root-Verzeichnis (/).

    7. Geben Sie für Health check grace period (Wartefrist der Zustandsprüfungs) die Zeitspanne (in Sekunden) ein, die der Serviceplaner ungesunde Zustandsprüfungen des Ziels des Elastic Load Balancing ignorieren soll.

  8. (Optional) Um Service Auto Scaling zu konfigurieren, erweitern Sie Service Auto Scaling und geben Sie dann die folgenden Parameter an.

    1. Um das Auto Scaling der Services zu verwenden, wählen Sie Auto Scaling des Services.

    2. Geben Sie für Mindestanzahl von Aufgaben die Untergrenze der Anzahl der Aufgaben ein, die Service Auto Scaling verwenden soll. Die gewünschte Anzahl wird diese Anzahl nicht unterschreiten.

    3. Geben Sie für Maximale Anzahl von Aufgaben die Obergrenze für die Anzahl der Aufgaben ein, die Service Auto Scaling verwenden soll. Die gewünschte Anzahl wird diese Anzahl nicht überschreiten.

    4. Wählen Sie den Richtlinien-Typ aus. Wählen Sie unter Skalierungsrichtlinientyp eine der folgenden Optionen aus.

      Um diesen Richtlinientyp zu verwenden Vorgehensweise

      Zielverfolgung

      1. Wählen Sie für Scaling policy type (Typ der Skalierungsrichtlinie) Target tracking (Ziel-Nachverfolgung) aus.

      2. Geben Sie unter Richtlinienname, einen Namen für diese Richtlinie ein.

      3. Wählen Sie als ECSService-Metrik eine der folgenden Metriken aus.

        • ECSServiceAverageCPUUtilization— Durchschnittliche CPU Nutzung des Dienstes.

        • ECSServiceAverageMemoryUtilization— Durchschnittliche Speicherauslastung des Dienstes.

        • ALBRequestCountPerTarget— Anzahl der abgeschlossenen Anfragen pro Ziel in einer Application Load Balancer Balancer-Zielgruppe.

      4. Für Zielwert, geben Sie den Wert ein, den der Service für die ausgewählte Metrik beibehält.

      5. Geben Sie für Scale-Out-Cooldown-Periode die Zeit in Sekunden ein, die nach einer Scale-Out-Aktivität (Aufgaben hinzufügen) verstrichen sein muss, bevor eine weitere Scale-Out-Aktivität gestartet werden kann.

      6. Geben Sie für Scale-in-Abklingzeit die Zeit in Sekunden ein, die nach einer Scale-In-Aktivität (Aufgaben entfernen) vergehen muss, bevor eine weitere Scale-In-Aktivität beginnen kann.

      7. Um zu verhindern, dass die Richtlinie eine Abskalierungsaktivität ausführt, wählen Sie Turn off scale-in (Abskalierung ausschalten).

      8. • (Optional) Wählen Sie Scale-In deaktivieren aus, wenn Sie möchten, dass Ihre Skalierungsrichtlinie bei erhöhtem Traffic skaliert wird, sie aber nicht bei sinkendem Traffic skaliert werden muss.

      Schrittweise Skalierung
      1. Wählen Sie für Scaling policy type (Typ der Skalierungsrichtlinie) Step scaling (Schrittweise Skalierung) aus.

      2. Geben Sie unter Richtlinienname den Namen für diese Richtlinie ein.

      3. Geben Sie unter Alarm name (Alarmname) einen eindeutigen Namen für den Alarm ein.

      4. Wählen Sie für Amazon ECS Service Metric die Metrik aus, die für den Alarm verwendet werden soll.

      5. Wählen Sie für Statistik die Alarmstatistik aus.

      6. Wählen Sie unter Zeitraum den Zeitraum für den Alarm aus.

      7. Wählen Sie unter Alarmzustand aus, wie die ausgewählte Metrik mit dem definierten Schwellenwert verglichen werden soll.

      8. Geben Sie unter Schwellenwert für den Vergleich von Metriken und Auswertungszeitraum für die Auslösung des Alarms den Schwellenwert für den Alarm ein und wie lange der Schwellenwert ausgewertet werden soll.

      9. Führen Sie unter Skalierungsaktionen die folgenden Schritte aus:

        • Wählen Sie unter Aktion aus, ob Sie eine bestimmte Anzahl für Ihren Service hinzufügen, entfernen oder festlegen möchten.

        • Wenn Sie Aufgaben hinzufügen oder entfernen möchten, geben Sie unter Wert die Anzahl der Aufgaben (oder den Prozentsatz der vorhandenen Aufgaben) ein, die hinzugefügt oder entfernt werden sollen, wenn die Skalierungsaktion initiiert wird. Wenn Sie die gewünschte Anzahl festlegen möchten, geben Sie die Anzahl der Aufgaben ein. Wählen Sie unter Typ aus, ob der Wert eine Ganzzahl oder ein Prozentwert der vorhandenen gewünschten Anzahl ist.

        • Geben Sie für Untergrenze und Obergrenze die Untergrenze und Obergrenze der schrittweisen Skalierungsanpassung ein. Standardmäßig ist die untere Grenze für eine Hinzufügerichtlinie die Alarmschwelle und die obere Grenze ist positiv (+) unendlich. Standardmäßig ist die obere Grenze für eine Entfernerichtlinie die Alarmschwelle und die untere Grenze ist negativ (-) unendlich.

        • (Optional) Fügen Sie zusätzliche Skalierungsoptionen hinzu. Wählen Sie Neue Skalierungsaktion hinzufügen aus, und wiederholen Sie dann die Schritte zur Skalierungsaktion.

        • Geben Sie unter Abklingzeit die Zeit in Sekunden ein, nach der gewartet werden soll, bis eine vorherige Skalierungsaktivität wirksam wird. Bei einer Hinzufügen-Richtlinie ist dies die Zeit nach einer Scale-Out-Aktivität, in der die Skalierungsrichtlinie Scale-In-Aktivitäten blockiert und begrenzt, wie viele Aufgaben gleichzeitig skaliert werden können. Bei einer Entfernungsrichtlinie ist dies die Zeit nach einer Scale-In-Aktivität, die abgeschlossen sein muss, bevor eine weitere Scale-In-Aktivität beginnen kann.

  9. (Optional) Um eine andere als die standardmäßige Strategie zur Platzierung von Aufgaben zu verwenden, erweitern Sie Task Placement (Platzierung von Aufgaben) und wählen Sie aus den folgenden Optionen aus.

    Weitere Informationen finden Sie unter So ECS platziert Amazon Aufgaben auf Container-Instances.

    • AZ Balanced Spread — Verteilen Sie Aufgaben auf Availability Zones und auf Container-Instances in der Availability Zone.

    • AZ Balanced BinPack — Verteilen Sie Aufgaben auf Availability Zones und auf Container-Instances mit dem geringsten verfügbaren Speicher.

    • BinPack— Verteilen Sie Aufgaben auf der Grundlage der CPU geringsten verfügbaren Speichermenge.

    • Eine Aufgabe pro Host — Platzieren Sie maximal eine Aufgabe aus dem Service auf jeder Container-Instance.

    • Benutzerdefiniert — Definieren Sie Ihre eigene Strategie zur Aufgabenverteilung.

    Wenn Sie Custom (Benutzerdefiniert) wählen, definieren Sie den Algorithmus für das Platzieren von Aufgaben und die Regeln, die bei der Aufgabenplatzierung berücksichtigt werden.

    • Unter Strategy (Strategie), für Type (Typ) und Field (Feld), wählen Sie den Algorithmus und die Entität aus, die für den Algorithmus verwendet werden sollen.

      Sie können maximal 5 Strategien angeben.

    • Unter Einschränkung, für Typ und Ausdruck, wählen Sie die Regel und das Attribut für die Einschränkung aus.

      Um beispielsweise die Einschränkung festzulegen, Aufgaben auf T2-Instances zu platzieren, geben Sie für Expression (Ausdruck) attribute:ecs.instance-type =~ t2.* ein.

      Sie können maximal 10 Einschränkungen angeben.

  10. Wenn Ihre Aufgabendefinition awsvpc-Netzwerkmodus nutzt, erweitern Sie Networking (Netzwerk). Führen Sie die folgenden Schritte aus, um eine benutzerdefinierte Konfiguration anzugeben.

    1. Wählen Sie für die aus VPC, die Sie verwenden VPC möchten.

    2. Wählen Sie für Subnetze ein oder mehrere Subnetze ausVPC, die der Taskplaner beim Platzieren Ihrer Aufgaben berücksichtigt.

      Wichtig

      Für den Netzwerkmodusawsvpc werden nur private Subnetze unterstützt. Aufgaben erhalten keine öffentlichen IP-Adressen. Daher ist für den ausgehenden Internetzugang ein NAT Gateway erforderlich, und eingehender Internetverkehr wird über einen Load Balancer geleitet.

    3. Für die VPC-Sicherheitsgruppe können Sie entweder eine vorhandene Sicherheitsgruppe auswählen oder eine neue erstellen. Um eine vorhandene Sicherheitsgruppe zu verwenden, wählen Sie die Sicherheitsgruppe aus und fahren Sie mit dem nächsten Schritt fort. Um eine neue Sicherheitsgruppe zu erstellen, wählen Sie Create a new security group. Sie müssen einen Sicherheitsgruppennamen und eine Beschreibung angeben und dann eine oder mehrere eingehende Regeln für die Sicherheitsgruppe hinzufügen.

    4. Wählen Sie für Public IP aus, ob der elastic network interface (ENI) der Aufgabe automatisch eine öffentliche IP-Adresse zugewiesen werden soll.

      AWS Fargate Aufgaben kann eine öffentliche IP-Adresse zugewiesen werden, wenn sie in einem öffentlichen Subnetz ausgeführt werden, sodass sie eine Route zum Internet haben. EC2Aufgaben kann mit diesem Feld keine öffentliche IP zugewiesen werden. Weitere Informationen finden Sie unter Netzwerkoptionen für ECS Amazon-Aufgaben für den Starttyp Fargate und Zuweisen einer Netzwerkschnittstelle für eine ECS Amazon-Aufgabe.

  11. Wenn Ihre Aufgabe ein Datenvolumen verwendet, das mit der Konfiguration bei der Bereitstellung kompatibel ist, können Sie das Volume konfigurieren, indem Sie Volume erweitern.

    Der Datenträgername und der Volumetyp werden konfiguriert, wenn Sie eine Revision der Aufgabendefinition erstellen, und können beim Erstellen eines Dienstes nicht geändert werden. Um den Namen und den Typ des Volumes zu aktualisieren, müssen Sie eine neue Version der Aufgabendefinition erstellen und mithilfe der neuen Version einen Dienst erstellen.

    Um diesen Volumetyp zu konfigurieren Vorgehensweise

    Amazon EBS

    1. Wählen Sie unter EBS Volumentyp den EBS Volumetyp aus, den Sie Ihrer Aufgabe zuordnen möchten.

    2. Geben Sie für Größe (GiB) einen gültigen Wert für die Volume-Größe in Gibibyte (GiB) ein. Sie können eine Volumengröße von mindestens 1 GiB und eine maximale Volumengröße von 16.384 GiB angeben. Dieser Wert ist erforderlich, sofern Sie keine Snapshot-ID angeben.

    3. Geben Sie für IOPSdie maximale Anzahl von Eingabe-/Ausgabevorgängen (IOPS) ein, die das Volume bereitstellen soll. Dieser Wert ist nur für die gp3 Volumetypen io1io2, und konfigurierbar.

    4. Geben Sie für Durchsatz (MIB/s) den Durchsatz in Mebibyte pro Sekunde (MiBpsoder MIB/s) ein, den das Volume bereitstellen soll. Dieser Wert ist nur für den Volumetyp konfigurierbar. gp3

    5. Wählen Sie als Snapshot-ID einen vorhandenen EBS Amazon-Volume-Snapshot aus oder geben Sie den ARN eines Snapshots ein, wenn Sie ein Volume aus einem Snapshot erstellen möchten. Sie können auch ein neues, leeres Volume erstellen, indem Sie keine Snapshot-ID auswählen oder eingeben.

    6. Wählen Sie unter Dateisystemtyp den Typ des Dateisystems aus, das für das Speichern und Abrufen von Daten auf dem Volume verwendet werden soll. Sie können entweder den Betriebssystemstandard oder einen bestimmten Dateisystemtyp wählen. Die Standardeinstellung für Linux istXFS. Für Volumes, die aus einem Snapshot erstellt wurden, müssen Sie denselben Dateisystemtyp angeben, den das Volume bei der Erstellung des Snapshots verwendet hat. Wenn der Dateisystemtyp nicht übereinstimmt, kann die Aufgabe nicht gestartet werden.

    7. Wählen Sie für die Infrastrukturrolle eine IAM Rolle mit den erforderlichen Berechtigungen aus, die es Amazon ermöglichen, EBS Amazon-Volumes für Aufgaben ECS zu verwalten. Sie können die AmazonECSInfrastructureRolePolicyForVolumes verwaltete Richtlinie an die Rolle anhängen, oder Sie können die Richtlinie als Leitfaden verwenden, um eine eigene Richtlinie mit Berechtigungen zu erstellen und anzuhängen, die Ihren spezifischen Anforderungen entsprechen. Weitere Informationen zu den erforderlichen Berechtigungen finden Sie unter IAMRolle bei der ECS Amazon-Infrastruktur.

    8. Wählen Sie unter Verschlüsselung die Option Standard, wenn Sie die EBS Amazon-Verschlüsselung standardmäßig verwenden möchten. Wenn für Ihr Konto standardmäßig Verschlüsselung konfiguriert ist, wird das Volume mit dem Schlüssel AWS Key Management Service (AWS KMS) verschlüsselt, der in der Einstellung angegeben ist. Wenn Sie Standard wählen und die EBS Amazon-Standardverschlüsselung nicht aktiviert ist, wird das Volume unverschlüsselt.

      Wenn Sie Benutzerdefiniert wählen, können Sie eine Option AWS KMS key Ihrer Wahl für die Volumenverschlüsselung angeben.

      Wenn Sie „Keine“ wählen, wird das Volume unverschlüsselt, es sei denn, Sie haben die Verschlüsselung standardmäßig konfiguriert oder Sie erstellen ein Volume aus einem verschlüsselten Snapshot.

    9. Wenn Sie Benutzerdefiniert für Verschlüsselung ausgewählt haben, müssen Sie angeben AWS KMS key , welche Sie verwenden möchten. Wählen Sie als KMSSchlüssel einen Schlüssel aus AWS KMS key oder geben Sie einen einARN. Wenn Sie Ihr Volume mithilfe eines symmetrischen, vom Kunden verwalteten Schlüssels verschlüsseln möchten, stellen Sie sicher, dass Sie in Ihrer AWS KMS key Richtlinie über die richtigen Berechtigungen verfügen. Weitere Informationen finden Sie unter Datenverschlüsselung für EBS Amazon-Volumes.

    10. (Optional) Unter Tags können Sie Ihrem EBS Amazon-Volume Tags hinzufügen, indem Sie entweder Tags aus der Aufgabendefinition oder dem Service weitergeben oder indem Sie Ihre eigenen Tags angeben.

      Wenn Sie Tags aus der Aufgabendefinition weitergeben möchten, wählen Sie Aufgabendefinition für Tags weitergeben aus. Wenn Sie Tags aus dem Service weitergeben möchten, wählen Sie Service für Tags propagieren aus. Wenn Sie Nicht weitergeben oder wenn Sie keinen Wert auswählen, werden die Tags nicht weitergegeben.

      Wenn Sie Ihre eigenen Tags angeben möchten, wählen Sie Tag hinzufügen und geben Sie dann den Schlüssel und den Wert für jedes Tag ein, das Sie hinzufügen.

      Weitere Informationen zum Taggen von EBS Amazon-Volumes finden Sie unter Amazon-Volumes taggen. EBS

  12. (Optional) Um Ihren Service und Ihre Aufgaben besser identifizieren zu können, erweitern Sie den Bereich Tags (Tags) und konfigurieren Sie dann Ihre Tags.

    Damit Amazon ECS automatisch alle neu gestarteten Aufgaben mit dem Clusternamen und den Aufgabendefinitions-Tags kennzeichnet, wählen Sie Von Amazon ECS verwaltete Tags aktivieren und dann für Tags weitergeben von die Option Aufgabendefinitionen aus.

    Damit Amazon alle neu gestarteten Aufgaben ECS automatisch mit dem Clusternamen und den Service-Tags kennzeichnet, wählen Sie Von Amazon ECS verwaltete Tags aktivieren und wählen Sie dann für Tags weitergeben von die Option Service aus.

    Hinzufügen oder Entfernen eines Tag.

    • [Ein Tag hinzufügen] Wählen Sie Add tag (Tag hinzufügen) und führen Sie dann das Folgende aus:

      • Geben Sie bei Key (Schlüssel) den Schlüsselnamen ein.

      • Geben Sie bei Value (Wert) den Wert des Schlüssels ein.

    • [Tag entfernen] Wählen Sie neben dem Tag die Option Remove tag (Tag löschen) aus.