

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Bereitstellen von Amazon-ECS-Services durch Ersetzung von Aufgaben
<a name="deployment-type-ecs"></a>

Wenn Sie einen Service erstellen, der den Bereitstellungstyp *Fortlaufende Aktualisierung* (`ECS`) verwendet, ersetzt der Amazon ECS Service Scheduler die derzeit ausgeführten Aufgaben durch neue Aufgaben. Die Anzahl der Aufgaben, die Amazon ECS während einer fortlaufenden Aktualisierung für den Service hinzufügt oder entfernt, wird durch die Service-Bereitstellungskonfiguration gesteuert. 

Amazon ECS verwendet die folgenden Parameter, um die Anzahl der Aufgaben zu bestimmen:
+ Der `minimumHealthyPercent` stellt die untere Grenze für die Anzahl der Aufgaben dar, die für einen Service während einer fortlaufenden Bereitstellung oder wenn eine Container-Instance ausgelastet ist, ausgeführt und fehlerfrei sein sollten, als Prozentsatz der gewünschten Anzahl von Aufgaben für den Service. Dieser Wert wird aufgerundet. Zum Beispiel, wenn der minimale gesunde Prozentsatz `50` ist und die gewünschte Aufgabenanzahl vier ist, kann der Scheduler zwei bestehende Aufgaben stoppen, bevor er zwei neue Aufgaben startet. Ebenso kann der Scheduler, wenn der minimale fehlerfreie Prozentsatz 75 % beträgt und die gewünschte Anzahl zwei ist, keine Aufgaben stoppen, da der resultierende Wert auch zwei ist.
+ Der `maximumPercent` stellt die Obergrenze für die Anzahl der Aufgaben dar, die für einen Service während einer fortlaufenden Bereitstellung oder wenn eine Container-Instance ausgelastet ist, ausgeführt werden sollten, als Prozentsatz der gewünschten Anzahl von Aufgaben für einen Dienst. Dieser Wert wird abgerundet. Wenn der maximale Prozentsatz beispielsweise vier beträgt `200` und die gewünschte Anzahl an Aufgaben gleich vier ist, kann der Scheduler vier neue Aufgaben starten, bevor er vier bestehende Aufgaben stoppt. Ebenso, wenn der maximale Prozentsatz `125`. ist und die gewünschte Aufgabenanzahl drei ist, kann der Scheduler keine Aufgaben starten, da der resultierende Wert ebenfalls drei ist.

Wenn Aufgaben während einer fortlaufenden Bereitstellung fehlerhaft werden, ersetzt Amazon ECS sie, um Ihren Service aufrechtzuerhalten `minimumHealthyPercent` und die Verfügbarkeit zu schützen. Fehlerhafte Aufgaben werden mit derselben Service-Version ersetzt, zu der sie gehören. Dadurch wird sichergestellt, dass das Ersetzen fehlerhafter Aufgaben in der Quellrevision unabhängig von Aufgabenfehlern in der Zielrevision ist. Wenn die `maximumPercent` Einstellung dies zulässt, startet der Scheduler Ersatzaufgaben, bevor er fehlerhafte Aufgaben beendet. Wenn der `maximumPercent` Parameter den Scheduler daran hindert, zuerst eine Ersatzaufgabe zu starten, stoppt der Scheduler jeweils eine fehlerhafte Aufgabe, um Kapazität freizugeben, bevor eine Ersatzaufgabe gestartet wird.

**Wichtig**  
Beim Festlegen eines minimalen fehlerfreien Prozentsatzes oder eines maximalen Prozentsatzes sollten Sie sicherstellen, dass der Planer mindestens eine Aufgabe anhalten oder starten kann, wenn eine Bereitstellung initiiert wird. Wenn Ihr Service über eine Bereitstellung verfügt, die aufgrund einer ungültigen Bereitstellungskonfiguration nicht mehr besteht, wird eine Serviceereignismeldung gesendet. Weitere Informationen finden Sie unter [service (*service-name*) konnte aufgrund der Konfiguration der Dienstbereitstellung während einer Bereitstellung keine Aufgaben beenden oder starten. Aktualisieren Sie den Wert minimumHealthyPercent oder MaximumPercent und versuchen Sie es erneut.](service-event-messages-list.md#service-event-messages-7).

Fortlaufende Bereitstellungen verfügen über zwei Methoden, mit denen Sie schnell feststellen können, wann eine Servicebereitstellung fehlgeschlagen ist:
+ [So erkennt der Schutzschalter in Amazon ECS fehlgeschlagene Bereitstellungen](deployment-circuit-breaker.md)
+ [So erkennen CloudWatch Alarme Bereitstellungsfehler bei Amazon ECS](deployment-alarm-failure.md)

Die Methoden können getrennt oder zusammen verwendet werden. Wenn beide Methoden verwendet werden, wird die Bereitstellung als fehlgeschlagen eingestuft, sobald das Fehlerkriterium für eine der beiden Fehlermethoden erfüllt ist.

Bestimmen Sie anhand der folgenden Anleitungen, welche Methode verwendet werden soll:
+ Schutzschalter – Verwenden Sie diese Methode, wenn Sie eine Bereitstellung anhalten möchten, falls die Aufgaben nicht gestartet werden können.
+ CloudWatch Alarme — Verwenden Sie diese Methode, wenn Sie eine Bereitstellung auf der Grundlage von Anwendungsmetriken beenden möchten.

Beide Methoden unterstützen das Rollback zur vorherigen Service-Revision.

## Container-Image-Auflösung
<a name="deployment-container-image-stability"></a>

Amazon ECS löst standardmäßig die in der Aufgabendefinition angegebenen Container-Image-Tags in Container-Image-Digests auf. Wenn Sie einen Service erstellen, der eine einzelne Aufgabe ausführt und verwaltet, wird diese Aufgabe verwendet, um Image-Digests für die Container in der Aufgabe einzurichten. Wenn Sie einen Service erstellen, der mehrere Aufgaben ausführt und verwaltet, wird die erste Aufgabe, die während der Bereitstellung vom Service Scheduler gestartet wird, verwendet, um die Image-Digests für die Container in den Aufgaben einzurichten.

Wenn drei oder mehr Versuche, die Container-Image-Digests einzurichten, fehlschlagen, wird die Bereitstellung ohne Image-Digest-Auflösung fortgesetzt. Wenn der Bereitstellungs-Schutzschalter aktiviert ist, schlägt die Bereitstellung zusätzlich fehl und wird zurückgesetzt.

Nachdem die Container-Image-Digests eingerichtet wurden, verwendet Amazon ECS die Digests, um alle anderen gewünschten Aufgaben zu starten sowie für zukünftige Service-Aktualisierungen. Dies führt dazu, dass alle Aufgaben in einem Service immer identische Container-Images ausführen, was zu einer Versionskonsistenz für Ihre Software führt.

Sie können dieses Verhalten für jeden Container in Ihrer Aufgabe konfigurieren, indem Sie den `versionConsistency`-Parameter in der Container-Definition verwenden. Weitere Informationen finden Sie unter [versionConsistency](task_definition_parameters.md#ContainerDefinition-versionconsistency).

**Anmerkung**  
Amazon-ECS-Agentenversionen, die älter als `1.31.0` sind, unterstützen keine Image-Digest-Auflösung. Agentenversionen `1.31.0` bis `1.69.0` unterstützen Image-Digest-Auflösung nur für Images, die in Amazon-ECR-Repositorys übertragen wurden. Agentenversionen `1.70.0` oder höher unterstützen Image-Digest-Auflösung für alle Images. 
Die Mindest-Plattformversion von Fargate Linux für die Image-Digest-Auflösung ist `1.3.0`. Die Mindest-Plattformversion von Fargate Windows für die Image-Digest-Auflösung ist `1.0.0`.
Amazon ECS erfasst keine Übersichten von Sidecar-Containern, die von Amazon ECS verwaltet werden, wie z. B. der Amazon GuardDuty Security Agent oder der Service Connect-Proxy.
Um die potenzielle Latenz im Zusammenhang mit der Container-Image-Auflösung in Services mit mehreren Aufgaben zu reduzieren, führen Sie Version `1.83.0` oder höher des Amazon-ECS-Agenten auf EC2-Container-Instances aus. Um potenzielle Latenzen zu vermeiden, geben Sie Container-Image-Digests in Ihrer Aufgabendefinition an.
Wenn Sie einen Service mit einer gewünschten Aufgaben-Anzahl von Null erstellen, kann Amazon ECS keine Container-Digests einrichten, bis Sie eine weitere Bereitstellung des Service mit einer gewünschten Aufgaben-Anzahl von mehr als Null auslösen.
Um aktualisierte Image-Digests zu erstellen, können Sie eine neue Bereitstellung erzwingen. Die aktualisierten Digests werden zum Starten neuer Aufgaben verwendet und wirken sich nicht auf bereits ausgeführte Aufgaben aus. Weitere Informationen zum Erzwingen neuer Bereitstellungen finden Sie [forceNewDeployment](https://docs.aws.amazon.com/AmazonECS/latest/APIReference/API_UpdateService.html#ECS-UpdateService-request-forceNewDeployment)in der *Amazon ECS-API-Referenz.*
Wenn bei der Verwendung von EC2-Kapazitätsanbietern nicht genügend Kapazität vorhanden ist, um eine Aufgabe bei der ersten Bereitstellung zu starten, kann die Konsistenz der Softwareversionen fehlschlagen. Um sicherzustellen, dass die Versionskonsistenz auch bei begrenzter Kapazität erhalten bleibt, sollten Sie explizit `versionConsistency: "enabled"` in Ihrer Container-Konfiguration für Aufgabendefinitionen festlegen, anstatt sich auf das Standardverhalten zu verlassen. Dies veranlasst Amazon ECS, zu warten, bis Kapazität verfügbar ist, bevor mit der Bereitstellung fortgefahren wird.

# Bewährte Methoden für Amazon-ECS-Serviceparameter
<a name="service-options"></a>

Um sicherzustellen, dass es zu keinen Ausfallzeiten der Anwendung kommt, läuft der Bereitstellungsprozess wie folgt ab:

1. Starten Sie die neuen Anwendungs-Container, während die vorhandenen Container weiterlaufen.

1. Überprüfen Sie, ob die neuen Container fehlerfrei sind.

1. Stoppen Sie die alten Container.

 Abhängig von Ihrer Bereitstellungskonfiguration und der Menge an freiem, nicht reserviertem Speicherplatz in Ihrem Cluster kann es mehrere Runden dauern, bis dieser Vorgang abgeschlossen ist und alle alten Aufgaben durch neue Aufgaben ersetzt werden. 

Es gibt zwei Optionen für die Servicekonfiguration, mit denen Sie die Anzahl ändern können:
+ `minimumHealthyPercent`: 100 % (Standard)

  Die Untergrenze für die Anzahl der Aufgaben für Ihren Service, die während einer Bereitstellung im Status `RUNNING` bleiben müssen. Dies wird als Prozentsatz des `desiredCount` ausgedrückt, auf den nächsten ganzen Wert aufgerundet. Mit diesem Parameter können Sie die Bereitstellung vornehmen, ohne zusätzliche Cluster-Kapazität zu nutzen.
+ `maximumPercent`: 200 % (Standard)

   Die Obergrenze für die Anzahl der Aufgaben für Ihren Service, die während einer Bereitstellung im Status `RUNNING` oder `PENDING` erlaubt sind. Dies wird als Prozentsatz des `desiredCount` ausgedrückt, auf den nächsten ganzen Wert abgerundet.

**Beispiel: Standard-Konfigurationsoptionen**

Stellen Sie sich den folgenden Service mit sechs Aufgaben vor, die in einem Cluster bereitgestellt werden, der Platz für insgesamt acht Aufgaben bietet. Die standardmäßigen Servicekonfigurationsoptionen lassen nicht zu, dass bei der Bereitstellung weniger als 100 % der sechs gewünschten Aufgaben ausgeführt werden.

Der Bereitstellungsprozess läuft folgendermaßen ab:

1. Ziel ist es, die sechs Aufgaben zu ersetzen.

1. Der Scheduler startet zwei neue Aufgaben, da die Standardeinstellungen voraussetzen, dass sechs Aufgaben ausgeführt werden.

   Es gibt jetzt sechs bestehende Aufgaben und zwei neue Aufgaben.

1. Der Scheduler stoppt zwei der vorhandenen Aufgaben.

   Es gibt jetzt vier bestehende Aufgaben und zwei neue Aufgaben.

1. Der Scheduler startet zwei zusätzliche neue Aufgaben.

   Es gibt jetzt vier bestehende Aufgaben und vier neue Aufgaben.

1. Der Scheduler stoppt zwei der vorhandenen Aufgaben.

   Es gibt jetzt zwei bestehende Aufgaben und vier neue Aufgaben.

1. Der Scheduler startet zwei zusätzliche neue Aufgaben.

   Es gibt jetzt zwei bestehende Aufgaben und sechs neue Aufgaben.

1. Der Scheduler stoppt die letzten zwei der vorhandenen Aufgaben.

   Es gibt jetzt sechs neue Aufgaben.

Wenn Sie im obigen Beispiel die Standardwerte für die Optionen verwenden, gibt es eine Wartezeit von 2,5 Minuten für jede neue Aufgabe, die gestartet wird. Darüber hinaus muss der Load Balancer möglicherweise 5 Minuten warten, bis die alte Aufgabe angehalten ist. 

**Beispiel: `minimumHealthyPercent` ändern**

Sie können die Bereitstellung beschleunigen, indem Sie den `minimumHealthyPercent`-Wert auf 50 % setzen.

Stellen Sie sich den folgenden Service mit sechs Aufgaben vor, die in einem Cluster bereitgestellt werden, der Platz für insgesamt acht Aufgaben bietet. Der Bereitstellungsprozess läuft folgendermaßen ab:

1. Ziel ist es, sechs Aufgaben zu ersetzen.

1. Der Scheduler stoppt drei der vorhandenen Aufgaben. 

   Es werden immer noch drei vorhandene Aufgaben ausgeführt, die dem `minimumHealthyPercent`-Wert entsprechen.

1. Der Scheduler startet fünf neue Aufgaben.

   Es gibt drei bestehende Aufgabenaufgaben und fünf neue Aufgaben.

1. Der Scheduler stoppt die übrigen drei vorhandenen Aufgaben.

   Es gibt fünf neue Aufgaben

1. Der Scheduler startet die letzten neuen Aufgaben.

   Es gibt sechs neue Aufgaben.

**Beispiel: Den freien Speicherplatz im Cluster ändern**

Sie können auch zusätzlichen freien Speicherplatz hinzufügen, sodass Sie zusätzliche Aufgaben ausführen können. 

Stellen Sie sich den folgenden Service mit sechs Aufgaben vor, die in einem Cluster bereitgestellt werden, der Platz für insgesamt zehn Aufgaben bietet. Der Bereitstellungsprozess läuft folgendermaßen ab:

1. Ziel ist es, die vorhandenen Aufgaben zu ersetzen.

1. Der Scheduler stoppt drei der vorhandenen Aufgaben.

   Es gibt drei bestehende Aufgaben.

1. Der Scheduler startet sechs neue Aufgaben.

   Es gibt die vorhandenen Aufgaben und sechs neue Aufgaben

1. Der Scheduler stoppt die drei vorhandenen Aufgaben.

   Es gibt sechs neue Aufgaben.

**Empfehlungen**

Verwenden Sie die folgenden Werte für die Servicekonfigurationsoptionen, wenn Ihre Aufgaben für einige Zeit inaktiv sind und keine hohe Auslastung aufweisen.
+ `minimumHealthyPercent`: 50 %
+ `maximumPercent`: 200 % 

# Erstellung einer Amazon-ECS-Bereitstellung mit fortlaufender Aktualisierung
<a name="create-service-console-v2"></a>

Erstellen SIe einen Service, um eine festgelegte Anzahl von Instances einer Aufgabendefinition gleichzeitig in einem Cluster ausführen. Wenn eine Ihrer Aufgaben ausfällt oder anhält, startet der Amazon-ECS-Service-Scheduler eine andere Instance Ihrer Aufgabendefinition, um sie zu ersetzen. Dies trägt dazu bei, dass die von Ihnen gewünschte Anzahl von Aufgaben im Service erhalten bleibt.

Entscheiden Sie sich für die folgenden Konfigurationsparameter, bevor Sie einen Service erstellen:
+ Es gibt zwei Rechenoptionen, die Ihre Aufgaben verteilen.
  + Eine **capacity provider strategy** (Strategie für Kapazitätsanbieter) veranlasst Amazon ECS, Ihre Aufgaben an einen oder mehrere Kapazitätsanbieter zu verteilen. 

    Wenn Sie Ihre Workloads in Amazon ECS Managed Instances ausführen möchten, müssen Sie die Option zur Kapazitätsanbieter-Strategie verwenden.
  + Ein **Starttyp** veranlasst Amazon ECS, Ihre Aufgaben direkt entweder auf Fargate oder auf den Amazon-EC2-Instances, die für Ihre Cluster registriert sind, zu starten.

    Wenn Sie Ihre Workloads in Amazon ECS Managed Instances ausführen möchten, müssen Sie die Option zur Kapazitätsanbieter-Strategie verwenden.
+ Aufgabendefinitionen, die den `awsvpc`-Netzwerkmodus oder Dienste, die für die Verwendung eines Load Balancer konfiguriert sind, verwenden, müssen über eine Netzwerkkonfiguration verfügen. Standardmäßig wählt die Konsole die standardmäßige Amazon VPC zusammen mit allen Subnetzen und der Standardsicherheitsgruppe innerhalb der standardmäßigen Amazon VPC aus. 
+ Die Standardstrategie für die Aufgabenplatzierung verteilt Aufgaben gleichmäßig auf Availability Zones. 

  Wir empfehlen Ihnen, Availability-Zone-Neuausgleich zu verwenden, um eine hohe Verfügbarkeit Ihres Service sicherzustellen. Weitere Informationen finden Sie unter [Ausgleichen eines Amazon-ECS-Service über Availability Zones hinweg](service-rebalancing.md).
+ Wenn Sie den **Launch Type** (Starttyp) für Ihre Servicebereitstellung verwenden, startet der Service standardmäßig in den Subnetzen in Ihrer Cluster-VPC.
+ Für die **Strategie für Kapazitätsanbieter**, wählt die Konsole standardmäßig eine Rechenoption aus. Im Folgenden wird die Reihenfolge beschrieben, in der die Konsole einen Standardwert auswählt:
  + Wenn der Cluster eine standardmäßige Kapazitätsanbieter-Strategie definiert hat, ist diese ausgewählt.
  + Wenn in Ihrem Cluster keine standardmäßige Kapazitätsanbieter-Strategie definiert ist, Sie jedoch die Fargate-Kapazitätsanbieter dem Cluster hinzugefügt haben, wird eine benutzerdefinierte Kapazitätsanbieter-Strategie verwendet, die den `FARGATE`-Kapazitätsanbieter benutzt.
  + Wenn für Ihren Cluster keine standardmäßige Kapazitätsanbieter-Strategie definiert ist, Sie jedoch einen oder mehrere Auto-Scaling-Gruppen als Kapazitätsanbieter zum Cluster hinzugefügt haben, ist die Option **Benutzerdefiniert verwenden (Erweitert)** ausgewählt und Sie müssen die Strategie manuell definieren.
  + Wenn in Ihrem Cluster keine Standardstrategie für Kapazitätsanbieter definiert ist und keine Kapazitätsanbieter zum Cluster hinzugefügt wurden, ist der Fargate Starttyp ausgewählt.
+ Die Standardoptionen für die Erkennung von Bereitstellungsfehlern sind die Verwendung der Option **Amazon-ECS-Bereitstellungs-Schutzschalter** mit der Option **Rollback bei Fehlern**.

  Weitere Informationen finden Sie unter [So erkennt der Schutzschalter in Amazon ECS fehlgeschlagene Bereitstellungen](deployment-circuit-breaker.md).
+ Entscheiden Sie, ob Amazon ECS die gewünschte Anzahl an Aufgaben in Ihrem Service automatisch erhöhen oder verringern soll. Weitere Informationen finden Sie unter [Automatisches Skalieren Ihres Amazon-ECS-Service](service-auto-scaling.md).
+ Wenn Sie eine Anwendung mit anderen Anwendungen, die in Amazon ECS laufen, verbinden müssen, bestimmen Sie die Option, die zu Ihrer Architektur passt. Weitere Informationen finden Sie unter [Amazon-ECS-Services verbinden](interconnecting-services.md). 
+ Wenn Sie einen Service erstellen, der den Amazon-ECS-Schutzschalter verwendet, erstellt Amazon ECS eine Servicebereitstellung und eine Service-Revision. Diese Ressourcen ermöglichen es Ihnen, detaillierte Informationen zum Service-Verlauf einzusehen. Weitere Informationen finden Sie unter [Anzeigen des Service-Verlaufs mithilfe von Service-Bereitstellungen in Amazon ECS](service-deployment.md).

  Informationen darüber, wie Sie einen Service mithilfe von erstellen AWS CLI, finden Sie [https://docs.aws.amazon.com/cli/latest/reference/ecs/create-service.html](https://docs.aws.amazon.com/cli/latest/reference/ecs/create-service.html)in der *AWS Command Line Interface Referenz.*

  Informationen zum Erstellen eines Dienstes mit AWS CloudFormation finden Sie [https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-ecs-service.html](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-ecs-service.html)im *AWS CloudFormation Benutzerhandbuch* unter.

## Einen Service mit den Standardoptionen erstellen
<a name="create-default-service"></a>

Mit der Konsole können Sie schnell einen Service erstellen und bereitstellen. Der Service hat die folgenden Konfigurationseinstellungen:
+ Wird in der VPC und in Subnetzen bereitgestellt, die Ihrem Cluster zugeordnet sind
+ Stellt eine Aufgabe bereit
+ Nutzt die laufende Bereitstellung
+ Verwendet die Kapazitätsanbieter-Strategie mit Ihrem Standardkapazitätsanbieter
+ Verwendet den Bereitstellungsschutzschalter, um Fehler zu erkennen, und legt die Option darauf fest, dass die Bereitstellung bei einem Fehler automatisch zurückgesetzt wird

Folgen Sie diesen Schritten, um einen Service mit den Standardparametern bereitzustellen.

**So erstellen Sie einen Service (Amazon-ECS-Konsole)**

1. Öffnen Sie die Konsole auf [https://console.aws.amazon.com/ecs/Version](https://console.aws.amazon.com/ecs/v2) 2.

1. Klicken Sie im Navigationsbereich auf **Cluster**.

1. Wählen Sie auf der **Cluster**-Seite den Cluster aus, in dem Sie den Service erstellen möchten.

1. Wählen Sie auf der Registerkarte **Services** die Option **Create** (Erstellen) aus.

   Die Seite **Service erstellen** wird angezeigt.

1. Führen Sie unter **Service-Details** die folgenden Schritte aus:

   1. Geben Sie für **Aufgabendefinition** die Aufgabendefinitionsfamilie und die zu verwendende Revision ein.

   1. Wählen Sie für **Service name** (Servicename) einen Namen für Ihren Service aus.

1. Um ECS Exec zum Debuggen des Services zu verwenden, wählen Sie unter **Konfiguration zur Fehlerbehebung** die Option **ECS Exec einschalten** aus.

1. Führen Sie im Abschnitt **Bereitstellungskonfiguration** Folgendes aus:

   1. Geben Sie für **Desired tasks** (Gewünschte Aufgaben) die Anzahl der Aufgaben an, die im Service gestartet und aufrecht erhalten werden sollen.

1. (Optional) Um Ihren Service und Ihre Aufgaben besser identifizieren zu können, erweitern Sie den Bereich **Tags** (Tags) und konfigurieren Sie dann Ihre Tags.

   Damit Amazon ECS automatisch alle neu gestarteten Aufgaben mit dem Clusternamen und den Task-Definition-Tags versieht, wählen Sie **Amazon ECS Managed Tags aktivieren** und anschließend **Aufgabendefinitionen** aus.

   Damit Amazon ECS automatisch alle neu gestarteten Aufgaben mit dem Clusternamen und den Service-Tags versieht, wählen Sie **Amazon ECS Managed Tags aktivieren** und anschließend **Service** aus.

   Hinzufügen oder Entfernen eines Tag.
   + [Ein Tag hinzufügen] Wählen Sie **Add tag** (Tag hinzufügen) und führen Sie dann das Folgende aus:
     + Geben Sie bei **Key (Schlüssel)** den Schlüsselnamen ein.
     + Geben Sie bei **Value (Wert)** den Wert des Schlüssels ein.
   + [Tag entfernen] Wählen Sie neben dem Tag die Option **Remove tag (Tag löschen)** aus.

## Erstellen eines Services mit definierten Parametern
<a name="create-custom-service"></a>

Folgen Sie diesen Schritten, um einen Service unter Verwendung von definierten Parametern bereitzustellen.

**So erstellen Sie einen Service (Amazon-ECS-Konsole)**

1. Öffnen Sie die Konsole auf [https://console.aws.amazon.com/ecs/v2](https://console.aws.amazon.com/ecs/v2).

1. Bestimmen Sie die Ressource, von der aus Sie den Service starten.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonECS/latest/developerguide/create-service-console-v2.html)

   Die Seite **Service erstellen** wird angezeigt.

1. Führen Sie unter Service-Details die folgenden Schritte aus:

   1. Geben Sie für **Aufgabendefinition** die zu verwendende Aufgabendefinition ein. Wählen Sie dann für **Revision** die zu verwendende Revision aus.

   1. Wählen Sie für **Service name** (Servicename) einen Namen für Ihren Service aus.

1. Wählen Sie für **Bestehender Cluster** den Cluster aus.

   Wählen Sie **Cluster erstellen**, um die Aufgabe auf einem neuen Cluster auszuführen

1. Wählen Sie aus, wie Ihre Aufgaben auf Ihre Cluster-Infrastruktur verteilt werden. Wählen Sie unter **Datenverarbeitungskonfiguration** Ihre Option aus.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonECS/latest/developerguide/create-service-console-v2.html)

1. Um ECS Exec zum Debuggen des Services zu verwenden, wählen Sie unter **Konfiguration zur Fehlerbehebung** die Option **ECS Exec einschalten** aus.

1. Führen Sie im Abschnitt **Bereitstellungskonfiguration** Folgendes aus:

   1. Für **Service type** (Service-Typ) wählen Sie die Strategie für die Serviceplanung.
      + Wählen Sie **Daemon** (Daemon), damit der Scheduler genau eine Aufgabe auf jede aktiven Container-Instance verteilt, die alle Bedingungen für die Aufgabenplatzierung erfüllt.
      + Damit der Scheduler die gewünschte Anzahl von Aufgaben in Ihrem Cluster platziert und verwaltet, wählen Sie **Replica** (Replikat).

   1. Wenn Sie **Replica** (Replikat) gewählt haben, geben Sie bei **Desired tasks** (Gewünschte Aufgaben) die Anzahl der Aufgaben ein, die im Service gestartet und gepflegt werden sollen.

   1. Wenn Sie **Replikat** auswählen, damit Amazon ECS die Verteilung der Aufgaben auf die Availability Zones überwacht und sie bei einem Ungleichgewicht neu verteilt, wählen Sie unter **Service-Neuausgleich der Availability Zone** die Option **Service-Neuausgleich der Availability Zone** aus.

   1. Geben Sie für **Wartefrist der Zustandsprüfung** die Zeitspanne (in Sekunden) ein, die der Service Scheduler warten soll, bevor er fehlerhaftes Elastic Load Balancing, VPC Lattice und Container-Zustandsprüfungen ignoriert, nachdem eine Aufgabe zum ersten Mal gestartet wurde. Wenn Sie keine Übergangsfrist für die Zustandsprüfung angeben, wird der Standardwert 0 verwendet.

   1. Ermitteln Sie den Bereitstellungstyp für Ihren Service. Erweitern Sie **Bereitstellungsoptionen** und geben Sie dann die folgenden Parameter an    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonECS/latest/developerguide/create-service-console-v2.html)

   1. Um zu konfigurieren, wie Amazon ECS Bereitstellungsfehler erkennt und behandelt, erweitern Sie **Deployment failure detection** (Erkennung von Bereitstellungsfehlern) und wählen Sie dann Ihre Optionen. 

      1. Um eine Bereitstellung anzuhalten, wenn die Aufgaben nicht gestartet werden können, wählen Sie **Use the Amazon ECS deployment circuit breaker** (Verwenden des Amazon-ECS-Bereitstellungsschutzschalters).

         Wenn Sie möchten, dass die Software die Bereitstellung automatisch auf den letzten abgeschlossenen Bereitstellungsstatus zurücksetzt, wenn der Bereitstellungs-Schutzschalter die Bereitstellung auf einen fehlgeschlagenen Status setzt, wählen Sie **Rollback bei Fehler** aus.

      1. Um eine Bereitstellung auf der Grundlage von Anwendungsmetriken zu beenden, wählen Sie ** CloudWatch Alarm (e) verwenden** aus. Wählen Sie dann unter **CloudWatch Alarmname** die Alarme aus. Um einen neuen Alarm zu erstellen, gehen Sie zur CloudWatch Konsole.

         Damit die Software die Bereitstellung automatisch auf den Status der letzten abgeschlossenen Bereitstellung zurücksetzt, wenn ein CloudWatch Alarm die Bereitstellung in einen fehlgeschlagenen Zustand versetzt, wählen Sie **Rollback bei Fehlern** aus.

1. Wenn Ihre Aufgabendefinition den `awsvpc`-Netzwerkmodus verwendet, können Sie eine benutzerdefinierte Netzwerkkonfiguration angeben, indem Sie **Netzwerke** erweitern und dann wie folgt vorgehen:

   1. Wählen Sie für **VPC** die VPC aus, die Sie verwenden möchten.

   1. Wählen Sie für **Subnets** (Subnetze) ein oder mehrere Subnetze in der VPC aus, die der Aufgaben-Scheduler bei der Platzierung Ihrer Aufgaben berücksichtigen soll.

   1. Für die **VPC-Sicherheitsgruppe** können Sie entweder eine vorhandene Sicherheitsgruppe auswählen oder eine neue erstellen. Um eine vorhandene Sicherheitsgruppe zu verwenden, wählen Sie die Sicherheitsgruppe aus und fahren Sie mit dem nächsten Schritt fort. Um eine neue Sicherheitsgruppe zu erstellen, wählen Sie **Create a new security group**. Sie müssen einen Sicherheitsgruppennamen und eine Beschreibung angeben und dann eine oder mehrere eingehende Regeln für die Sicherheitsgruppe hinzufügen.

   1. Geben Sie für die **Öffentliche IP** an, ob der Elastic-Network-Schnittstelle (ENI) der Aufgabe eine öffentliche IP-Adresse automatisch zugewiesen wird.

      AWS Fargate Aufgaben kann eine öffentliche IP-Adresse zugewiesen werden, wenn sie in einem öffentlichen Subnetz ausgeführt werden, sodass sie eine Route zum Internet haben. EC2-Aufgaben kann mit diesem Feld keine öffentliche IP zugewiesen werden. Weitere Informationen finden Sie unter [Netzwerkoptionen für Amazon-ECS-Aufgaben für Fargate](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/fargate-task-networking.html) und [Zuweisen einer Netzwerkschnittstelle für eine Amazon-ECS-Aufgabe](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task-networking-awsvpc.html). .

1. (Optional) Um Ihren Service mit Service Connect zu verbinden, erweitern Sie **Service Connect** und geben Sie dann Folgendes an:

   1.  Wählen Sie **Service Connect einschalten** aus.

   1. Geben Sie unter **Service Connect configuration** (Service-Connect-Konfiguration) den Client-Modus an.
      + Wenn Ihr Service eine Netzwerk-Client-Anwendung ausführt, die nur eine Verbindung zu anderen Services im Namespace herstellen muss, wählen Sie **Nur Client-Seite** aus.
      + Wenn Ihr Service eine Netzwerk- oder Webservice-Anwendung ausführt und Endpunkte für diesen Service bereitstellen muss und eine Verbindung zu anderen Services im Namespace herstellt, wählen Sie **Client and server** (Client und Server) aus.

   1. Um einen Namespace zu verwenden, der nicht der Standard-Cluster-Namespace ist, wählen Sie für **Namespace** den Service-Namespace aus. Dies kann ein Namespace sein, der separat in demselben AWS-Region in Ihrem AWS-Konto oder einem Namespace in derselben Region erstellt wurde und der mithilfe AWS Resource Access Manager von () mit Ihrem Konto geteilt wird.AWS RAM*Weitere Informationen zur gemeinsamen Nutzung von AWS Cloud Map Namespaces finden Sie unter [Kontenübergreifende gemeinsame Nutzung von AWS Cloud Map Namespaces](https://docs.aws.amazon.com/cloud-map/latest/dg/sharing-namespaces.html) im Entwicklerhandbuch.AWS Cloud Map *

   1. (Optional) Geben Sie eine Protokollkonfiguration an. Wählen Sie **Protokollsammlung verwenden** aus. Die Standardoption sendet Container-Logs an Logs. CloudWatch Die anderen Protokolltreiberoptionen werden mit konfiguriert AWS FireLens. Weitere Informationen finden Sie unter [Amazon ECS-Protokolle an einen AWS Service senden oder AWS Partner](using_firelens.md).

      Im Folgenden wird jedes Container-Protokollziel ausführlicher beschrieben.
      + **Amazon CloudWatch** — Konfigurieren Sie die Aufgabe, um Container-Logs an CloudWatch Logs zu senden. Es werden die standardmäßigen Protokolltreiberoptionen bereitgestellt, mit denen in Ihrem Namen eine CloudWatch Protokollgruppe erstellt wird. Um einen anderen Protokollgruppen-Namen anzugeben, ändern Sie die Werte der Treiberoption.
      + **Amazon Data Firehose** – Konfigurieren Sie die Aufgabe, dass Container-Protokolle an Firehose gesendet werden. Die Standardoptionen für den Protokolltreiber werden bereitgestellt, wodurch die Protokolle an einen Bereitstellungsdatenstrom von Firehose gesendet werden. Um einen anderen Namen für den Bereitstellungsdatenstrom anzugeben, ändern Sie die Werte der Treiberoption.
      + **Amazon Kinesis Data Streams** – Konfigurieren Sie die Aufgabe, dass Container-Protokolle an Kinesis Data Streams gesendet werden. Die Standardoptionen für den Protokolltreiber werden bereitgestellt, wodurch Protokolle an einen Datenstrom von Kinesis Data Streams gesendet werden. Um einen anderen Datenstrom-Namen anzugeben, ändern Sie die Werte der Treiberoption.
      + **Amazon OpenSearch Service** — Konfigurieren Sie die Aufgabe, um Container-Logs an eine OpenSearch Service-Domain zu senden. Die Optionen für den Protokolltreiber müssen bereitgestellt werden. 
      + **Amazon S3** – Konfigurieren Sie die Aufgabe, dass Container-Protokolle an einen Amazon-S3-Bucket gesendet werden. Die Standardoptionen für den Protokolltreiber werden bereitgestellt, Sie müssen jedoch einen gültigen Amazon-S3-Bucket-Namen angeben.

   1. (Optional) Gehen Sie wie folgt vor, um Zugriffsprotokolle zu aktivieren:

      1. Erweitern Sie **Konfiguration des Zugriffsprotokolls**. Wählen Sie als **Format** entweder **JSON** oder`TEXT`.

      1. Um Abfrageparameter in Zugriffsprotokolle aufzunehmen, wählen Sie **Abfrageparameter einbeziehen** aus.

1. (Optional) Um Ihren Service mit der Serviceerkennung zu verbinden, erweitern Sie **Serviceerkennung** und führen Sie Folgendes aus:

   1. Wählen Sie **Serviceerkennung verwenden** aus.

   1. Um einen neuen Namespace zu verwenden, wählen Sie unter **Namespace konfigurieren** die Option **Neuen Namespace erstellen** aus, und geben Sie dann einen Namespace-Namen und eine Beschreibung ein. Um einen vorhandenen Namespace zu verwenden, wählen Sie **Vorhandenen Namespace auswählen** und wählen Sie dann den Namespace aus, den Sie verwenden möchten.

   1. Geben Sie zur Serviceerkennung Informationen über den Service an, z. B. den Namen und die Beschreibung des Services.

   1. Damit Amazon ECS regelmäßig Zustandsprüfungen auf Container-Ebene durchführt, wählen Sie **Zustandpropagation für Amazon-ECS-Aufgaben aktivieren** aus.

   1. Wählen Sie für **DNS record type (DNS-Datensatztyp)** den DNS-Datensatztyp aus, der für Ihren Service erstellt werden soll. Die Amazon-ECS-Serviceerkennung unterstützt abhängig von dem Netzwerkmodus, der durch Ihre Aufgabendefinition angegeben wird, nur **A**- und **SRV**-Datensätze. Informationen über diese Datensatztypen finden Sie unter [Unterstützte DNS-Datensatztypen](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/ResourceRecordTypes.html) im *Amazon Route 53-Entwicklerhandbuch*.
      + Wenn die von Ihrer Serviceaufgabe angegebene Aufgabendefinition als Netzwerkmodus `bridge` oder `host` verwendet, werden nur Datensätze vom Typ **SRV** unterstützt. Wählen Sie eine Kombination aus Containername und -Port aus, die dem Datensatz zugeordnet werden soll.
      + Wenn die Aufgabendefinition, die Ihre Serviceaufgabe angibt, den `awsvpc`-Netzwerkmodus verwendet, wählen Sie entweder den Datensatztyp **A** oder **SRV**. Wenn Sie **A** auswählen, fahren Sie mit dem nächsten Schritt fort. Wenn Sie **SRV** wählen, geben Sie entweder den Port an, unter dem der Service gefunden werden kann, oder eine Kombination aus Containername und Port, die dem Datensatz zugeordnet werden soll.

      Geben Sie für **TTL** die Zeit in Sekunden ein, für die ein Datensatz von DNS-Resolvern und Webbrowsern zwischengespeichert wird.

1. (Optional) Um Ihren Service mithilfe von VPC Lattice zu verbinden, erweitern Sie **VPC Lattice** und gehen Sie dann wie folgt vor:

   1. Wählen Sie **VPC Lattice einschalten** aus.

   1. Wählen Sie für **Infrastrukturrolle** die Infrastrukturrolle aus.

      Wenn Sie keine Rolle erstellt haben, wählen Sie **Infrastrukturrolle erstellen** aus.

   1. Wählen Sie unter **Zielgruppen** die Zielgruppe(n) aus. Sie müssen mindestens eine Zielgruppe auswählen und können maximal fünf haben. Um zusätzliche Zielgruppen hinzuzufügen, wählen Sie **Zielgruppe hinzufügen** aus. Wählen Sie den **Port-Namen**, **das Protokoll** und den **Port** für jede gewählte Zielgruppe aus. 

      Zum Löschen einer Zielgruppe, wählen Sie **Entfernen** aus.
**Anmerkung**  
Wenn Sie bestehende Zielgruppen hinzufügen möchten, müssen Sie die AWS CLI verwenden. *Anweisungen zum Hinzufügen von Zielgruppen mithilfe von finden Sie unter [register-targets](https://docs.aws.amazon.com/cli/latest/reference/vpc-lattice/register-targets.html) in der AWS Command Line Interface Referenz. AWS CLI*
Obwohl einem VPC-Lattice-Service mehrere Zielgruppen zugeordnet werden können, kann jede Zielgruppe jeweils nur einem einzigen Service hinzugefügt werden.

   1. Um die VPC-Lattice-Konfiguration abzuschließen, indem Sie in der VPC-Lattice-Konsole Ihre neuen Zielgruppen in die Listener-Standardaktion oder in die Regeln eines vorhandenen VPC-Lattice-Services aufnehmen. Weitere Informationen finden Sie unter [Listener-Regeln für Ihren VPC-Lattice-Service](https://docs.aws.amazon.com/vpc-lattice/latest/ug/listener-rules.html).

1. (Optional) Um einen Load Balancer für Ihren Service zu konfigurieren, erweitern Sie **Load balancing** (Load Balancing).

   Wählen Sie den Load Balancer aus.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonECS/latest/developerguide/create-service-console-v2.html)

1. (Optional) Um Service-Auto-Scaling zu konfigurieren, erweitern Sie **Service-Auto-Scaling** und geben Sie dann die folgenden Parameter an. Um prädiktives Auto Scaling zu verwenden, das vergangene Ladedaten aus Datenverkehrsflüssen betrachtet, konfigurieren Sie dies, nachdem Sie den Service erstellt haben. Weitere Informationen finden Sie unter [Verwenden Sie historische Muster, um Amazon ECS-Services mit vorausschauender Skalierung zu skalieren](predictive-auto-scaling.md).

   1. Um das Auto Scaling der Services zu verwenden, wählen Sie **Auto Scaling des Services**.

   1. Geben Sie unter **Mindestanzahl an Aufgaben**, die Untergrenze der Anzahl der Aufgaben an, die das Service-Auto-Scaling verwenden kann. Die gewünschte Anzahl wird diese Anzahl nicht unterschreiten.

   1. Geben Sie unter **Höchstanzahl an Aufgaben** die Obergrenze der Anzahl der Aufgaben an, die das Service-Auto-Scaling verwenden kann. Die gewünschte Anzahl wird diese Anzahl nicht überschreiten.

   1. Wählen Sie den Richtlinien-Typ aus. Wählen Sie unter **Skalierungsrichtlinientyp** eine der folgenden Optionen aus.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonECS/latest/developerguide/create-service-console-v2.html)

1. (Optional) Um eine andere als die standardmäßige Strategie zur Platzierung von Aufgaben zu verwenden, erweitern Sie **Task Placement** (Platzierung von Aufgaben) und wählen Sie aus den folgenden Optionen aus.

    Weitere Informationen finden Sie unter [So platziert Amazon ECS Aufgaben in Container-Instances](task-placement.md).
   + **AZ Balanced Spread (Ausgewogene AZ-Verteilung)**: Verteilt Aufgaben über Availability Zones und über Container-Instances in der Availability Zone.
   + **AZ Balanced BinPack** — Verteilen Sie Aufgaben auf Availability Zones und auf Container-Instances mit dem geringsten verfügbaren Speicher.
   + **BinPack**— Verteilen Sie Aufgaben auf der Grundlage der geringsten verfügbaren CPU- oder Speichermenge.
   + **One Task Per Host (Eine Aufgabe pro Host)**: Platziert höchstens eine Aufgabe des Service auf jeder Container-Instance.
   + **Benutzerdefiniert**: Definieren Sie Ihre eigene Aufgabenplatzierungsstrategie. 

   Wenn Sie **Custom** (Benutzerdefiniert) wählen, definieren Sie den Algorithmus für das Platzieren von Aufgaben und die Regeln, die bei der Aufgabenplatzierung berücksichtigt werden.
   + Unter **Strategy** (Strategie), für **Type** (Typ) und **Field** (Feld), wählen Sie den Algorithmus und die Entität aus, die für den Algorithmus verwendet werden sollen.

     Sie können maximal 5 Strategien angeben.
   + Unter **Einschränkung**, für **Typ** und **Ausdruck**, wählen Sie die Regel und das Attribut für die Einschränkung aus.

     Um beispielsweise die Einschränkung festzulegen, Aufgaben auf T2-Instances zu platzieren, geben Sie für **Expression** (Ausdruck) **attribute:ecs.instance-type =\$1 t2.\$1** ein.

     Sie können maximal 10 Einschränkungen angeben.

1. Wenn Ihre Aufgabe ein Daten-Volume verwendet, das mit der Konfiguration bei der Bereitstellung kompatibel ist, können Sie das Volume konfigurieren, indem Sie **Volume** erweitern.

   Der Volume-Name und der Volume-Typ werden bei der Erstellung einer Revision der Aufgabendefinition konfiguriert und können nicht geändert werden, wenn Sie einen Service erstellen. Um den Namen und den Typ des Volumes zu aktualisieren, müssen Sie eine neue Revision der Aufgabendefinition erstellen und einen Service mithilfe der neuen Revision erstellen.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonECS/latest/developerguide/create-service-console-v2.html)

1. Um ECS Exec zum Debuggen des Services zu verwenden, wählen Sie unter **Konfiguration zur Fehlerbehebung** die Option **ECS Exec einschalten** aus.

1. (Optional) Um Ihren Service und Ihre Aufgaben besser identifizieren zu können, erweitern Sie den Bereich **Tags** (Tags) und konfigurieren Sie dann Ihre Tags.

   Damit Amazon ECS alle neu gestarteten Aufgaben automatisch mit Tags für den Clusternamen und den Aufgabendefinitions-Tags versieht, wählen Sie **Amazon ECS Managed Tags einschalten** und dann für **Tags verbreiten von** die Option **Aufgabendefinitionen**.

   Damit Amazon ECS alle neu gestarteten Aufgaben automatisch mit Tags für den Clustername und die Service-Tags versieht, wählen Sie **Amazon ECS Managed Tags** einschalten und dann für **Tags verbreiten von** die Option **Service**.

   Hinzufügen oder Entfernen eines Tag.
   + [Ein Tag hinzufügen] Wählen Sie **Add tag** (Tag hinzufügen) und führen Sie dann das Folgende aus:
     + Geben Sie bei **Key (Schlüssel)** den Schlüsselnamen ein.
     + Geben Sie bei **Value (Wert)** den Wert des Schlüssels ein.
   + [Tag entfernen] Wählen Sie neben dem Tag die Option **Remove tag (Tag löschen)** aus.

1. Wählen Sie **Erstellen** aus.

## Nächste Schritte
<a name="create-service-next-steps"></a>

Im Folgenden finden Sie zusätzliche Aktionen, nachdem Sie einen Service erstellt haben.
+ Konfigurieren Sie prädiktives Auto Scaling, das vergangene Ladedaten aus Datenverkehrsflüssen berücksichtigt. Weitere Informationen finden Sie unter [Verwenden Sie historische Muster, um Amazon ECS-Services mit vorausschauender Skalierung zu skalieren](predictive-auto-scaling.md).
+ Verfolgen Sie Ihre Bereitstellung und zeigen Sie Ihren Service-Verlauf für Services an, die der Amazon-ECS-Schutzschalter unterbricht. Weitere Informationen finden Sie unter [Anzeigen des Service-Verlaufs mithilfe von Service-Bereitstellungen in Amazon ECS](service-deployment.md).