

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Aktualisieren der Amazon-ECS-Serviceparameter
<a name="update-service-parameters"></a>

Nachdem Sie einen Service erstellt haben, müssen Sie manchmal die Serviceparameter aktualisieren, z. B. die Anzahl der Aufgaben.

Wenn der Service Scheduler neue Aufgaben startet, bestimmt er die Platzierung der Aufgaben in Ihrem Cluster anhand der folgenden Logik.
+ Bestimmen Sie, welche der Container-Instances in Ihrem Cluster die Aufgabendefinition Ihres Services unterstützen können. Sie verfügen beispielsweise über die erforderlichen CPU-, Port- und Container-Instance-Attribute.
+ Standardmäßig versucht der Service Scheduler, Aufgaben auf diese Weise zwischen den Availability Zones zu verteilen, auch wenn Sie eine andere Platzierungsstrategie wählen können.
  + Sortieren Sie die gültigen Container-Instances nach der niedrigsten Anzahl laufender Aufgaben für diesen Service in derselben Availability Zone, wie die Instance. Wenn beispielsweise Zone A über eine ausgeführte Serviceaufgabe verfügt und die Zonen B und C jeweils über keine, werden gültige Container-Instances in Zone B oder C als optimal für eine Platzierung erachtet.
  + Platzieren Sie die neue Serviceaufgabe auf einer gültigen Container-Instance in einer optimalen Availability Zone (basierend auf den vorherigen Schritten), wobei die Container-Instances mit der geringsten Anzahl an ausgeführten Aufgaben für diesen Service bevorzugt werden.

Wenn der Service Scheduler laufende Aufgaben stoppt, versucht er, mithilfe des folgenden Themas eine Ausgewogenheit in den Availability Zones in Ihrem Cluster herzustellen. 
+ Sortieren Sie die Container-Instances nach der größten Anzahl laufender Aufgaben für diesen Service in derselben Availability Zone, wie die Instance. Wenn beispielsweise Zone A über eine ausgeführte Serviceaufgabe verfügt und die Zonen B und C jeweils über zwei, werden Container-Instances in Zone B oder C optimal zum Beenden erachtet.
+ Stoppen Sie die Aufgabe auf einer Container-Instance in einer optimalen Availability Zone (basierend auf den vorherigen Schritten), wobei Sie die Container-Instances mit der größten Anzahl an ausgeführten Aufgaben für diesen Service bevorzugen sollten.

Ermitteln Sie anhand der Liste, ob Sie den Serviceparameter ändern können.

**Neuausgleich der Availability Zone**  
Gibt an, ob Availability-Zone-Neuausgleich für den Service verwendet werden soll.  
Sie können diesen Parameter für fortlaufende Bereitstellungen ändern.

**Kapazitätsanbieter-Strategie**  
Die Details einer Kapazitätsanbieter-Strategie. Sie können einen Kapazitätsanbieter festlegen, wenn Sie einen Cluster erstellen, eine Aufgabe ausführen oder einen Services aktualisieren.  
Wenn Sie Fargate verwenden, sind die Kapazitätsanbieter `FARGATE` oder `FARGATE_SPOT`.  
Wenn Sie Amazon EC2 verwenden, handelt es sich bei den Kapazitätsanbietern um Auto-Scaling-Gruppen.  
Sie können die Kapazitätsanbieter für fortlaufende Bereitstellungen und Blau/Grün-Bereitstellungen ändern.  
Die folgende Liste stellt die gültigen Übergänge bereit:  
+ Aktualisieren Sie Fargate auf einen Kapazitätsanbieter für Auto-Scaling-Gruppen.
+ Aktualisieren Sie EC2 auf einen Fargate-Kapazitätsanbieter.
+ Aktualisieren Sie den Fargate-Kapazitätsanbieter auf einen Kapazitätsanbieter für Auto-Scaling-Gruppen.
+ Aktualisieren Sie den Amazon-EC2-Kapazitätsanbieter auf einen Fargate-Kapazitätsanbieter. 
+ Aktualisieren Sie den Auto-Scaling-Gruppe- oder Fargate- Kapazitätsanbieter zurück auf den Starttyp. Wenn Sie die CLI oder API verwenden, übergeben Sie im `capacityProviderStrategy`-Parameter eine leere Liste.

**Cluster**  
Sie können den Namen des Clusters nicht ändern.

**Bereitstellungskonfiguration**  
Die Bereitstellungskonfiguration umfasst die CloudWatch Alarme und den Schutzschalter, die zur Erkennung von Ausfällen verwendet werden, sowie die erforderliche Konfiguration.  
Der Leistungsschalter für eine Bereitstellung bestimmt, ob die Bereitstellung für einen Dienst fehlschlägt, wenn der Dienst keinen stabilen Zustand erreichen kann. Wenn Sie den Bereitstellungs-Schutzschalter verwenden, wechselt die Servicebereitstellung in einen fehlgeschlagenen Status und stoppt das Starten neuer Aufgaben. Wenn Sie die Rollback-Option verwenden und eine Servicebereitstellung fehlschlägt, wird der Service auf die letzte Bereitstellung zurückgesetzt, die erfolgreich abgeschlossen wurde.  
Wenn Sie einen Service aktualisieren, der den Amazon-ECS-Schutzschalter verwendet, erstellt Amazon ECS eine Servicebereitstellung und eine Service-Revision. Diese Ressourcen ermöglichen es Ihnen, detaillierte Informationen zum Service-Verlauf einzusehen. Weitere Informationen finden Sie unter [Anzeigen des Service-Verlaufs mithilfe von Service-Bereitstellungen in Amazon ECS](service-deployment.md).  
Der Service Scheduler verwendet die minimalen gesunden Prozent und maximalen Prozentparameter (in der Bereitstellungskonfiguration für den Service), um die Bereitstellungsstrategie festzulegen.  
Wenn ein Service den Bereitstellungstyp mit fortlaufender Aktualisierung (`ECS`) verwendet, stellt der **minimale fehlerfreie Prozentsatz** eine untere Grenze für die Anzahl der Aufgaben in einem Service dar, die während einer Bereitstellung im Status `RUNNING` verbleiben müssen, als Prozentsatz der gewünschten Anzahl von Aufgaben (aufgerundet auf die nächste ganze Zahl). Der Parameter gilt auch, wenn sich Container-Instances im `DRAINING`-Status befinden, wenn der Service Aufgaben mit EC2 enthält. Sie können diesen Parameter verwenden, um die Bereitstellung ohne zusätzliche Cluster-Kapazität durchzuführen. Wenn Ihr Service z. B. eine gewünschte Anzahl von vier Aufgaben und einen Mindestprozentsatz an gesunden Aufgaben von 50 % hat, könnte der Planer zwei bestehende Aufgaben stoppen, um Cluster-Kapazität freizugeben, bevor er zwei neue Aufgaben startet. Aufgaben für Services, die keinen Load Balancer verwenden, werden als fehlerfrei betrachtet, wenn sie sich im `RUNNING`-Status befinden. Aufgaben für Services, die einen Load Balancer verwenden, gelten als fehlerfrei, wenn sie sich im `RUNNING`-Status befinden und vom Load Balancer als fehlerfrei gemeldet werden. Der Standardwert für den minimalen gesunden Prozentsatz ist 100 Prozent.  
Wenn ein Service den Bereitstellungstyp mit fortlaufender Aktualisierung (`ECS`) verwendet, stellt der Parameter **maximaler Prozentsatz** eine Obergrenze für die Anzahl der Aufgaben in einem Service dar, die während einer Bereitstellung im Status `PENDING`, `RUNNING` oder `STOPPING` zulässig sind, als Prozentsatz der gewünschten Anzahl von Aufgaben (abgerundet auf die nächste ganze Zahl). Der Parameter gilt auch, wenn sich Container-Instances im `DRAINING`-Status befinden, wenn der Service Aufgaben mit EC2 enthält. Mithilfe dieses Parameters können Sie die Größe der Bareitstellungsstapel definieren. Wenn Ihr Service beispielsweise eine gewünschte Anzahl von vier Aufgaben und einen maximalen Prozentwert von 200 Prozent hat, kann der Planer vier neue Aufgaben starten, bevor er die vier älteren Aufgaben stoppt. Voraussetzung dafür ist, dass die dafür erforderlichen Cluster-Ressourcen zur Verfügung stehen. Der Standardwert für den maximalen Prozentsatz beträgt 200 Prozent.  
Wenn der Service Scheduler während einer Aktualisierung eine Aufgabe ersetzt, entfernt der Service zuerst die Aufgabe aus dem Load Balancer (falls verwendet) und wartet, bis die Verbindungen ausgelaufen sind. Dann wird das Äquivalent von **docker stop** an die Container ausgegeben, die in der Aufgabe ausgeführt werden. Das löst ein `SIGTERM`-Signal und eine Zeitbeschränkung von 30 Sekunden aus, nach der `SIGKILL` gesendet und ein Stoppen der Container erzwungen wird. Wenn der Container das `SIGTERM`-Signal normal verarbeitet und innerhalb von 30 Sekunden nach Erhalt des Signals schließt, wird das `SIGKILL`-Signal gesendet. Der Service-Scheduler startet und stoppt Aufgaben entsprechend der Definition in Ihren Einstellungen für den mindestens fehlerfreien Prozentsatz und den maximalen Prozentsatz.  
Der Service-Scheduler ersetzt auch Aufgaben, die nach einem Fehlschlagen einer Container-Zustandsprüfung oder einer Load-Balancer-Zielgruppen-Zustandsprüfung als fehlerhaft eingestuft wurden. Dieser Ersatz hängt von den Parametern `maximumPercent` und `desiredCount` der Servicedefinition ab. Wenn eine Aufgabe als fehlerhaft markiert ist, startet der Service-Scheduler zunächst eine Ersatzaufgabe. Danach geschieht Folgendes.  
+ Wenn die Ersatzaufgabe den Zustand `HEALTHY` hat, stoppt der Service Scheduler die fehlerhafte Aufgabe.
+ Wenn die Ersatzaufgabe den Zustand `UNHEALTHY` hat, stoppt der Scheduler entweder die fehlerhafte Ersatzaufgabe oder die vorhandene fehlerhafte Aufgabe, sodass die Gesamtanzahl der Aufgaben auf einen Wert gleich `desiredCount` eingestellt wird.
Wenn der Parameter `maximumPercent` den Scheduler daran hindert, zuerst eine Ersatzaufgabe zu starten, stoppt der Scheduler fehlerhafte Aufgaben einzeln nach dem Zufallsprinzip, um Kapazität freizugeben, und startet dann eine Ersatzaufgabe. Der Start- und Stopp-Prozess wird fortgesetzt, bis alle fehlerhaften Aufgaben durch fehlerfreie Aufgaben ersetzt wurden. Sobald alle fehlerhaften Aufgaben ersetzt wurden und nur noch fehlerfreie Aufgaben ausgeführt werden, werden, wenn die Gesamtzahl der Aufgaben `desiredCount` übersteigt, die fehlerfreien Aufgaben nach dem Zufallsprinzip angehalten, bis die Gesamtzahl der Aufgaben gleich `desiredCount` ist. Weitere Informationen zu `maximumPercent` und `desiredCount` finden Sie unter [Servicedefinitionsparamater](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service_definition_parameters.html).

**Bereitstellungscontroller**  
Der für den Service zu verwendende Bereitstellungs-Controller. Es sind drei Bereitstellungs-Controller-Typen verfügbar:  
+ `ECS`
+ `EXTERNAL`
+ `CODE_DEPLOY`
Wenn Sie einen Service aktualisieren, können Sie den von ihm verwendeten Bereitstellungs-Controller aktualisieren. Die folgende Liste stellt die gültigen Übergänge bereit:  
+ Aktualisieren Sie von CodeDeploy blauen/grünen Bereitstellungen (`CODE_DEPLOY`) auf fortlaufende blue/green ECS-Bereitstellungen oder Bereitstellungen (). `ECS`
+ Aktualisierung von CodeDeploy blauen/grünen Bereitstellungen () auf externe Bereitstellungen (`CODE_DEPLOY`). `EXTERNAL`
+ Aktualisierung von fortlaufenden blue/green ECS-Bereitstellungen oder Bereitstellungen (`ECS`) auf externe Bereitstellungen (). `EXTERNAL`
+ Aktualisierung von externen Bereitstellungen (`EXTERNAL`) auf fortlaufende blue/green ECS-Bereitstellungen (). `ECS`
Beachten Sie Folgendes, wenn Sie den Bereitstellungs-Controller eines Services aktualisieren:  
+ Sie können den Bereitstellungs-Controller eines Service nicht vom `ECS`-Bereitstellungs-Controller auf einen der anderen Controller aktualisieren, wenn er VPC Lattice oder Amazon ECS Service Connect verwendet.
+ Sie können den Bereitstellungs-Controller eines Service während einer laufenden Servicebereitstellung nicht aktualisieren.
+ Sie können den Bereitstellungs-Controller eines Services nicht auf `CODE_DEPLOY` aktualisieren, wenn für den Service keine Load Balancer vorhanden sind.
+ Sie können den Bereitstellungs-Controller eines Services nicht von `ECS` auf einen der anderen Controller aktualisieren, wenn `deploymentConfiguration` Alarme, einen Bereitstellungs-Schutzschalter oder eine `BLUE_GREEN`-Bereitstellungsstrategie beinhaltet. Weitere Informationen finden Sie unter [Controller und Strategien für die Bereitstellung von Amazon-ECS-Services](ecs_service-options.md).
+ Der Wert, den Sie für `versionConsistency` in der Container-Definition angeben, wird von Amazon ECS nicht verwendet, wenn Sie den Bereitstellungs-Controller des Service von `ECS` auf einen der anderen Controller aktualisieren. 
+ Wenn Sie den Bereitstellungs-Controller eines Services von `ECS` auf einen der anderen Controller aktualisieren, werden die API-Antworten `UpdateService` und `DescribeService` immer noch `deployments` statt `taskSets` zurückgegeben. Weitere Informationen zu `UpdateService` und `CreateService` finden Sie unter [UpdateService](https://docs.aws.amazon.com/AmazonECS/latest/APIReference/API_Service.html)und [CreateService](https://docs.aws.amazon.com/AmazonECS/latest/APIReference/API_Service.html)in der *Amazon ECS-API-Referenz*.
+ Wenn ein Service eine Bereitstellungsstrategie mit fortlaufender Aktualisierung verwendet, ändert sich bei der Aktualisierung des Bereitstellungs-Controllers von `ECS` auf einen der anderen Controller die Art und Weise, wie der `maximumPercent`-Wert in `deploymentConfiguration` verwendet wird. `maximumPercent` wird nicht nur als Obergrenze für die Gesamtzahl der Aufgaben in einer Bereitstellung mit fortlaufender Aktualisierung verwendet, sondern dient dazu, fehlerhafte Aufgaben zu ersetzen. Weitere Informationen dazu, wie der Scheduler fehlerhafte Aufgaben ersetzt, finden Sie unter [Amazon-ECS-Dienstleistungen](ecs_services.md).
+ Wenn Sie den Bereitstellungs-Controller eines Services von `ECS` auf einen der anderen Bereitstellungs-Controller aktualisieren, werden alle `advancedConfiguration`, die Sie in Ihrer Load-Balancer-Konfiguration angeben, ignoriert. Weitere Informationen finden Sie unter [LoadBalancer](https://docs.aws.amazon.com/AmazonECS/latest/APIReference/API_LoadBalancer.html)und [AdvancedConfiguration](https://docs.aws.amazon.com/AmazonECS/latest/APIReference/API_AdvancedConfiguration.html)in der *Amazon ECS-API-Referenz*.
Beachten Sie bei der Aktualisierung des Deployment Controllers für einen Service CloudFormation, der verwendet, je nach Art der Migration, die Sie durchführen, Folgendes.  
+ Wenn Sie über eine CloudFormation Vorlage verfügen, die sowohl `EXTERNAL` Deployment Controller-Informationen als `TaskSet` auch `PrimaryTaskSet` Ressourcen enthält, und Sie beim Aktualisieren von bis die Taskset-Ressourcen aus `EXTERNAL` der Vorlage entfernen`ECS`, geben die `DeleteTaskSet` API-Aufrufe `DescribeTaskSet` und nach der Aktualisierung des Deployment Controllers einen 400-Fehler zurück`ECS`. Dies führt zu einem CloudFormation Löschfehler bei den Taskset-Ressourcen, obwohl der CloudFormation Stapel in den `UPDATE_COMPLETE` Status wechselt. Weitere Informationen finden Sie unter [Aus dem Stapel entfernte, aber nicht gelöschte Ressource](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/troubleshooting.html#troubleshooting-errors-resource-removed-not-deleted) im Benutzerhandbuch für AWS CloudFormation . Um dieses Problem zu beheben, löschen Sie die Aufgabensätze direkt mithilfe der `DeleteTaskSet`-API von Amazon ECS. Weitere Informationen zum Löschen eines Task-Sets finden Sie [DeleteTaskSet](https://docs.aws.amazon.com/AmazonECS/latest/APIReference/API_DeleteTaskSet.html)in der *Amazon Elastic Container Service* *API-Referenz*.
+ Wenn Sie `ECS` mit einer neuen Aufgabendefinition von `CODE_DEPLOY` zu migrieren und CloudFormation einen Rollback-Vorgang durchführen, schlägt die Amazon `UpdateService` ECS-Anfrage mit dem folgenden Fehler fehl:

  ```
  Resource handler returned message: "Invalid request provided: Unable to update 
  task definition on services with a CODE_DEPLOY deployment controller. Use AWS 
  CodeDeploy to trigger a new deployment. (Service: Ecs, Status Code: 400, 
  Request ID: 0abda1e2-f7b3-4e96-b6e9-c8bc585181ac) (SDK Attempt Count: 1)" 
  (RequestToken: ba8767eb-c99e-efed-6ec8-25011d9473f0, HandlerErrorCode: InvalidRequest)
  ```
+ Nach einer erfolgreichen Migration vom `ECS`- zum `EXTERNAL`-Bereitstellungs-Controller müssen Sie den `ACTIVE`-Aufgabensatz manuell entfernen, da Amazon ECS die Bereitstellung nicht mehr verwaltet. Informationen zum Löschen eines Task-Sets finden Sie [DeleteTaskSet](https://docs.aws.amazon.com/AmazonECS/latest/APIReference/API_DeleteTaskSet.html)in der Amazon Elastic Container Service *API-Referenz*.

**Anzahl der gewünschten Aufgaben**  
Die Anzahl der Instanziierungen der Aufgabe, die in Ihrem Service platziert und ausgeführt werden sollen.  
Wenn Sie Ihren Service vorübergehend anhalten möchten, setzen Sie diesen Wert auf 0. Wenn Sie dann bereit sind, den Service zu starten, aktualisieren Sie den Service mit dem ursprünglichen Wert.  
Sie können diesen Parameter für fortlaufende Bereitstellungen und Blau/Grün-Bereitstellungen ändern.

**Verwaltete Tags aktivieren**  
Gibt an, ob von Amazon ECS Managed Tags für die Aufgaben im Service aktiviert werden sollen.  
Nur Aufgaben, die nach der Aktualisierung gestartet wurden, spiegeln die Aktualisierung wider. Um die Tags für alle Aufgaben zu aktualisieren, verwenden Sie die Option Bereitstellung erzwingen.  
Sie können diesen Parameter für fortlaufende Bereitstellungen und Blau/Grün-Bereitstellungen ändern.

**ECS Exec aktivieren**  
Ermittelt, ob Amazon ECS Exec verwendet wird.  
Wenn Sie den Wert, der bei der Erstellung des Service festgelegt wurde, nicht überschreiben möchten, können Sie ihn bei der Ausführung dieser Aktion auf Null setzen.  
Sie können diesen Parameter für fortlaufende Bereitstellungen ändern.

**Nachfrist für den Gesundheitscheck**  
Der Zeitraum in Sekunden, in dem der Amazon-ECS-Service-Scheduler fehlerhafte Elastic-Load-Balancing-, VPC-Lattice- und Container-Zustandsprüfungen ignoriert, nachdem eine Aufgabe erstmals gestartet wurde. Wenn Sie keine Übergangsfrist für die Zustandsprüfung angeben, wird der Standardwert `0` verwendet. Wenn Sie keine der Zustandsprüfungen verwenden, wird `healthCheckGracePeriodSeconds` nicht genutzt.  
Wenn die Aufgaben Ihres Services eine Weile brauchen, bis sie gestartet sind und reagieren, können Sie eine Wartefrist für den Zustandsprüfung von bis zu 2 147 483 647 Sekunden (etwa 69 Jahre) festlegen. Während dieser Zeit ignoriert der Scheduler des Amazon ECS Services den Status der Zustandsprüfung. Diese Frist kann verhindern, dass der Service-Scheduler Aufgaben als ungesund markiert und stoppt, bevor sie ausreichend Zeit zum Initialisieren bekommen haben.  
Sie können diesen Parameter für fortlaufende Bereitstellungen und Blau/Grün-Bereitstellungen ändern.

**Load Balancers**  
Sie müssen eine Service-verknüpfte Rolle verwenden, wenn Sie einen Load Balancer aktualisieren.  
Eine Liste der Load-Balancer-Objekte für Elastic Load Balancing. Diese Liste enthält den Namen des Load Balancers, den Container-Namen und den Container-Port, auf den vom Load Balancer aus zugegriffen werden soll. Der Container-Name ist so, wie er in einer Container-Definition erscheint.  
Amazon ECS aktualisiert die Sicherheitsgruppen nicht automatisch, die mit Elastic Load Balancing-Load Balancern oder Amazon-ECS-Container-Instances verbunden sind.  
Wenn Sie eine Konfiguration für den Load Balancer hinzufügen, aktualisieren oder entfernen, startet Amazon ECS neue Aufgaben mit der aktualisierten Konfiguration für Elastic Load Balancing und stoppt die alten Aufgaben, wenn die neuen Aufgaben ausgeführt werden..  
Für Services, die fortlaufende Aktualisierung verwenden, können Sie Elastic-Load-Balancing-Zielgruppen hinzufügen, aktualisieren oder entfernen. Sie können von einer einzelnen Zielgruppe auf mehrere Zielgruppen und von mehreren Zielgruppen auf eine einzige Zielgruppe aktualisieren.  
Für Services, die blue/green Deployments verwenden, können Sie Elastic Load Balancing Balancing-Zielgruppen aktualisieren, indem Sie `[CreateDeployment](https://docs.aws.amazon.com/codedeploy/latest/APIReference/API_CreateDeployment.html)` through CodeDeploy verwenden. Beachten Sie, dass mehrere Zielgruppen für blue/green Bereitstellungen nicht unterstützt werden. Weitere Informationen finden Sie unter [Registrieren von mehreren Zielgruppen mit einem Service](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/register-multiple-targetgroups.html).   
Für Dienste, die den externen Deployment Controller verwenden, können Sie Load Balancer hinzufügen, aktualisieren oder entfernen, indem Sie [CreateTaskSet](https://docs.aws.amazon.com/AmazonECS/latest/APIReference/API_CreateTaskSet.html) Beachten Sie, dass mehrere Zielgruppen für externe Bereitstellungen nicht unterstützt werden. Weitere Informationen finden Sie unter [Registrieren von mehreren Zielgruppen mit einem Service](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/register-multiple-targetgroups.html).   
Übergeben Sie eine leere Liste, um Load Balancer zu entfernen.  
Sie können diesen Parameter für fortlaufende Bereitstellungen ändern.

**Netzwerkkonfiguration**  
Die Netzwerkkonfiguration für den Service.   
Sie können diesen Parameter für fortlaufende Bereitstellungen ändern.

**Platzierungsbeschränkungen**  
Ein Array von Platzierungs-Einschränkungs-Objekten zum Aktualisieren des Services, der verwendet werden soll. Wenn kein Wert angegeben wird, bleiben die vorhandenen Platzierungsbeschränkungen für den Service unverändert. Wenn dieser Wert angegeben wird, überschreibt er alle vorhandenen Platzierungsbeschränkungen, die für den Service definiert wurden. Um alle vorhandenen Platzierungsbeschränkungen zu entfernen, geben Sie ein leeres Array an.  
Sie können für jede Aufgabe maximal 10 Einschränkungen angeben. Dieses Limit enthält Einschränkungen in der Aufgabendefinition und solche, die während der Laufzeit festgelegt werden.  
Sie können diesen Parameter für fortlaufende Bereitstellungen und Blau/Grün-Bereitstellungen ändern.

**Platzierungsstrategie**  
Die Platzierungs-Strategie-Objekte zum Aktualisieren des Services, der verwendet werden soll. Wenn kein Wert angegeben wird, bleibt die bestehende Platzierungsstrategie für den Service unverändert. Wenn dieser Wert angegeben wird, überschreibt er die vorhandene Platzierungsstrategie, die für den Service definiert wurde. Um eine bestehende Platzierungsstrategie zu entfernen, geben Sie ein leeres Objekt an.  
Sie können diesen Parameter für fortlaufende Bereitstellungen und Blau/Grün-Bereitstellungen ändern.

**Version der Plattform**  
Die Fargate-Plattformversion, auf der Sie Ihren Service ausführen.  
Ein Service, der eine Linux-Plattformversion verwendet, kann nicht aktualisiert werden, um eine Windows-Plattformversion zu verwenden und umgekehrt.  
Sie können diesen Parameter für fortlaufende Bereitstellungen ändern.

**Tags weitergeben**  
Gibt an, ob die Tags von der Aufgabendefinition oder dem Service an die Aufgabe weitergegeben werden sollen. Wenn kein Wert angegeben wird, werden die Tags nicht weitergegeben.  
Nur Aufgaben, die nach der Aktualisierung gestartet wurden, spiegeln die Aktualisierung wider. Um die Tags für alle Aufgaben zu aktualisieren, setzen Sie `forceNewDeployment` auf `true`, sodass Amazon ECS neue Aufgaben mit den aktualisierten Tags startet.  
Sie können diesen Parameter für fortlaufende Bereitstellungen und Blau/Grün-Bereitstellungen ändern.

**Service-Connect-Konfiguration**  
Die Konfiguration für Amazon ECS Service Connect Dieser Parameter bestimmt, wie der Service eine Verbindung zu anderen Services innerhalb Ihrer Anwendung herstellt.  
Sie können diesen Parameter für fortlaufende Bereitstellungen ändern.

**Service-Registrys**  
Sie müssen eine serviceverknüpfte Rolle verwenden, wenn Sie die Service-Registrys aktualisieren.  
Die Details der Serviceerkennungs-Registrys, die diesem Service zugewiesen werden sollen. Weitere Informationen finden Sie unter [Serviceerkennung](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-discovery.html).  
Wenn Sie die Service-Registry-Konfiguration hinzufügen, aktualisieren oder entfernen, startet Amazon ECS neue Aufgaben mit der aktualisierten Service-Registry-Konfiguration und beendet dann die alten Aufgaben, wenn die neuen Aufgaben ausgeführt werden.  
Übergeben Sie eine leere Liste, um die Service-Registrys zu entfernen.  
Sie können diesen Parameter für fortlaufende Bereitstellungen ändern.

**Aufgabendefinition**  
Die Aufgabendefinition und Revision, die für den Service verwendet werden sollen.  
Wenn Sie die von Containern verwendeten Ports in einer Aufgabendefinition ändern, müssen Sie möglicherweise die Sicherheitsgruppen für die Container-Instances aktualisieren, damit diese mit den aktualisierten Ports arbeiten können.  
Wenn Sie die Aufgabendefinition für den Service aktualisieren, müssen der Containername und der Container-Port, die in der Load-Balancer-Konfiguration angegeben sind, in der Aufgabendefinition verbleiben.   
Das Verhalten beim Abrufen von Container-Images unterscheidet sich je nach Rechenoption. Weitere Informationen finden Sie unter einem der folgenden Themen:  
+ [Entwurf für AWS Fargate in Amazon ECS](AWS_Fargate.md)
+ [Architekt für EC2 Kapazitäten für Amazon ECS](launch-type-ec2.md)
+ [Extern (Amazon ECS Anywhere) für Amazon ECS](launch-type-external.md)
Sie können diesen Parameter für fortlaufende Bereitstellungen ändern.

**Volume-Konfiguration**  
Die Details des Volumes, das `configuredAtLaunch` wurde. Wenn `configuredAtLaunch` in der Aufgabendefinition auf `true` festgelegt ist, konfiguriert dieser Serviceparameter ein Amazon-EBS-Volume für jede Aufgabe im Service, die während der Bereitstellung erstellt und angehängt werden soll. [Sie können Größe, VolumeType, IOPS, Durchsatz, Snapshot und Verschlüsselung in der Konfiguration konfigurieren. ServiceManaged EBSVolume](https://docs.aws.amazon.com/AmazonECS/latest/APIReference/API_ServiceManagedEBSVolumeConfiguration.html) Der `name` des Volumes muss mit dem `name` aus der Aufgabendefinition übereinstimmen. Wenn der Wert auf Null gesetzt ist, wird keine neue Bereitstellung ausgelöst. Andernfalls, wenn sich diese Konfiguration von der vorhandenen unterscheidet, löst sie eine neue Bereitstellung aus.  
Sie können diesen Parameter für fortlaufende Bereitstellungen ändern.

**VPC-Lattice-Konfiguration**  
Die VPC-Lattice-Konfiguration für Ihren Service. Dies definiert, wie Ihr Service für service-to-service die Kommunikation in VPC Lattice integriert wird.  
Sie können diesen Parameter für fortlaufende Bereitstellungen ändern.

## AWS CDK Überlegungen
<a name="cdk-considerations"></a>

Der verfolgt den Zustand der Ressourcen AWS CDK nicht. Es weiß nicht, ob Sie einen Service erstellen oder aktualisieren. Kunden sollten die Notluke verwenden, um direkt auf das ECS-`Service`-L1-Konstrukt zuzugreifen. 

Informationen zu Notluken finden Sie unter [Anpassen von Konstrukten aus der AWS Construct-Bibliothek](https://docs.aws.amazon.com/cdk/v2/guide/cfn-layer.html#develop-customize-escape) im *AWS Cloud Development Kit (AWS CDK) v2-Entwicklerhandbuch*. 

Um Ihren vorhandenen Service auf das `ecs.Service`-Konstrukt zu migrieren, gehen Sie wie folgt vor:

1. Verwenden Sie die Notluke, um auf das `Service`-L1-Konstrukt zuzugreifen. 

1. Legen Sie die folgenden Eigenschaften im `Service`-L1-Konstrukt manuell fest. 

   Wenn Ihr Service Amazon-EC2-Kapazität verwendet:
   + `daemon?`
   + `placementConstraints?`
   + `placementStrategies?`
   + Wenn Sie den `awsvpc`-Netzwerkmodus verwenden, müssen Sie die `vpcSubnets?`- und `securityGroups?`-Konstrukte festlegen.

   Wenn Ihr Service Fargate verwendet:
   + `FargatePlatformVersion`
   + Die `vpcSubnets?`- und `securityGroups?`-Konstrukte.

1. Richten Sie `launchType` wie folgt ein:

   ```
   const cfnEcsService = service.node.findChild('Service') as ecs.CfnService;
   cfnEcsService.launchType = "FARGATE";
   ```

Gehen Sie wie folgt vor, um von einem Starttyp zu einem Kapazitätsanbieter zu migrieren:

1. Verwenden Sie die Notluke, um auf das `Service`-L1-Konstrukt zuzugreifen. 

1. Fügen Sie das `capacityProviderStrategies?`-Konstrukt hinzu.

1. Bereitstellen des Services.

# Aktualisierung eines Amazon ECS-Service
<a name="update-service-console-v2"></a>

Nachdem Sie einen Service erstellt haben, müssen Sie möglicherweise die Serviceparameter aktualisieren, beispielsweise die Anzahl der Aufgaben.

Wenn Sie einen Service aktualisieren, der den Amazon-ECS-Schutzschalter verwendet, erstellt Amazon ECS eine Servicebereitstellung und eine Service-Revision. Diese Ressourcen ermöglichen es Ihnen, detaillierte Informationen zum Service-Verlauf einzusehen. Weitere Informationen finden Sie unter [Anzeigen des Service-Verlaufs mithilfe von Service-Bereitstellungen in Amazon ECS](service-deployment.md).

## Voraussetzungen
<a name="update-service-prerequisites"></a>

Überprüfen Sie vor dem Aktualisieren eines Services, welche Serviceparameter für Ihren Bereitstellungstyp geändert werden können. Eine vollständige Liste der Parameter, die Sie ändern können, finden Sie unter [Aktualisieren der Amazon-ECS-Serviceparameter](update-service-parameters.md).

## Verfahren
<a name="update-service-procedure"></a>

------
#### [ Console ]

1. Öffnen Sie die Konsole auf [https://console.aws.amazon.com/ecs/Version](https://console.aws.amazon.com/ecs/v2) 2.

1. Wählen Sie auf der **Cluster**-Seite den Cluster aus.

1. Aktivieren Sie auf der Seite mit den Cluster-Details im Abschnitt **Services** das Kontrollkästchen neben dem Service und wählen Sie dann **Aktualisieren** aus.

1. Wählen Sie **Force new deployment** (Neue Bereitstellung erzwingen) aus, damit Ihr Service eine neue Bereitstellung startet.

1. Wählen Sie für **Aufgabendefinition** die Aufgabendefinitionsfamilie und die Version aus.
**Wichtig**  
Die Konsole überprüft, ob die ausgewählte Aufgabendefinitionsfamilie und -revision mit der definierten Rechenkonfiguration kompatibel sind. Wenn Sie eine Warnung erhalten, überprüfen Sie sowohl die Kompatibilität Ihrer Aufgabendefinition als auch die ausgewählte Rechenkonfiguration.

1. Wenn Sie **Replica** (Replikat) gewählt haben, geben Sie bei **Desired tasks** (Gewünschte Aufgaben) die Anzahl der Aufgaben ein, die im Service gestartet und gepflegt werden sollen.

1. Wenn Sie **Replikat** auswählen, damit Amazon ECS die Verteilung der Aufgaben auf die Availability Zones überwacht und sie bei einem Ungleichgewicht neu verteilt, wählen Sie unter **Service-Neuausgleich der Availability Zone** die Option **Service-Neuausgleich der Availability Zone** aus.

1. Für **Min running tasks** (Min. laufende Aufgaben) geben Sie die untere Grenze für die Anzahl der Aufgaben im Service an, die während eines Einsatzes in diesem `RUNNING`-Zustand verbleiben müssen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (aufgerundet auf die nächste ganze Zahl). Weitere Informationen finden Sie unter [Bereitstellungs-Konfiguration](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service_definition_parameters.html#sd-deploymentconfiguration).

1. Geben Sie für **Max running tasks** (Max. laufende Aufgaben) die Obergrenze für die Anzahl der Aufgaben im Service ein, die sich während einer Bereitstellung im Status `RUNNING` oder `PENDING` befinden dürfen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (abgerundet auf die nächste Ganzzahl).

1. Um zu konfigurieren, wie Aufgaben für Ihren Service bereitgestellt werden, erweitern Sie die **Bereitstellungsoptionen** und konfigurieren Sie dann Ihre Optionen.

   1. Geben Sie als **Bereitstellungs-Controller-Typ** den Servicebereitstellungs-Controller an. Die Amazon-ECS-Konsole unterstützt die folgenden Controller-Typen: `ECS`.

   1. Wählen Sie unter **Bereitstellungsstrategie** die Strategie aus, die Amazon ECS für die Bereitstellung neuer Versionen des Service verwendet.

   1. Abhängig von der ausgewählten **Bereitstellungsstrategie** gehen Sie wie folgt vor:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonECS/latest/developerguide/update-service-console-v2.html)

   1. Um Lambda-Funktionen für eine Lebenszyklusphase auszuführen, gehen Sie unter **Bereitstellungs-Lebenszyklus-Hooks** für jede einzelne Lambda-Funktion wie folgt vor:

      1. Wählen Sie **Hinzufügen** aus.

         Wiederholen Sie den Prozess für jede einzelne Funktion, die Sie ausführen möchten.

      1. Geben Sie für **Lambda-Funktion** den Funktionsnamen ein.

      1. Wählen Sie **unter Rolle** die Rolle aus, die Sie in den Voraussetzungen mit den blue/green entsprechenden Berechtigungen erstellt haben.

         Weitere Informationen finden Sie unter [Erforderliche Berechtigungen für Lambda-Funktionen in Amazon ECS-Bereitstellungen blue/green](blue-green-permissions.md).

      1. Wählen Sie für **Lebenszyklusphasen** die Phasen aus, in denen die Lambda-Funktion ausgeführt wird.

      1.  (Optional) Geben Sie für **Hook-Details** ein Schlüssel-Wert-Paar ein, das Informationen über den Hook bereitstellt.

1. Um zu konfigurieren, wie Amazon ECS Bereitstellungsfehler erkennt und behandelt, erweitern Sie **Deployment failure detection** (Erkennung von Bereitstellungsfehlern) und wählen Sie dann Ihre Optionen. 

   1. Um eine Bereitstellung anzuhalten, wenn die Aufgaben nicht gestartet werden können, wählen Sie **Use the Amazon ECS deployment circuit breaker** (Verwenden des Amazon-ECS-Bereitstellungsschutzschalters).

      Wenn Sie möchten, dass die Software die Bereitstellung automatisch auf den letzten abgeschlossenen Bereitstellungsstatus zurücksetzt, wenn der Bereitstellungs-Schutzschalter die Bereitstellung auf einen fehlgeschlagenen Status setzt, wählen Sie **Rollback bei Fehler** aus.

   1. Um eine Bereitstellung auf der Grundlage von Anwendungsmetriken zu beenden, wählen Sie ** CloudWatch Alarm (en) verwenden** aus. Wählen Sie dann unter **CloudWatch Alarmname** die Alarme aus. Um einen neuen Alarm zu erstellen, gehen Sie zur CloudWatch Konsole.

      Damit die Software die Bereitstellung automatisch auf den Status der letzten abgeschlossenen Bereitstellung zurücksetzt, wenn ein CloudWatch Alarm die Bereitstellung in einen fehlgeschlagenen Zustand versetzt, wählen Sie **Rollback bei Fehlern** aus.

1. Um die Rechenoptionen zu ändern, erweitern Sie **Rechenkonfiguration** und gehen Sie wie folgt vor: 

   1. Wählen Sie für Services on AWS Fargate für **Plattformversion** die neue Version aus.

   1. Bei Services, die eine Kapazitätsanbieter-Strategie verwenden, verfahren Sie bei der **Kapazitätsanbieter-Strategie** wie folgt:
      + Um einen zusätzlichen Kapazitätsanbieter hinzuzufügen, wählen Sie **Weitere hinzufügen** aus. Wählen Sie dann für **Kapazitätsanbieter** den Kapazitätsanbieter aus.
      + Um einen Kapazitätsanbieter zu entfernen, wählen Sie rechts neben dem Kapazitätsanbieter die Option **Entfernen** aus.

      Ein Service, der einen Auto-Scaling-Gruppen-Kapazitätsanbieter verwendet, kann nicht aktualisiert werden, um einen Fargate-Kapazitätsanbieter zu verwenden. Ein Service, der einen Fargate-Kapazitätsanbieter verwendet, kann nicht aktualisiert werden, um einen Auto-Scaling-Gruppen-Kapazitätsanbieter zu verwenden.

1. (Optional) Um Service-Auto-Scaling zu konfigurieren, erweitern Sie **Service-Auto-Scaling** und geben Sie dann die folgenden Parameter an. Um prädiktives Auto Scaling zu verwenden, das vergangene Ladedaten aus Datenverkehrsflüssen betrachtet, konfigurieren Sie dies, nachdem Sie den Service erstellt haben. Weitere Informationen finden Sie unter [Verwenden Sie historische Muster, um Amazon ECS-Services mit vorausschauender Skalierung zu skalieren](predictive-auto-scaling.md).

   1. Um das Auto Scaling der Services zu verwenden, wählen Sie **Auto Scaling des Services**.

   1. Geben Sie unter **Mindestanzahl an Aufgaben**, die Untergrenze der Anzahl der Aufgaben an, die das Service-Auto-Scaling verwenden kann. Die gewünschte Anzahl wird diese Anzahl nicht unterschreiten.

   1. Geben Sie unter **Höchstanzahl an Aufgaben** die Obergrenze der Anzahl der Aufgaben an, die das Service-Auto-Scaling verwenden kann. Die gewünschte Anzahl wird diese Anzahl nicht überschreiten.

   1. Wählen Sie den Richtlinien-Typ aus. Wählen Sie unter **Skalierungsrichtlinientyp** eine der folgenden Optionen aus.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonECS/latest/developerguide/update-service-console-v2.html)

1. (Optional) Um Service Connect zu verwenden, wählen Sie **Turn on Service Connect** (Service Connect aktivieren) aus, und geben Sie dann Folgendes an:

   1. Geben Sie unter **Service Connect configuration** (Service-Connect-Konfiguration) den Client-Modus an.
      + Wenn Ihr Service eine Netzwerk-Client-Anwendung ausführt, die nur eine Verbindung zu anderen Services im Namespace herstellen muss, wählen Sie **Nur Client-Seite** aus.
      + Wenn Ihr Service eine Netzwerk- oder Webservice-Anwendung ausführt und Endpunkte für diesen Service bereitstellen muss und eine Verbindung zu anderen Services im Namespace herstellt, wählen Sie **Client and server** (Client und Server) aus.

   1. Um einen Namespace zu verwenden, der nicht der Standard-Cluster-Namespace ist, wählen Sie für **Namespace** den Service-Namespace aus. Dabei kann es sich um einen Namespace handeln, der separat in demselben AWS-Region in Ihrem Konto erstellt wurde, AWS-Konto oder um einen Namespace in derselben Region, der mithilfe AWS Resource Access Manager von () mit Ihrem Konto geteilt wird.AWS RAM*Weitere Informationen zur gemeinsamen Nutzung von AWS Cloud Map Namespaces finden Sie unter [Kontenübergreifende AWS Cloud Map](https://docs.aws.amazon.com/cloud-map/latest/dg/sharing-namespaces.html) gemeinsame Nutzung von Namespaces im Entwicklerhandbuch AWS Cloud Map *

   1. (Optional) Geben Sie eine Protokollkonfiguration an. Wählen Sie **Protokollsammlung verwenden** aus. Die Standardoption sendet Container-Logs an Logs. CloudWatch Die anderen Protokolltreiberoptionen werden mit konfiguriert AWS FireLens. Weitere Informationen finden Sie unter [Amazon ECS-Protokolle an einen AWS Service senden oder AWS Partner](using_firelens.md).

      Im Folgenden wird jedes Container-Protokollziel ausführlicher beschrieben.
      + **Amazon CloudWatch** — Konfigurieren Sie die Aufgabe, um Container-Logs an CloudWatch Logs zu senden. Es werden die standardmäßigen Protokolltreiberoptionen bereitgestellt, mit denen in Ihrem Namen eine CloudWatch Protokollgruppe erstellt wird. Um einen anderen Protokollgruppen-Namen anzugeben, ändern Sie die Werte der Treiberoption.
      + **Amazon Data Firehose** – Konfigurieren Sie die Aufgabe, dass Container-Protokolle an Firehose gesendet werden. Die Standardoptionen für den Protokolltreiber werden bereitgestellt, wodurch die Protokolle an einen Bereitstellungsdatenstrom von Firehose gesendet werden. Um einen anderen Namen für den Bereitstellungsdatenstrom anzugeben, ändern Sie die Werte der Treiberoption.
      + **Amazon Kinesis Data Streams** – Konfigurieren Sie die Aufgabe, dass Container-Protokolle an Kinesis Data Streams gesendet werden. Die Standardoptionen für den Protokolltreiber werden bereitgestellt, wodurch Protokolle an einen Datenstrom von Kinesis Data Streams gesendet werden. Um einen anderen Datenstrom-Namen anzugeben, ändern Sie die Werte der Treiberoption.
      + **Amazon OpenSearch Service** — Konfigurieren Sie die Aufgabe, um Container-Logs an eine OpenSearch Service-Domain zu senden. Die Optionen für den Protokolltreiber müssen bereitgestellt werden. 
      + **Amazon S3** – Konfigurieren Sie die Aufgabe, dass Container-Protokolle an einen Amazon-S3-Bucket gesendet werden. Die Standardoptionen für den Protokolltreiber werden bereitgestellt, Sie müssen jedoch einen gültigen Amazon-S3-Bucket-Namen angeben.

   1. Gehen Sie wie folgt vor, um Zugriffsprotokolle zu aktivieren:

      1. Erweitern Sie die **Konfiguration des Zugriffsprotokolls**. Wählen Sie als **Format** entweder **JSON** oder`TEXT`.

      1. Um Abfrageparameter in Zugriffsprotokolle aufzunehmen, wählen Sie **Abfrageparameter einbeziehen** aus.
**Anmerkung**  
Um Zugriffsprotokolle zu deaktivieren, wählen Sie **unter Format** die Option **Keine** aus.

1. Wenn Ihre Aufgabe ein Daten-Volume verwendet, das mit der Konfiguration bei der Bereitstellung kompatibel ist, können Sie das Volume konfigurieren, indem Sie **Volume** erweitern.

   Der Volume-Name und der Volume-Typ werden konfiguriert, wenn Sie eine Revision der Aufgabendefinition erstellen, und können nicht geändert werden, wenn Sie einen Service aktualisieren. Um den Namen und den Typ des Volumes zu aktualisieren, müssen Sie eine neue Revision der Aufgabendefinition erstellen und den Service mithilfe der neuen Revision aktualisieren.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonECS/latest/developerguide/update-service-console-v2.html)

1. (Optional) Um Ihren Service leichter identifizieren zu können, erweitern Sie die **Tags** (Tags) und konfigurieren Sie dann Ihre Tags.
   + [Tag hinzufügen] Wählen Sie **Tag hinzufügen**, und führen Sie die folgenden Schritte aus:
     + Geben Sie bei **Key (Schlüssel)** den Schlüsselnamen ein.
     + Geben Sie bei **Value (Wert)** den Wert des Schlüssels ein.
   + [Tag entfernen] Wählen Sie neben dem Tag die Option **Remove tag (Tag löschen)** aus.

1. Wählen Sie **Aktualisieren** aus.

------
#### [ AWS CLI ]
+ Führen Sie `update-service`. Informationen zur Ausführung des Befehls finden Sie unter [update-service](https://docs.aws.amazon.com/cli/latest/reference/ecs/update-service.html) in der Referenz. AWS Command Line Interface 

  Im folgenden `update-service`-Beispiel wird die gewünschte Aufgabenanzahl des Services `my-http-service` auf 2 aktualisiert.

  Ersetzen Sie die *user-input* durch Ihre Werte.

  ```
  aws ecs update-service \
      --cluster MyCluster \
      --service my-http-service \
      --desired-count 2
  ```

------

## Nächste Schritte
<a name="update-service-next-steps"></a>

Verfolgen Sie Ihre Bereitstellung und zeigen Sie Ihren Service-Verlauf für Services an, die der Amazon-ECS-Schutzschalter unterbricht. Weitere Informationen finden Sie unter [Anzeigen des Service-Verlaufs mithilfe von Service-Bereitstellungen in Amazon ECS](service-deployment.md).

# Aktualisierung eines Amazon-ECS-Service zur Verwendung eines Kapazitätsanbieters
<a name="update-service-managed-instances"></a>

Wenn Sie einen bestehenden Service haben, der den Starttyp Amazon EC2 oder Fargate verwendet, und Sie Amazon ECS Managed Instances verwenden möchten, müssen Sie den Service aktualisieren, um den Kapazitätsanbieter von Amazon ECS Managed Instances zu verwenden.

## Voraussetzungen
<a name="update-service-managed-instances-prerequisites"></a>

Erstellen Sie einen Kapazitätsanbieter für Ihre Amazon ECS Managed Instances. Weitere Informationen finden Sie unter [Erstellen eines Kapazitätsanbieters für Amazon ECS Managed Instances](create-capacity-provider-managed-instances.md).

## Verfahren
<a name="update-service-managed-instances-procedure"></a>

------
#### [ Console ]

1. Öffne die Konsole auf [https://console.aws.amazon.com/ecs/v2](https://console.aws.amazon.com/ecs/v2).

1. Wählen Sie auf der **Cluster**-Seite den Cluster aus.

1. Aktivieren Sie auf der Seite mit den Cluster-Details im Abschnitt **Services** das Kontrollkästchen neben dem Service und wählen Sie dann **Aktualisieren** aus.

1. Wählen Sie **Neue Bereitstellung erzwingen** aus.

1. Wählen Sie unter **Rechenoptionen** die Option Kapazitätsanbieter-Strategie aus. Wählen Sie dann eine der folgenden Optionen aus:
   + Wenn Ihr Kapazitätsanbieter für Amazon ECS Managed Instances der Standardkapazitätsanbieter ist, wählen Sie **Cluster-Standard verwenden**.
   + Wenn Ihr Kapazitätsanbieter für Amazon ECS Managed Instances nicht der Standardkapazitätsanbieter ist, wählen Sie **Benutzerdefiniert (Erweitert) verwenden** aus. Wählen Sie den Kapazitätsanbieter für Amazon ECS Managed Instances und wählen Sie dann für **Gewichtung** 1 aus.

1. Wählen Sie **Aktualisieren** aus.

------
#### [ AWS CLI ]
+ Führen Sie `update-service`. Informationen zur Ausführung des Befehls finden Sie unter [update-service](https://docs.aws.amazon.com/cli/latest/reference/ecs/update-service.html) in der AWS Command Line Interface Referenz. 

  Ersetzen Sie die *user-input* durch Ihre Werte.

  ```
  aws ecs update-service \
      --cluster my-cluster \
      --service my-service \
      --capacity-provider-strategy capacityProvider=my-managed-instance-capacity-provider,weight=1 \
      --force-new-deployment
  ```

------