

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Integration mit anderen AWS Diensten
<a name="integrations-aws"></a>

CodeDeploy ist in die folgenden AWS Dienste integriert:


|  |  | 
| --- |--- |
| Amazon CloudWatch |  [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/DeveloperGuide/) ist ein Überwachungsdienst für AWS Cloud-Ressourcen und die Anwendungen, auf denen Sie laufen AWS. Sie können Amazon verwenden CloudWatch , um Metriken zu sammeln und zu verfolgen, Protokolldateien zu sammeln und zu überwachen und Alarme einzustellen. CodeDeploy unterstützt die folgenden CloudWatch Tools:  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/codedeploy/latest/userguide/integrations-aws.html)  | 
| Amazon EC2 Auto Scaling |  CodeDeploy unterstützt [Amazon EC2 Auto Scaling](https://aws.amazon.com/autoscaling). Dieser AWS Service kann Amazon EC2 EC2-Instances anhand von Kriterien, die Sie angeben, automatisch starten, zum Beispiel:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/codedeploy/latest/userguide/integrations-aws.html) Sie können eine Gruppe von Amazon EC2 EC2-Instances skalieren, wann immer Sie sie benötigen, und dann CodeDeploy automatisch Anwendungsrevisionen für sie bereitstellen. Amazon EC2 Auto Scaling beendet diese Amazon EC2 EC2-Instances, wenn sie nicht mehr benötigt werden. Weitere Informationen: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/codedeploy/latest/userguide/integrations-aws.html)  | 
| Amazon Elastic Container Service |   Sie können CodeDeploy es verwenden, um eine containerisierte Amazon ECS-Anwendung als Task-Set bereitzustellen. CodeDeploy führt eine blue/green Bereitstellung durch, indem eine aktualisierte Version der Anwendung als neuer Ersatz-Tasksatz installiert wird. CodeDeploy leitet den Produktionsdatenverkehr vom ursprünglichen Anwendungs-Tasksatz zum Ersatz-Tasksatz um. Der ursprüngliche Tasksatz wird nach einer erfolgreichen Bereitstellung beendet. Weitere Informationen zu Amazon ECS finden Sie unter [Amazon Elastic Container Service](https://aws.amazon.com/ecs/).  Sie können die Art und Weise verwalten, in der der Datenverkehr während einer Bereitstellung auf den aktualisierten Tasksatz umgeleitet wird, indem Sie eine kanarische, lineare oder lineare all-at-once Konfiguration wählen. Weitere Informationen zu Amazon ECS-Bereitstellungen finden Sie unter [Bereitstellungen auf einer Amazon ECS-Rechenplattform](https://docs.aws.amazon.com/en_us/codedeploy/latest/userguide/deployment-steps-ecs.html).   | 
| AWS CloudTrail |  CodeDeploy ist integriert in. [AWS CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/) Dieser Service erfasst API-Aufrufe, die von oder im Namen Ihres AWS Kontos getätigt wurden, und übermittelt die Protokolldateien an einen von CodeDeploy Ihnen angegebenen Amazon S3 S3-Bucket. CloudTrailerfasst API-Aufrufe von der CodeDeploy Konsole, von CodeDeploy Befehlen über die AWS CLI oder CodeDeploy APIs direkt von. Mithilfe der von CloudTrail erfassten Informationen können Sie Folgendes feststellen: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/codedeploy/latest/userguide/integrations-aws.html) Weitere Informationen: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/codedeploy/latest/userguide/integrations-aws.html)  | 
| AWS Cloud9 |  [AWS Cloud9](https://docs.aws.amazon.com/cloud9/latest/user-guide/)ist eine cloudbasierte integrierte Online-Entwicklungsumgebung (IDE), die Sie zum Schreiben, Ausführen, Debuggen und Bereitstellen von Code verwenden können, indem Sie nur einen Browser von einem mit dem Internet verbundenen Computer aus verwenden. AWS Cloud9 enthält einen Code-Editor, einen Debugger, ein Terminal und wichtige Tools wie The AWS CLI und Git. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/codedeploy/latest/userguide/integrations-aws.html) Weitere Informationen zu AWS Cloud9 finden Sie unter [Was ist AWS Cloud9](https://docs.aws.amazon.com/cloud9/latest/user-guide/welcom.html) und [Erste Schritte mit AWS Cloud9](https://docs.aws.amazon.com/cloud9/latest/user-guide/get-started.html).  | 
| AWS CodePipeline |  [AWS CodePipeline](https://docs.aws.amazon.com/codepipeline/latest/userguide/) ist ein kontinuierlicher Bereitstellungsservice, mit dem Sie die für die Freigabe Ihrer Software in einem kontinuierlichen Bereitstellungsprozess erforderlichen Schritte entwickeln, visualisieren und automatisieren können. Sie können Ihren eigenen Veröffentlichungsprozess mit AWS CodePipeline definieren, damit der Service Ihren Code bei jeder Codeänderung erstellt, testet und bereitstellt. Es ist beispielsweise möglich, dass Sie drei Bereitstellungsgruppen für eine Anwendung haben: Beta, Gamma und Prod. Sie können eine Pipeline einrichten, sodass jedes Mal, wenn eine Änderung in Ihrem Quellcode vorgenommen wird, die Updates nacheinander für jede Bereitstellungsgruppe bereitgestellt werden. Sie können Folgendes AWS CodePipeline für die CodeDeploy Bereitstellung konfigurieren: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/codedeploy/latest/userguide/integrations-aws.html)  Sie können die CodeDeploy Anwendung, Bereitstellung und Bereitstellungsgruppe, die in einer Bereitstellungsaktion verwendet werden sollen, entweder vor dem Erstellen der Pipeline oder im Assistenten „Pipeline erstellen“ **erstellen**. Weitere Informationen: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/codedeploy/latest/userguide/integrations-aws.html)  | 
| AWS Serverloses Anwendungsmodell |  AWS Das Serverless Application Model (AWS SAM) ist ein Modell zur Definition serverloser Anwendungen. Es erweitert sich CloudFormation um eine vereinfachte Methode zur Definition von AWS Lambda Funktionen, Amazon API Gateway und Amazon DynamoDB-Tabellen APIs, die für eine serverlose Anwendung erforderlich sind. Wenn Sie AWS SAM bereits verwenden, können Sie Bereitstellungseinstellungen hinzufügen, mit CodeDeploy denen Sie zunächst die Art und Weise verwalten können, wie der Datenverkehr während einer AWS Lambda-Anwendungsbereitstellung verlagert wird. Weitere Informationen finden Sie unter [AWS Serverless Application Model](https://github.com/awslabs/serverless-application-model).  | 
| Elastic Load Balancing |  CodeDeploy unterstützt [Elastic Load Balancing](https://docs.aws.amazon.com/ElasticLoadBalancing/latest/DeveloperGuide/elastic-load-balancing.html), einen Service, der den eingehenden Anwendungsdatenverkehr auf mehrere Amazon EC2 EC2-Instances verteilt.  Bei CodeDeploy Bereitstellungen verhindern Load Balancer außerdem, dass Datenverkehr an Instances weitergeleitet wird, wenn diese nicht bereit sind, gerade in einer Umgebung bereitgestellt werden oder nicht mehr als Teil einer Umgebung benötigt werden. Weitere Informationen: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/codedeploy/latest/userguide/integrations-aws.html)  | 

**Topics**
+ [Amazon EC2 Auto Scaling](integrations-aws-auto-scaling.md)
+ [Integrating CodeDeploy with Elastic Load Balancing](integrations-aws-elastic-load-balancing.md)

# Integration CodeDeploy mit Amazon EC2 Auto Scaling
<a name="integrations-aws-auto-scaling"></a>

CodeDeploy unterstützt Amazon EC2 Auto Scaling, einen AWS Service, der Amazon EC2 EC2-Instances automatisch gemäß den von Ihnen definierten Bedingungen startet. Zu diesen Bedingungen können Grenzwerte gehören, die in einem bestimmten Zeitintervall für CPU-Auslastung, Lese- oder Schreibvorgänge auf Festplatten oder eingehenden oder ausgehenden Netzwerkverkehr überschritten wurden. Amazon EC2 Auto Scaling beendet die Instances, wenn sie nicht mehr benötigt werden. Weitere Informationen finden Sie unter [Was ist Amazon EC2 Auto Scaling?](https://docs.aws.amazon.com/autoscaling/latest/userguide/WhatIsAutoScaling.html) im *Benutzerhandbuch für Amazon EC2 Auto Scaling*.

Wenn neue Amazon EC2-Instances als Teil einer Amazon EC2 Auto Scaling-Gruppe gestartet werden, CodeDeploy kann Ihre Revisionen automatisch für die neuen Instances bereitgestellt werden. Sie können Bereitstellungen auch CodeDeploy mit Amazon EC2 Auto Scaling Scaling-Instances koordinieren, die bei Elastic Load Balancing Load Balancers registriert sind. Weitere Informationen erhalten Sie unter [Integration CodeDeploy mit Elastic Load Balancing](integrations-aws-elastic-load-balancing.md) und [Einen Load Balancer in Elastic Load Balancing für CodeDeploy Amazon EC2 EC2-Bereitstellungen einrichten](deployment-groups-create-load-balancer.md).

**Anmerkung**  
Es können Probleme auftreten, wenn Sie mehrere Bereitstellungsgruppen einer einzelnen Amazon EC2 Auto Scaling Scaling-Gruppe zuordnen. Wenn eine Bereitstellung z. B. fehlschlägt, wird die Instance heruntergefahren. Bei den anderen Bereitstellungen, die ausgeführt wurden, kann jedoch eine Zeitüberschreitung von einer Stunde auftreten. Weitere Informationen finden Sie [unter [Vermeiden Sie es, mehrere Bereitstellungsgruppen einer einzigen Amazon EC2 Auto Scaling-Gruppe zuzuordnen](troubleshooting-auto-scaling.md#troubleshooting-multiple-depgroups) und Under the hood: CodeDeploy and Amazon EC2 Auto Scaling integration](https://aws.amazon.com/blogs/devops/under-the-hood-aws-codedeploy-and-auto-scaling-integration/).

**Topics**
+ [Bereitstellen von CodeDeploy Anwendungen für Amazon EC2 Auto Scaling Scaling-Gruppen](#integrations-aws-auto-scaling-deploy)
+ [Aktivierung von Terminierungsbereitstellungen bei Auto Scaling-Scale-In-Ereignissen](#integrations-aws-auto-scaling-behaviors-hook-enable)
+ [So funktioniert Amazon EC2 Auto Scaling mit CodeDeploy](#integrations-aws-auto-scaling-behaviors)
+ [Verwenden eines benutzerdefinierten AMI mit CodeDeploy Amazon EC2 Auto Scaling](#integrations-aws-auto-scaling-custom-ami)

## Bereitstellen von CodeDeploy Anwendungen für Amazon EC2 Auto Scaling Scaling-Gruppen
<a name="integrations-aws-auto-scaling-deploy"></a>

So stellen Sie eine CodeDeploy Anwendungsrevision für eine Amazon EC2 Auto Scaling Scaling-Gruppe bereit:

1. Erstellen oder suchen Sie ein IAM-Instance-Profil, das es der Amazon EC2 Auto Scaling Scaling-Gruppe ermöglicht, mit Amazon S3 zu arbeiten. Weitere Informationen finden Sie unter [Schritt 4: Erstellen Sie ein IAM-Instance-Profil für Ihre Amazon EC2 EC2-Instances](getting-started-create-iam-instance-profile.md).
**Anmerkung**  
Sie können es auch verwenden CodeDeploy , um Revisionen aus GitHub Repositorys für Amazon EC2 Auto Scaling Scaling-Gruppen bereitzustellen. Amazon EC2 EC2-Instances benötigen zwar weiterhin ein IAM-Instance-Profil, für die Bereitstellung aus einem GitHub Repository sind jedoch keine zusätzlichen Berechtigungen erforderlich. 

1. Erstellen oder verwenden Sie eine Amazon EC2 Auto Scaling Scaling-Gruppe und geben Sie das IAM-Instance-Profil in Ihrer Startkonfiguration oder Vorlage an. Weitere Informationen finden Sie unter [IAM-Rolle für Anwendungen, die auf Amazon EC2 EC2-Instances ausgeführt](https://docs.aws.amazon.com/autoscaling/ec2/userguide/us-iam-role.html) werden.

1. Erstellen oder suchen Sie nach einer Servicerolle, die es ermöglicht, eine Bereitstellungsgruppe CodeDeploy zu erstellen, die die Amazon EC2 Auto Scaling Scaling-Gruppe enthält.

1. Erstellen Sie eine Bereitstellungsgruppe mit CodeDeploy und geben Sie den Namen der Amazon EC2 Auto Scaling Scaling-Gruppe, die Servicerolle und einige andere Optionen an. Für weitere Informationen siehe [Erstellen Sie eine Bereitstellungsgruppe für eine direkte Bereitstellung (Konsole)](deployment-groups-create-in-place.md) oder [Erstellen Sie eine Bereitstellungsgruppe für eine direkte Bereitstellung (Konsole)](deployment-groups-create-in-place.md).

1. Wird verwendet CodeDeploy , um Ihre Version in der Bereitstellungsgruppe bereitzustellen, die die Amazon EC2 Auto Scaling Scaling-Gruppe enthält.

Weitere Informationen finden Sie unter [Tutorial: Wird verwendet CodeDeploy , um eine Anwendung für eine Auto Scaling Scaling-Gruppe bereitzustellen](tutorials-auto-scaling-group.md).

## Aktivierung von Terminierungsbereitstellungen bei Auto Scaling-Scale-In-Ereignissen
<a name="integrations-aws-auto-scaling-behaviors-hook-enable"></a>

Eine *Terminierungsbereitstellung* ist eine Art von CodeDeploy Bereitstellung, die automatisch aktiviert wird, wenn ein Auto [Scaling-Scale-In-Ereignis eintritt](https://docs.aws.amazon.com/autoscaling/ec2/userguide/ec2-auto-scaling-lifecycle.html#as-lifecycle-scale-in). CodeDeploy führt die Terminierungsbereitstellung durch, unmittelbar bevor der Auto Scaling Scaling-Dienst die Instanz beendet. Stellt während einer Terminierungsbereitstellung CodeDeploy nichts bereit. Stattdessen generiert es Lebenszyklusereignisse, die Sie mit Ihren eigenen Skripten verknüpfen können, um benutzerdefinierte Shutdown-Funktionen zu aktivieren. Sie könnten das `ApplicationStop` Lebenszyklusereignis beispielsweise mit einem Skript verknüpfen, das Ihre Anwendung ordnungsgemäß herunterfährt, bevor die Instanz beendet wird. 

Eine Liste der Lebenszyklusereignisse, die während einer Terminierungsbereitstellung CodeDeploy generiert werden, finden Sie unter. [Verfügbarkeit von Hooks für Lebenszyklus-Ereignisse](reference-appspec-file-structure-hooks.md#reference-appspec-file-structure-hooks-availability) 

Wenn die Bereitstellung zur Kündigung aus irgendeinem Grund fehlschlägt, kann die Instance-Kündigung fortgesetzt CodeDeploy werden. Das bedeutet, dass die Instance heruntergefahren wird, obwohl CodeDeploy nicht alle (oder einige) der Lifecycle-Ereignisse vollständig ausgeführt wurden.

Wenn Sie Terminierungsbereitstellungen nicht aktivieren, beendet der Auto Scaling-Service trotzdem Amazon EC2 EC2-Instances, wenn ein Scale-In-Ereignis eintritt, generiert aber keine CodeDeploy Lebenszyklusereignisse.

**Anmerkung**  
Unabhängig davon, ob Sie Terminierungsbereitstellungen aktivieren oder nicht, kann es zu einem Wettlauf zwischen den durch Auto Scaling generierten Lebenszyklusereignissen und den Services kommen, wenn der Auto Scaling-Service eine Amazon EC2 EC2-Instance beendet, während eine CodeDeploy Bereitstellung läuft. CodeDeploy Beispielsweise kann das `Terminating` Lebenszyklusereignis (vom Auto Scaling Scaling-Dienst generiert) das `ApplicationStart` Ereignis (generiert durch die CodeDeploy Bereitstellung) überschreiben. In diesem Szenario kann es entweder bei der Kündigung der Amazon EC2 EC2-Instance oder bei der CodeDeploy Bereitstellung zu einem Fehler kommen.

**Um Bereitstellungen CodeDeploy zur Ausführung von Terminierungen zu aktivieren**
+ Aktivieren Sie das Kontrollkästchen **Einen Terminierungs-Hook zu Auto Scaling Scaling-Gruppen hinzufügen**, wenn Sie Ihre Bereitstellungsgruppe erstellen oder aktualisieren. Anweisungen finden Sie [Erstellen Sie eine Bereitstellungsgruppe für eine direkte Bereitstellung (Konsole)](deployment-groups-create-in-place.md) unter oder[Erstellen Sie eine Bereitstellungsgruppe für eine blue/green EC2/On-Premises-Bereitstellung (Konsole)](deployment-groups-create-blue-green.md).

  Wenn Sie dieses Kontrollkästchen aktivieren CodeDeploy , wird ein [Auto Scaling Scaling-Lifecycle-Hook](https://docs.aws.amazon.com/autoscaling/ec2/userguide/lifecycle-hooks.html) in den Auto Scaling Scaling-Gruppen installiert, die Sie beim Erstellen oder Aktualisieren Ihrer CodeDeploy Bereitstellungsgruppe angeben. Dieser Hook wird *Terminierungs-Hook* genannt und ermöglicht Terminierungsbereitstellungen.

**Nach der Installation des Terminations-Hooks läuft ein Scale-In-Ereignis (Terminierung) wie folgt ab:**

1. Der Auto Scaling-Dienst (oder einfach Auto Scaling) stellt fest, dass ein Scale-In-Ereignis eintreten muss, und kontaktiert den EC2-Dienst, um eine EC2-Instance zu beenden.

1. Der EC2-Dienst beginnt mit dem Beenden der EC2-Instance. Die Instanz wechselt in den `Terminating` Status und dann in den Status. `Terminating:Wait` 

1. `Terminating:Wait`Währenddessen führt Auto Scaling alle Lifecycle-Hooks aus, die an die Auto Scaling Scaling-Gruppe angehängt sind, einschließlich des Terminierungs-Hooks, der von installiert wurde CodeDeploy.

1. Der Termination-Hook sendet eine Benachrichtigung an die [Amazon SQS SQS-Warteschlange](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/welcome.html), die von abgerufen wird. CodeDeploy

1. [Nach Erhalt der Benachrichtigung CodeDeploy analysiert er die Nachricht, führt einige Validierungen durch und führt eine Terminierung durch.](#integrations-aws-auto-scaling-behaviors-hook-enable)

1. Während die Terminierungsbereitstellung läuft, CodeDeploy sendet alle fünf Minuten Heartbeats an Auto Scaling, um es darüber zu informieren, dass an der Instance noch gearbeitet wird.

1. Bisher befindet sich die EC2-Instance immer noch im `Terminating:Wait` Status (oder möglicherweise im `Warmed:Pending:Wait` Status, wenn Sie [Auto Scaling Scaling-Gruppen-Warm-Pools](https://docs.aws.amazon.com/autoscaling/ec2/userguide/warm-pool-instance-lifecycle.html) aktiviert haben).

1. Wenn die Bereitstellung abgeschlossen ist, CodeDeploy weist Auto Scaling auf `CONTINUE` den EC2-Kündigungsprozess hin, unabhängig davon, ob die Terminierungsbereitstellung erfolgreich war oder fehlgeschlagen ist.

## So funktioniert Amazon EC2 Auto Scaling mit CodeDeploy
<a name="integrations-aws-auto-scaling-behaviors"></a>

Wenn Sie eine CodeDeploy Bereitstellungsgruppe erstellen oder aktualisieren, sodass sie eine Auto Scaling Scaling-Gruppe enthält, CodeDeploy greift er über die CodeDeploy Service-Rolle auf die Auto Scaling Scaling-Gruppe zu und installiert dann [Auto Scaling Scaling-Lebenszyklus-Hooks](https://docs.aws.amazon.com/autoscaling/ec2/userguide/lifecycle-hooks.html) in Ihren Auto Scaling Scaling-Gruppen.

**Anmerkung**  
*Auto Scaling Scaling-Lifecycle-Hooks* unterscheiden sich von den *Lebenszyklusereignissen* (auch als *Lifecycle-Event-Hooks* bezeichnet), die [AppSpec Abschnitt „Hooks“](reference-appspec-file-structure-hooks.md) von diesem Handbuch generiert CodeDeploy und in diesem Handbuch beschrieben werden.

Folgende Auto Scaling Scaling-Lifecycle-Hooks werden CodeDeploy installiert:
+ **Ein Start-Hook** — Dieser Hook benachrichtigt CodeDeploy , dass ein Auto [Scale-Out-Ereignis](https://docs.aws.amazon.com/autoscaling/ec2/userguide/ec2-auto-scaling-lifecycle.html#as-lifecycle-scale-out) im Gange ist und dass eine Startbereitstellung gestartet CodeDeploy werden muss.

  Während einer *Startbereitstellung*: CodeDeploy
  + Stellt eine Version Ihrer Anwendung auf der Scaled-Out-Instance bereit.
  + Generiert Lebenszyklusereignisse, um den Fortschritt der Bereitstellung anzuzeigen. Sie können diese Lebenszyklusereignisse mit Ihren eigenen Skripten verknüpfen, um benutzerdefinierte Startfunktionen zu aktivieren. Weitere Informationen finden Sie in der Tabelle unter[Verfügbarkeit von Hooks für Lebenszyklus-Ereignisse](reference-appspec-file-structure-hooks.md#reference-appspec-file-structure-hooks-availability).

  Der Launch-Hook und die zugehörige Startbereitstellung sind immer aktiviert und können nicht ausgeschaltet werden.
+ **Ein Terminierungs-Hook** — Dieser optionale Hook benachrichtigt CodeDeploy , dass ein Auto [Scaling-Scale-In-Ereignis im](https://docs.aws.amazon.com/autoscaling/ec2/userguide/ec2-auto-scaling-lifecycle.html#as-lifecycle-scale-in) Gange ist und dass eine Terminierungsbereitstellung gestartet CodeDeploy werden muss.

   CodeDeploy Generiert während einer *Terminierungsbereitstellung* Lebenszyklusereignisse, um den Fortschritt des Herunterfahrens der Instance anzuzeigen. Weitere Informationen finden Sie unter [Aktivierung von Terminierungsbereitstellungen bei Auto Scaling-Scale-In-Ereignissen](#integrations-aws-auto-scaling-behaviors-hook-enable).

**Topics**
+ [Wie CodeDeploy werden die Lifecycle-Hooks nach der Installation verwendet?](#integrations-aws-auto-scaling-behaviors-hook-usage)
+ [Wie CodeDeploy benennt Amazon EC2 Auto Scaling Scaling-Gruppen](#integrations-aws-auto-scaling-behaviors-naming)
+ [Reihenfolge der Ausführung von benutzerdefinierten Lifecycle-Hook-Ereignissen](#integrations-aws-auto-scaling-behaviors-hook-order)
+ [Scale-Out-Ereignisse während einer Bereitstellung](#integrations-aws-auto-scaling-behaviors-mixed-environment)
+ [Scale-in-Ereignisse während einer Bereitstellung](#integrations-aws-auto-scaling-behaviors-scale-in)
+ [Reihenfolge der Ereignisse in AWS CloudFormation cfn-init-Skripten](#integrations-aws-auto-scaling-behaviors-event-order)

### Wie CodeDeploy werden die Lifecycle-Hooks nach der Installation verwendet?
<a name="integrations-aws-auto-scaling-behaviors-hook-usage"></a>

Nachdem die Start- und Terminierungs-Lifecycle-Hooks installiert wurden, werden sie von jeweils CodeDeploy während Auto Scaling-Gruppen-Scale-Out- und Scale-In-Ereignissen verwendet.

**Ein Scale-Out-Ereignis (Start) läuft wie folgt ab:**

1. Der Auto Scaling-Dienst (oder einfach Auto Scaling) stellt fest, dass ein Scale-Out-Ereignis eintreten muss, und kontaktiert den EC2-Dienst, um eine neue EC2-Instance zu starten.

1. Der EC2-Dienst startet eine neue EC2-Instance. Die Instanz wechselt in den `Pending` Status und dann in den `Pending:Wait` Status. 

1. `Pending:Wait`Währenddessen führt Auto Scaling alle Lifecycle-Hooks aus, die an die Auto Scaling Scaling-Gruppe angehängt sind, einschließlich des Start-Hooks, der von installiert wurde CodeDeploy.

1. Der Launch-Hook sendet eine Benachrichtigung an die [Amazon SQS SQS-Warteschlange](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/welcome.html), die von abgerufen wird. CodeDeploy

1. [Nach Erhalt der Benachrichtigung CodeDeploy analysiert er die Nachricht, führt einige Validierungen durch und startet eine Startbereitstellung.](#launch-deployment)

1. Während die Startbereitstellung läuft, CodeDeploy sendet sie alle fünf Minuten Heartbeats an Auto Scaling, um das System darüber zu informieren, dass an der Instance noch gearbeitet wird.

1. Bisher befindet sich die EC2-Instance immer noch im `Pending:Wait` Status.

1. Wenn die Bereitstellung abgeschlossen ist, CodeDeploy zeigt Auto Scaling entweder `CONTINUE` `ABANDON` den EC2-Startvorgang an, je nachdem, ob die Bereitstellung erfolgreich war oder fehlgeschlagen ist.
   + Falls CodeDeploy angegeben`CONTINUE`, setzt Auto Scaling den Startvorgang fort und wartet entweder darauf, dass andere Hooks abgeschlossen sind, oder versetzt die Instance in den Status `Pending:Proceed` und dann in den `InService` Status.
   + Wenn CodeDeploy angegeben`ABANDON`, beendet Auto Scaling die EC2-Instance und startet den Startvorgang neu, falls erforderlich, um die gewünschte Anzahl von Instances zu erreichen, wie in der Einstellung Auto Scaling **Desired** Capacity definiert.

**Ein Scale-In-Ereignis (Terminierung) läuft wie folgt ab:**

Siehe [Aktivierung von Terminierungsbereitstellungen bei Auto Scaling-Scale-In-Ereignissen](#integrations-aws-auto-scaling-behaviors-hook-enable).

### Wie CodeDeploy benennt Amazon EC2 Auto Scaling Scaling-Gruppen
<a name="integrations-aws-auto-scaling-behaviors-naming"></a>

 

Bei blue/green Bereitstellungen auf einer EC2/lokalen Rechenplattform haben Sie zwei Möglichkeiten, Instances zu Ihrer (grünen) Ersatzumgebung hinzuzufügen:
+  Verwenden Sie Instances, die bereits vorhanden sind oder die Sie manuell erstellen. 
+  Verwenden Sie Einstellungen aus einer Amazon EC2 Auto Scaling Scaling-Gruppe, die Sie angeben, um Instances in einer neuen Amazon EC2 Auto Scaling Scaling-Gruppe zu definieren und zu erstellen. 

 Wenn Sie sich für die zweite Option entscheiden, wird eine CodeDeploy neue Amazon EC2 Auto Scaling Scaling-Gruppe für Sie bereitgestellt. Es verwendet die folgende Konventione für die Benennung der Gruppe: 

```
CodeDeploy_deployment_group_name_deployment_id
```

Wenn beispielsweise eine Bereitstellung mit ID eine Bereitstellungsgruppe mit dem Namen `10` bereitstellt`alpha-deployments`, wird die bereitgestellte Amazon EC2 Auto Scaling Scaling-Gruppe benannt. `CodeDeploy_alpha-deployments_10` Weitere Informationen erhalten Sie unter [Erstellen Sie eine Bereitstellungsgruppe für eine blue/green EC2/On-Premises-Bereitstellung (Konsole)](deployment-groups-create-blue-green.md) und [GreenFleetProvisioningOption](https://docs.aws.amazon.com/codedeploy/latest/APIReference/API_GreenFleetProvisioningOption.html).

### Reihenfolge der Ausführung von benutzerdefinierten Lifecycle-Hook-Ereignissen
<a name="integrations-aws-auto-scaling-behaviors-hook-order"></a>

Sie können Ihre eigenen Lifecycle-Hooks zu Amazon EC2 Auto Scaling Scaling-Gruppen hinzufügen, für die sie CodeDeploy bereitgestellt werden. Die Reihenfolge, in der diese benutzerdefinierten Lifecycle-Hook-Ereignisse ausgeführt werden, kann jedoch nicht im Verhältnis zu den CodeDeploy standardmäßigen Ereignissen im Bereitstellungslebenszyklus festgelegt werden. Wenn Sie beispielsweise einen benutzerdefinierten Lifecycle-Hook mit dem Namen `ReadyForSoftwareInstall` einer Amazon EC2 Auto Scaling Scaling-Gruppe hinzufügen, können Sie im Voraus nicht wissen, ob er vor dem ersten oder nach dem letzten CodeDeploy standardmäßigen Deployment-Lifecycle-Ereignis ausgeführt wird.

Informationen zum Hinzufügen von benutzerdefinierten Lifecycle-Hooks zu einer Amazon EC2 Auto Scaling Scaling-Gruppe finden Sie unter [Hinzufügen von Lifecycle-Hooks](https://docs.aws.amazon.com/autoscaling/latest/userguide/lifecycle-hooks.html#adding-lifecycle-hooks) im *Amazon EC2 Auto Scaling Scaling-Benutzerhandbuch*.

### Scale-Out-Ereignisse während einer Bereitstellung
<a name="integrations-aws-auto-scaling-behaviors-mixed-environment"></a>

Tritt während einer laufenden Bereitstellung ein Auto Scaling-Scale-Out-Ereignis auf, werden die neuen Instances mit der Anwendungsversion aktualisiert, die zuvor bereitgestellt wurde, und nicht mit der neuesten Anwendungsrevision. Wenn die Bereitstellung erfolgreich ist, werden die alten Instances und die neu skalierten Instances unterschiedliche Anwendungsrevisionen hosten. Um die Instanzen mit der älteren Version auf den neuesten Stand zu bringen, CodeDeploy wird automatisch eine Folgebereitstellung (unmittelbar nach der ersten) gestartet, um alle veralteten Instanzen zu aktualisieren. Wenn Sie dieses Standardverhalten ändern möchten, sodass veraltete EC2-Instances in der älteren Version verbleiben, finden Sie unter. [Automatic updates to outdated instances](deployment-groups-configure-advanced-options.md#auto-updates-outdated-instances)

Wenn Sie Amazon EC2 Auto Scale-Out-Prozesse während Bereitstellungen aussetzen möchten, können Sie dies über eine Einstellung im `common_functions.sh` Skript tun, das für den Lastenausgleich mit verwendet wird. CodeDeploy Wenn `HANDLE_PROCS=true` die folgenden Auto Scaling Scaling-Ereignisse während des Bereitstellungsprozesses automatisch unterbrochen werden: 
+ AZRebalance
+ AlarmNotification
+ ScheduledActions
+ ReplaceUnhealthy

**Wichtig**  
Nur der CodeDeployDefault. OneAtATime Die Bereitstellungskonfiguration unterstützt diese Funktionalität.

Weitere Informationen zur Verwendung `HANDLE_PROCS=true` zur Vermeidung von Bereitstellungsproblemen bei der Verwendung von Amazon EC2 Auto Scaling finden Sie unter [Wichtiger Hinweis zur Handhabung von AutoScaling Prozessen](https://github.com/awslabs/aws-codedeploy-samples/tree/master/load-balancing/elb#important-notice-about-handling-autoscaling-processes) in [aws-codedeploy-samples](https://github.com/awslabs/aws-codedeploy-samples)on GitHub.

### Scale-in-Ereignisse während einer Bereitstellung
<a name="integrations-aws-auto-scaling-behaviors-scale-in"></a>

Wenn eine Auto Scaling Scaling-Gruppe mit der Skalierung beginnt, während eine CodeDeploy Bereitstellung in dieser Auto Scaling Scaling-Gruppe im Gange ist, kann es zu einem Wettlauf zwischen dem Kündigungsprozess (einschließlich der Ereignisse im Lebenszyklus der Terminierung der Bereitstellung) und anderen CodeDeploy Lebenszyklusereignissen auf der CodeDeploy beendenden Instance kommen. Die Bereitstellung auf dieser speziellen Instance kann fehlschlagen, wenn die Instance beendet wird, bevor alle CodeDeploy Lebenszyklusereignisse abgeschlossen sind. Außerdem kann die gesamte CodeDeploy Bereitstellung fehlschlagen oder auch nicht, je nachdem, wie Sie in Ihrer Bereitstellungskonfiguration die Einstellung **Mindestanzahl fehlerfreier Hosts** festgelegt haben.

### Reihenfolge der Ereignisse in AWS CloudFormation cfn-init-Skripten
<a name="integrations-aws-auto-scaling-behaviors-event-order"></a>

Wenn Sie für die Ausführung von Skripts auf neu bereitgestellten Linux-basierten Instances `cfn-init` (oder `cloud-init`) verwenden, kann es sein, dass Ihre Bereitstellungen fehlschlagen, es sei denn, Sie kontrollieren die Reihenfolge der Ereignisse sorgfältig, die nach dem Start der Instance auftreten.

Diese Reihenfolge muss folgendermaßen aussehen:

1. Die neu bereitgestellte Instance wird gestartet.

1. Alle `cfn-init`-Bootstrapping-Skripts werden abgeschlossen.

1. Der CodeDeploy Agent wird gestartet.

1. Die neueste Anwendungsrevision wird auf der Instance bereitgestellt.

Wenn die Reihenfolge der Ereignisse nicht sorgfältig kontrolliert wird, startet der CodeDeploy Agent möglicherweise eine Bereitstellung, bevor die Ausführung aller Skripts abgeschlossen ist. 

Um die Reihenfolge der Ereignisse zu kontrollieren, verwenden Sie eine dieser bewährten Methoden: 
+ Installieren Sie den CodeDeploy Agenten über ein `cfn-init` Skript und platzieren Sie ihn hinter allen anderen Skripten.
+ Binden Sie den CodeDeploy Agenten in ein benutzerdefiniertes AMI ein und verwenden Sie ein `cfn-init` Skript, um ihn zu starten. Platzieren Sie ihn hinter allen anderen Skripten.

*Informationen zur Verwendung finden Sie `cfn-init` unter [cfn-init](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/cfn-init.html) im AWS CloudFormation Benutzerhandbuch.*

## Verwenden eines benutzerdefinierten AMI mit CodeDeploy Amazon EC2 Auto Scaling
<a name="integrations-aws-auto-scaling-custom-ami"></a>

Sie haben zwei Möglichkeiten, das Basis-AMI anzugeben, das verwendet werden soll, wenn neue Amazon EC2-Instances in einer Amazon EC2 Auto Scaling-Gruppe gestartet werden:
+ Sie können ein benutzerdefiniertes Basis-AMI angeben, auf dem der CodeDeploy Agent bereits installiert ist. Da der Agent bereits installiert ist, startet diese Option neue Amazon EC2 EC2-Instances schneller als die andere Option. Diese Option erhöht jedoch die Wahrscheinlichkeit, dass erste Bereitstellungen von Amazon EC2 EC2-Instances fehlschlagen, insbesondere wenn der CodeDeploy Agent veraltet ist. Wenn Sie diese Option wählen, empfehlen wir Ihnen, den CodeDeploy Agenten in Ihrem benutzerdefinierten Basis-AMI regelmäßig zu aktualisieren.
+ Sie können ein Basis-AMI angeben, bei dem der CodeDeploy Agent nicht installiert ist, und den Agenten installieren, wenn jede neue Instance in einer Amazon EC2 Auto Scaling Scaling-Gruppe gestartet wird. Diese Option startet zwar neue Amazon EC2 EC2-Instances langsamer als die andere Option, bietet jedoch eine höhere Wahrscheinlichkeit, dass die ersten Bereitstellungen von Instances erfolgreich sein werden. Bei dieser Methode wird die neueste Version des CodeDeploy-Agent verwendet.

# Integration CodeDeploy mit Elastic Load Balancing
<a name="integrations-aws-elastic-load-balancing"></a>

Während der CodeDeploy Bereitstellung verhindert ein Load Balancer, dass Internet-Traffic an Instances weitergeleitet wird, wenn diese nicht bereit sind, für die sie gerade bereitgestellt werden oder als Teil einer Umgebung nicht mehr benötigt werden. Die genaue Rolle, die der Load Balancer spielt, hängt jedoch davon ab, ob er in einer blue/green Bereitstellung oder einer Bereitstellung vor Ort verwendet wird.

**Anmerkung**  
Die Verwendung von Elastic Load Balancing-Load Balancing-Load Balancern ist in blue/green Bereitstellungen obligatorisch und in In-Place-Bereitstellungen optional.

## Arten von Elastic Load Balancing
<a name="integrations-aws-elastic-load-balancing-types"></a>

Elastic Load Balancing bietet drei Arten von Load Balancern, die in CodeDeploy Bereitstellungen verwendet werden können: Classic Load Balancers, Application Load Balancers und Network Load Balancers.

Classic Load Balancer  
Routen und Lastenausgleich entweder auf der Transportschicht (). TCP/SSL) or the application layer (HTTP/HTTPS Es unterstützt eine VPC.  
Classic Load Balancer werden bei Amazon ECS-Bereitstellungen nicht unterstützt.

Application Load Balancer  
Führt das Routing und den Lastenausgleich auf Anwendungsebene (HTTP/HTTPS) durch und unterstützt das pfadbasierte Routing. Er kann Anforderungen an Ports auf jeder EC2-Instance oder Container-Instance in Ihrer Virtual Private Cloud (VPC) leiten.  
 Die Application Load Balancer Balancer-Zielgruppen müssen den Zieltyp `instance` für Bereitstellungen auf EC2-Instances und `IP` für Fargate-Bereitstellungen haben. [Weitere Informationen finden Sie unter Zieltyp.](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-target-groups.html#target-type) 

Network Load Balancer  
Routen und Lastenausgleich auf der Transportschicht (TCP/UDP Layer-4) basieren auf Adressinformationen, die aus dem TCP-Paket-Header und nicht aus dem Paketinhalt extrahiert wurden. Network Load Balancers können Datenverkehrsspitzen verarbeiten, die Quell-IP-Adresse des Clients beibehalten und eine feste IP für die Nutzungsdauer des Load Balancers verwenden. 

Weitere Informationen zu Elastic Load Balancing Load Balancers finden Sie in den folgenden Themen:
+ [Was ist Elastic Load Balancing?](https://docs.aws.amazon.com/elasticloadbalancing/latest/userguide/what-is-load-balancing.html)
+ [Was ist ein Classic Load Balancer?](https://docs.aws.amazon.com/elasticloadbalancing/latest/classic/introduction.html)
+ [Was ist ein Application Load Balancer?](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html)
+ [Was ist ein Network Load Balancer?](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html)

## Blau/Grün-Bereitstellungen
<a name="integrations-aws-elastic-load-balancing-blue-green"></a>

Die Umleitung von Instance-Traffic hinter einem Elastic Load Balancing Load Balancer ist für Bereitstellungen von grundlegender Bedeutung. CodeDeploy blue/green 

Während einer blue/green Bereitstellung ermöglicht der Load Balancer die Weiterleitung des Datenverkehrs an die neuen Instances in einer Bereitstellungsgruppe, in der die neueste Anwendungsversion bereitgestellt wurde (die Ersatzumgebung), gemäß den von Ihnen angegebenen Regeln, und blockiert dann den Datenverkehr von den alten Instances, auf denen die vorherige Anwendungsrevision lief (die ursprüngliche Umgebung).

Nachdem Instances in einer Ersatzumgebung bei einem oder mehreren Load Balancern registriert wurden, werden Instances aus der ursprünglichen Umgebung deregistriert und, falls Sie dies wünschen, beendet.

Für eine blue/green Bereitstellung können Sie eine oder mehrere Classic Load Balancer, Application Load Balancer-Zielgruppen oder Network Load Balancer Balancer-Zielgruppen in Ihrer Bereitstellungsgruppe angeben. Sie verwenden die CodeDeploy Konsole oder AWS CLI um die Load Balancer zu einer Bereitstellungsgruppe hinzuzufügen.

Weitere Informationen zu Load Balancern in blue/green Bereitstellungen finden Sie in den folgenden Themen:
+ [Einen Load Balancer in Elastic Load Balancing für CodeDeploy Amazon EC2 EC2-Bereitstellungen einrichten](deployment-groups-create-load-balancer.md)
+ [Erstellen Sie eine Anwendung für eine blue/green Bereitstellung (Konsole)](applications-create-blue-green.md)
+ [Erstellen Sie eine Bereitstellungsgruppe für eine blue/green EC2/On-Premises-Bereitstellung (Konsole)](deployment-groups-create-blue-green.md)

## In-Situ-Bereitstellungen
<a name="integrations-aws-elastic-load-balancing-in-place"></a>

Während einer In-Situ-Bereitstellung verhindert ein Load Balancer, dass Internetdatenverkehr an eine Instance weitergeleitet wird, solange die Bereitstellung ausgeführt wird, und macht die Instance anschließend, wenn die Bereitstellung für sie abgeschlossen wurde, wieder für den Datenverkehr verfügbar.

Wenn in einer In-Situ-Bereitstellung kein Load Balancer verwendet wird, kann Internetdatenverkehr während des Bereitstellungsvorgangs an Instances geleitet werden. Ihre Kunden finden dann möglicherweise fehlerhafte, unvollständige oder veraltete Webanwendungen vor. Wenn Sie einen Elastic Load Balancing Load Balancer mit einer In-Place-Bereitstellung verwenden, werden Instances in einer Bereitstellungsgruppe vom Load Balancer abgemeldet, mit der neuesten Anwendungsversion aktualisiert und dann nach erfolgreicher Bereitstellung erneut beim Load Balancer als Teil derselben Bereitstellungsgruppe registriert. CodeDeploy wartet bis zu 1 Stunde, bis die Instance hinter dem Load Balancer wieder funktionsfähig ist. Wenn die Instance während der Wartezeit vom Load Balancer nicht als fehlerfrei markiert wird, wechselt sie CodeDeploy entweder zur nächsten Instance oder schlägt bei der Bereitstellung fehl, je nach Bereitstellungskonfiguration.

Für eine direkte Bereitstellung können Sie eine oder mehrere Classic Load Balancer, Application Load Balancer-Zielgruppen oder Network Load Balancer Balancer-Zielgruppen angeben. Sie können die Load Balancer als Teil der Konfiguration der Bereitstellungsgruppe angeben, oder Sie können ein von bereitgestelltes Skript verwenden, um die Load Balancer CodeDeploy zu implementieren.

### Geben Sie den Load Balancer für die direkte Bereitstellung mithilfe einer Bereitstellungsgruppe an
<a name="integrations-aws-elastic-load-balancing-in-place-deployment-group"></a>

Um Load Balancer zu einer Bereitstellungsgruppe hinzuzufügen, verwenden Sie die CodeDeploy Konsole oder. AWS CLI Weitere Informationen zur Angabe eines Load Balancers in einer Bereitstellungsgruppe bei In-Situ-Bereitstellungen finden Sie in den folgenden Themen:
+ [Erstellen Sie eine Anwendung für eine direkte Bereitstellung (Konsole)](applications-create-in-place.md)
+ [Erstellen Sie eine Bereitstellungsgruppe für eine direkte Bereitstellung (Konsole)](deployment-groups-create-in-place.md)
+ [Einen Load Balancer in Elastic Load Balancing für CodeDeploy Amazon EC2 EC2-Bereitstellungen einrichten](deployment-groups-create-load-balancer.md)

### Geben Sie den Load Balancer für die direkte Bereitstellung mithilfe eines Skripts an
<a name="integrations-aws-elastic-load-balancing-in-place-script"></a>

Befolgen Sie die Schritte im folgenden Verfahren, um Bereitstellungslebenszyklusskripts zum Einrichten des Load Balancers für In-Situ-Bereitstellungen zu verwenden.
**Anmerkung**  
Sie sollten den verwenden. CodeDeployDefault OneAtATime Bereitstellungskonfiguration nur, wenn Sie ein Skript verwenden, um einen Load Balancer für eine direkte Bereitstellung einzurichten. Gleichzeitige Läufe werden nicht unterstützt, und die. CodeDeployDefault OneAtATime Diese Einstellung gewährleistet eine serielle Ausführung der Skripte. Weitere Informationen zu Bereitstellungskonfigurationen finden Sie unter [Arbeiten mit Bereitstellungskonfigurationen in CodeDeploy](deployment-configurations.md).

Im CodeDeploy Samples-Repository unter finden Sie Anleitungen und Beispiele GitHub, die Sie an die Verwendung von CodeDeploy Elastic Load Balancing Balancing-Load Balancers anpassen können. Diese Repositorys enthalten drei Beispielskripte — `register_with_elb.sh``deregister_from_elb.sh`, und `common_functions.sh` —, die den gesamten Code enthalten, den Sie für den Einstieg benötigen. Bearbeiten Sie einfach die Platzhalter in diesen drei Skripts, und verweisen Sie dann aus der Datei `appspec.yml` auf diese Skripts.

Gehen Sie wie folgt vor, um In-Place-Bereitstellungen CodeDeploy mit Amazon EC2 EC2-Instances einzurichten, die bei Elastic Load Balancing Load Balancers registriert sind:

1. Laden Sie die Beispiele für den Load-Balancer-Typ herunter, den Sie für eine In-Situ-Bereitstellung verwenden möchten:
   + [Classic Load Balancer](https://github.com/awslabs/aws-codedeploy-samples/tree/master/load-balancing/elb)
   + [Application Load Balancer [oder Network Load Balancer](https://github.com/awslabs/aws-codedeploy-samples/tree/master/load-balancing/elb-v2) (dasselbe Skript kann für beide Typen verwendet werden)](https://github.com/awslabs/aws-codedeploy-samples/tree/master/load-balancing/elb-v2)

1. Stellen Sie sicher, dass auf jeder Ihrer Amazon EC2 EC2-Zielinstanzen die AWS CLI installiert ist. 

1. Stellen Sie sicher, dass jede Ihrer Amazon EC2 EC2-Ziel-Instances über ein IAM-Instance-Profil verfügt, das mindestens mit den Berechtigungen elasticloadbalancing: \$1 und autoscaling: \$1 verknüpft ist.

1. Fügen Sie im Quellcodeverzeichnis Ihrer Anwendung die Bereitstellungslebenszyklus-Ereignisskripts (`register_with_elb.sh`, `deregister_from_elb.sh` und `common_functions.sh`) hinzu.

1. Geben Sie in der Version `appspec.yml` für die Anwendung Anweisungen CodeDeploy zur Ausführung des Skripts während des **ApplicationStart**Ereignisses und des `register_with_elb.sh` Skripts während des Ereignisses an`deregister_from_elb.sh`. **ApplicationStop**

1. Wenn die Instance Teil einer Amazon EC2 Auto Scaling Scaling-Gruppe ist, können Sie diesen Schritt überspringen.

   Im `common_functions.sh`-Skript:
   + Wenn Sie den [Classic Load Balancer](https://github.com/awslabs/aws-codedeploy-samples/tree/master/load-balancing/elb) verwenden, geben Sie die Namen der Elastic Load Balancing Balancing-Load Balancer unter an `ELB_LIST=""` und nehmen Sie alle erforderlichen Änderungen an den anderen Bereitstellungseinstellungen in der Datei vor.
   + Wenn Sie den [Application Load Balancer [oder den Network Load Balancer](https://github.com/awslabs/aws-codedeploy-samples/tree/master/load-balancing/elb-v2)](https://github.com/awslabs/aws-codedeploy-samples/tree/master/load-balancing/elb-v2) verwenden, geben Sie die Namen der Elastic Load Balancing Balancing-Zielgruppen unter an und nehmen Sie alle erforderlichen Änderungen an den anderen Bereitstellungseinstellungen in der Datei vor. `TARGET_GROUP_LIST=""`

1. Bündeln Sie den Quellcode der Anwendung, die `appspec.yml` und die Bereitstellungslebenszyklus-Ereignisskripts in einer Anwendungsrevision, und laden Sie diese dann hoch. Stellen Sie die Revision auf den Amazon EC2 EC2-Instances bereit. Während der Bereitstellung melden die Skripte für das Deployment Lifecycle Event die Amazon EC2 EC2-Instance beim Load Balancer ab, warten, bis die Verbindung leer ist, und registrieren die Amazon EC2 EC2-Instance nach Abschluss der Bereitstellung erneut beim Load Balancer.