Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Automatisches Erstellen dynamischer CI-Pipelines für Java- und Python-Projekte - AWS Prescriptive Guidance

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Automatisches Erstellen dynamischer CI-Pipelines für Java- und Python-Projekte

Erstellt von Aromal Raj Jayarajan (AWS), Amarnath Reddy (AWS), MAHESH RAGHUNANDANAN (AWS) und Vijesh Vijayakumaran Nair (AWS)

Übersicht

AWS CodeCommit Hinweis: ist für Neukunden nicht mehr verfügbar. Bestandskunden von AWS CodeCommit können den Service weiterhin wie gewohnt nutzen. Weitere Informationen

Dieses Muster zeigt, wie dynamische CI-Pipelines (Continuous Integration) für Java- und Python-Projekte mithilfe der AWS-Entwicklertools automatisch erstellt werden.

Mit der Diversifizierung der Technologie-Stacks und der Zunahme der Entwicklungsaktivitäten kann es schwierig werden, CI-Pipelines zu erstellen und aufrechtzuerhalten, die unternehmensweit einheitlich sind. Durch die Automatisierung des Prozesses in AWS Step Functions können Sie sicherstellen, dass Ihre CI-Pipelines in ihrer Verwendung und Herangehensweise konsistent sind.

Um die Erstellung dynamischer CI-Pipelines zu automatisieren, verwendet dieses Muster die folgenden Variableneingaben:

  • Programmiersprache (nur Java oder Python)

  • Pipeline-Name

  • Erforderliche Pipeline-Stufen

Anmerkung

Step Functions orchestriert die Pipeline-Erstellung mithilfe mehrerer AWS-Services. Weitere Informationen zu den in dieser Lösung verwendeten AWS-Services finden Sie im Abschnitt Tools dieses Musters.

Voraussetzungen und Einschränkungen

Voraussetzungen

  • Ein aktives AWS-Konto

  • Ein Amazon S3 S3-Bucket in derselben AWS-Region, in der diese Lösung bereitgestellt wird

  • Ein AWS Identity and Access Management (IAM) -Prinzipal, der über die CloudFormation AWS-Berechtigungen verfügt, die zum Erstellen der für diese Lösung benötigten Ressourcen erforderlich sind

Einschränkungen

  • Dieses Muster unterstützt nur Java- und Python-Projekte.

  • Die in diesem Muster bereitgestellten IAM-Rollen folgen dem Prinzip der geringsten Rechte. Die Berechtigungen der IAM-Rollen müssen auf der Grundlage der spezifischen Ressourcen aktualisiert werden, die Ihre CI-Pipeline erstellen muss.

Architektur

Zieltechnologie-Stack

  • AWS CloudFormation

  • AWS CodeBuild

  • AWS CodeCommit

  • AWS CodePipeline

  • IAM

  • Amazon Simple Storage Service (Amazon-S3)

  • AWS Systems Manager

  • AWS Step Functions

  • AWS Lambda

  • Amazon-DynamoDB

Zielarchitektur

Das folgende Diagramm zeigt einen Beispiel-Workflow für die automatische Erstellung dynamischer CI-Pipelines für Java- und Python-Projekte mithilfe von AWS-Entwicklertools.

Workflow zur automatischen Erstellung dynamischer CI-Pipelines für Java- und Python-Projekte mithilfe von AWS-Tools.

Das Diagramm zeigt den folgenden Workflow:

  1. Ein AWS-Benutzer stellt die Eingabeparameter für die CI-Pipeline-Erstellung im JSON-Format bereit. Diese Eingabe startet einen Step Functions Functions-Workflow (State Machine), der mithilfe von AWS-Entwicklertools eine CI-Pipeline erstellt.

  2. Eine Lambda-Funktion liest einen Ordner mit dem Namen input-reference, der in einem Amazon S3 S3-Bucket gespeichert ist, und generiert dann eine buildspec.yml-Datei. Diese generierte Datei definiert die CI-Pipeline-Stufen und wird wieder in demselben Amazon S3 S3-Bucket gespeichert, in dem die Parameterreferenzen gespeichert sind.

  3. Step Functions überprüft die Abhängigkeiten des Workflows zur Erstellung der CI-Pipeline auf Änderungen und aktualisiert den Abhängigkeitsstapel nach Bedarf.

  4. Step Functions erstellt die CI-Pipeline-Ressourcen in einem CloudFormation Stack, einschließlich eines CodeCommit Repositorys, eines CodeBuild Projekts und einer CodePipeline Pipeline.

  5. Der CloudFormation Stack kopiert den Beispielquellcode für den ausgewählten Technologie-Stack (Java oder Python) und die Datei buildspec.yml in das Repository. CodeCommit

  6. Die Laufzeitdetails der CI-Pipeline werden in einer DynamoDB-Tabelle gespeichert.

Automatisierung und Skalierung

  • Dieses Muster ist nur für die Verwendung in einer einzigen Entwicklungsumgebung vorgesehen. Für die Verwendung in mehreren Entwicklungsumgebungen sind Konfigurationsänderungen erforderlich.

  • Um Unterstützung für mehr als einen CloudFormation Stack hinzuzufügen, können Sie zusätzliche CloudFormation Vorlagen erstellen. Weitere Informationen finden Sie CloudFormation in der CloudFormation Dokumentation unter Erste Schritte mit AWS.

Tools

Tools

  • AWS Step Functions ist ein serverloser Orchestrierungsservice, mit dem Sie AWS Lambda Lambda-Funktionen und andere AWS-Services kombinieren können, um geschäftskritische Anwendungen zu erstellen.

  • AWS Lambda ist ein Rechenservice, mit dem Sie Code ausführen können, ohne Server bereitstellen oder verwalten zu müssen. Er führt Ihren Code nur bei Bedarf aus und skaliert automatisch, sodass Sie nur für die tatsächlich genutzte Rechenzeit zahlen.

  • AWS CodeBuild ist ein vollständig verwalteter Build-Service, mit dem Sie Quellcode kompilieren, Komponententests ausführen und bereitstellungsbereite Artefakte erstellen können.

  • AWS CodeCommit ist ein Versionskontrollservice, mit dem Sie Git-Repositorys privat speichern und verwalten können, ohne Ihr eigenes Quellcodeverwaltungssystem verwalten zu müssen.

  • AWS CodePipeline hilft Ihnen dabei, die verschiedenen Phasen einer Softwareversion schnell zu modellieren und zu konfigurieren und die Schritte zu automatisieren, die für die kontinuierliche Veröffentlichung von Softwareänderungen erforderlich sind.

  • AWS Identity and Access Management (IAM) hilft Ihnen dabei, den Zugriff auf Ihre AWS-Ressourcen sicher zu verwalten, indem kontrolliert wird, wer authentifiziert und autorisiert ist, diese zu verwenden.

  • AWS Key Management Service (AWS KMS) unterstützt Sie bei der Erstellung und Kontrolle kryptografischer Schlüssel, um Ihre Daten zu schützen.

  • Amazon Simple Storage Service (Amazon S3) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.

  • AWS CloudFormation hilft Ihnen dabei, AWS-Ressourcen einzurichten, sie schnell und konsistent bereitzustellen und sie während ihres gesamten Lebenszyklus über AWS-Konten und Regionen hinweg zu verwalten.

  • Amazon DynamoDB ist ein vollständig verwalteter NoSQL-Datenbank-Service, der schnelle und planbare Leistung mit nahtloser Skalierbarkeit bereitstellt.

  • AWS Systems Manager Parameter Store bietet sicheren, hierarchischen Speicher für die Verwaltung von Konfigurationsdaten und Geheimnissen.

Code

Der Code für dieses Muster ist im GitHub automated-ci-pipeline-creationRepository verfügbar. Das Repository enthält die CloudFormation Vorlagen, die zur Erstellung der in diesem Muster beschriebenen Zielarchitektur erforderlich sind.

Bewährte Methoden

  • Geben Sie Anmeldeinformationen (Geheimnisse) wie Token oder Passwörter nicht direkt in CloudFormation Vorlagen oder Aktionskonfigurationen von Step Functions ein. Wenn Sie dies tun, werden die Informationen in den DynamoDB-Protokollen angezeigt. Verwenden Sie stattdessen AWS Secrets Manager, um Secrets einzurichten und zu speichern. Verweisen Sie dann nach Bedarf in den Aktionskonfigurationen der CloudFormation Vorlagen und Step Functions auf die im Secrets Manager gespeicherten Geheimnisse. Weitere Informationen finden Sie unter Was ist AWS Secrets Manager in der Secrets Manager-Dokumentation.

  • Konfigurieren Sie die serverseitige Verschlüsselung für in Amazon S3 gespeicherte CodePipeline Artefakte. Weitere Informationen finden Sie in der CodePipeline Dokumentation unter Serverseitige Verschlüsselung für in Amazon S3 gespeicherte Artefakte konfigurieren. CodePipeline

  • Wenden Sie bei der Konfiguration von IAM-Rollen Berechtigungen mit den geringsten Rechten an. Weitere Informationen finden Sie unter Geringste Berechtigungen anwenden in der IAM-Dokumentation.

  • Stellen Sie sicher, dass Ihr Amazon S3 S3-Bucket nicht öffentlich zugänglich ist. Weitere Informationen finden Sie unter Konfiguration der Einstellung zum Blockieren des öffentlichen Zugriffs für Ihre S3-Buckets in der Amazon S3 S3-Dokumentation.

  • Stellen Sie sicher, dass Sie die Versionierung für Ihren Amazon S3 S3-Bucket aktivieren. Weitere Informationen finden Sie unter Verwenden der Versionierung in S3-Buckets in der Amazon S3 S3-Dokumentation.

  • Verwenden Sie IAM Access Analyzer bei der Konfiguration von IAM-Richtlinien. Das Tool bietet umsetzbare Empfehlungen, die Sie bei der Erstellung sicherer und funktionaler IAM-Richtlinien unterstützen. Weitere Informationen finden Sie unter Verwenden von AWS Identity and Access Management Access Analyzer in der IAM-Dokumentation.

  • Definieren Sie nach Möglichkeit spezifische Zugriffsbedingungen bei der Konfiguration von IAM-Richtlinien.

  • Aktivieren Sie die CloudWatch Amazon-Protokollierung für Überwachungs- und Prüfungszwecke. Weitere Informationen finden Sie unter Was ist Amazon CloudWatch Logs? in der CloudWatch Dokumentation.

Epen

AufgabeBeschreibungErforderliche Fähigkeiten

Erstellen Sie einen Amazon-S3-Bucket.

Erstellen Sie einen Amazon S3 S3-Bucket (oder verwenden Sie einen vorhandenen Bucket), um die erforderlichen CloudFormation Vorlagen, den Quellcode und die Eingabedateien für die Lösung zu speichern.

Weitere Informationen finden Sie unter Schritt 1: Erstellen Sie Ihren ersten S3-Bucket in der Amazon S3 S3-Dokumentation.

Anmerkung

Der Amazon S3 S3-Bucket muss sich in derselben AWS-Region befinden, in der Sie die Lösung bereitstellen.

AWS DevOps

Klonen Sie das GitHub Repository.

Klonen Sie das GitHub automated-ci-pipeline-creationRepository, indem Sie den folgenden Befehl in einem Terminalfenster ausführen:

git clone https://github.com/aws-samples/automated-ci-pipeline-creation.git

Weitere Informationen finden Sie in der GitHub Dokumentation unter Ein Repository klonen.

AWS DevOps

Laden Sie den Ordner Solution Templates aus dem geklonten GitHub Repository in Ihren Amazon S3 S3-Bucket hoch.

Kopieren Sie den Inhalt aus dem geklonten Solution-Templates-Ordner und laden Sie ihn in den Amazon S3 S3-Bucket hoch, den Sie erstellt haben.

Weitere Informationen finden Sie unter Hochladen von Objekten in der Amazon S3 S3-Dokumentation.

Anmerkung

Stellen Sie sicher, dass Sie nur den Inhalt des Ordners Solution-Templates hochladen. Sie können die Dateien nur auf der Stammebene des Amazon S3 S3-Buckets hochladen.

AWS DevOps

Konfigurieren Sie die Voraussetzungen

AufgabeBeschreibungErforderliche Fähigkeiten

Erstellen Sie einen Amazon-S3-Bucket.

Erstellen Sie einen Amazon S3 S3-Bucket (oder verwenden Sie einen vorhandenen Bucket), um die erforderlichen CloudFormation Vorlagen, den Quellcode und die Eingabedateien für die Lösung zu speichern.

Weitere Informationen finden Sie unter Schritt 1: Erstellen Sie Ihren ersten S3-Bucket in der Amazon S3 S3-Dokumentation.

Anmerkung

Der Amazon S3 S3-Bucket muss sich in derselben AWS-Region befinden, in der Sie die Lösung bereitstellen.

AWS DevOps

Klonen Sie das GitHub Repository.

Klonen Sie das GitHub automated-ci-pipeline-creationRepository, indem Sie den folgenden Befehl in einem Terminalfenster ausführen:

git clone https://github.com/aws-samples/automated-ci-pipeline-creation.git

Weitere Informationen finden Sie in der GitHub Dokumentation unter Ein Repository klonen.

AWS DevOps

Laden Sie den Ordner Solution Templates aus dem geklonten GitHub Repository in Ihren Amazon S3 S3-Bucket hoch.

Kopieren Sie den Inhalt aus dem geklonten Solution-Templates-Ordner und laden Sie ihn in den Amazon S3 S3-Bucket hoch, den Sie erstellt haben.

Weitere Informationen finden Sie unter Hochladen von Objekten in der Amazon S3 S3-Dokumentation.

Anmerkung

Stellen Sie sicher, dass Sie nur den Inhalt des Ordners Solution-Templates hochladen. Sie können die Dateien nur auf der Stammebene des Amazon S3 S3-Buckets hochladen.

AWS DevOps
AufgabeBeschreibungErforderliche Fähigkeiten

Erstellen Sie einen CloudFormation Stack, um die Lösung mithilfe der Datei template.yml im geklonten Repository bereitzustellen. GitHub

  1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die CloudFormation AWS-Konsole.

  2. Wählen Sie Stack erstellen aus. Eine Dropdownliste wird angezeigt.

  3. Wählen Sie in der Dropdownliste die Option Mit neuen Ressourcen (Standard) aus. Die Seite Stack erstellen wird geöffnet.

  4. Aktivieren Sie im Abschnitt „Vorlage angeben“ das Kontrollkästchen neben „Eine Vorlagendatei hochladen“.

  5. Wählen Sie Datei auswählen aus. Navigieren Sie dann zum Stammordner des geklonten GitHub Repositorys und wählen Sie die Datei template.yml aus. Wählen Sie dann Open (Öffnen) aus.

  6. Wählen Sie Weiter. Die Seite „Stack-Details angeben“ wird geöffnet.

  7. Geben Sie im Abschnitt Parameter die folgenden Parameter an:

    • Geben Sie für S3 TemplateBucketName den Namen des Amazon S3 S3-Buckets ein, den Sie zuvor erstellt haben und der den Quellcode und die Referenzen für diese Lösung enthält. Stellen Sie sicher, dass der Parameter für den Bucket-Namen in Kleinbuchstaben geschrieben ist.

    • Geben Sie für Dynamo DBTable einen Namen für die DynamoDB-Tabelle ein, die der CloudFormation Stapel erstellt.

    • Geben Sie für StateMachineNameeinen Namen für die Step Functions Functions-Zustandsmaschine ein, die der CloudFormation Stack erstellt.

  8. Wählen Sie Weiter. Die Seite „Stack-Optionen konfigurieren“ wird geöffnet.

  9. Wählen Sie auf der Seite Configure stack options (Stack-Optionen konfigurieren) Next (Weiter) aus. Ändern Sie keinen der Standardwerte. Die Seite „Überprüfen“ wird geöffnet.

  10. Überprüfen Sie die Einstellungen für die Stack-Erstellung. Wählen Sie dann Stack erstellen, um Ihren Stack zu starten.

Anmerkung

Während Ihr Stack erstellt wird, wird er auf der Seite Stacks mit dem Status CREATE_IN_PROGRESS aufgeführt. Stellen Sie sicher, dass Sie warten, bis sich der Status des Stacks auf CREATE_COMPLETE ändert, bevor Sie die verbleibenden Schritte in diesem Muster abschließen.

AWS-Administrator, AWS DevOps

Stellen Sie die Lösung bereit

AufgabeBeschreibungErforderliche Fähigkeiten

Erstellen Sie einen CloudFormation Stack, um die Lösung mithilfe der Datei template.yml im geklonten Repository bereitzustellen. GitHub

  1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die CloudFormation AWS-Konsole.

  2. Wählen Sie Stack erstellen aus. Eine Dropdownliste wird angezeigt.

  3. Wählen Sie in der Dropdownliste die Option Mit neuen Ressourcen (Standard) aus. Die Seite Stack erstellen wird geöffnet.

  4. Aktivieren Sie im Abschnitt „Vorlage angeben“ das Kontrollkästchen neben „Eine Vorlagendatei hochladen“.

  5. Wählen Sie Datei auswählen aus. Navigieren Sie dann zum Stammordner des geklonten GitHub Repositorys und wählen Sie die Datei template.yml aus. Wählen Sie dann Open (Öffnen) aus.

  6. Wählen Sie Weiter. Die Seite „Stack-Details angeben“ wird geöffnet.

  7. Geben Sie im Abschnitt Parameter die folgenden Parameter an:

    • Geben Sie für S3 TemplateBucketName den Namen des Amazon S3 S3-Buckets ein, den Sie zuvor erstellt haben und der den Quellcode und die Referenzen für diese Lösung enthält. Stellen Sie sicher, dass der Parameter für den Bucket-Namen in Kleinbuchstaben geschrieben ist.

    • Geben Sie für Dynamo DBTable einen Namen für die DynamoDB-Tabelle ein, die der CloudFormation Stapel erstellt.

    • Geben Sie für StateMachineNameeinen Namen für die Step Functions Functions-Zustandsmaschine ein, die der CloudFormation Stack erstellt.

  8. Wählen Sie Weiter. Die Seite „Stack-Optionen konfigurieren“ wird geöffnet.

  9. Wählen Sie auf der Seite Configure stack options (Stack-Optionen konfigurieren) Next (Weiter) aus. Ändern Sie keinen der Standardwerte. Die Seite „Überprüfen“ wird geöffnet.

  10. Überprüfen Sie die Einstellungen für die Stack-Erstellung. Wählen Sie dann Stack erstellen, um Ihren Stack zu starten.

Anmerkung

Während Ihr Stack erstellt wird, wird er auf der Seite Stacks mit dem Status CREATE_IN_PROGRESS aufgeführt. Stellen Sie sicher, dass Sie warten, bis sich der Status des Stacks auf CREATE_COMPLETE ändert, bevor Sie die verbleibenden Schritte in diesem Muster abschließen.

AWS-Administrator, AWS DevOps
AufgabeBeschreibungErforderliche Fähigkeiten

Führen Sie die Schrittfunktion aus, die Sie erstellt haben.

  1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die Step Functions Functions-Konsole.

  2. Öffnen Sie die Step-Funktion, die Sie erstellt haben.

  3. Wählen Sie Start execution (Ausführung starten) aus. Geben Sie dann Ihre Eingabewerte für den Workflow im JSON-Format ein (siehe die folgenden Beispieleingaben).

  4. Wählen Sie Start execution (Ausführung starten) aus.

JSON-Formatierung

{ "details": { "tech_stack": "Name of the Tech Stack (python/java)", "project_name": "Name of the Project that you want to create with", "pre_build": "Choose the step if it required in the buildspec.yml file i.e., yes/no", "build": "Choose the step if it required in the buildspec.yml file i.e., yes/no", "post_build": "Choose the step if it required in the buildspec.yml file i.e., yes/no", "reports": "Choose the step if it required in the buildspec.yml file i.e., yes/no", } }

Beispiel für eine Java-JSON-Eingabe

{ "details": { "tech_stack": "java", "project_name": "pipeline-java-pjt", "pre_build": "yes", "build": "yes", "post_build": "yes", "reports": "yes" } }

Beispiel für Python-JSON-Eingabe

{ "details": { "tech_stack": "python", "project_name": "pipeline-python-pjt", "pre_build": "yes", "build": "yes", "post_build": "yes", "reports": "yes" } }
AWS-Administrator, AWS DevOps

Vergewissern Sie sich, dass das CodeCommit Repository für die CI-Pipeline erstellt wurde.

  1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die CodeCommit Konsole.

  2. Vergewissern Sie sich auf der Seite Repositorys, dass der Name des CodeCommit Repositorys, das Sie erstellt haben, in der Liste der Repositorys erscheint. An den Namen des Repositorys wird Folgendes angehängt: -Repo pipeline-java-pjt

  3. Öffnen Sie das CodeCommit Repository und überprüfen Sie, ob der Beispielquellcode zusammen mit den buildspec.yml-Dateien in den Hauptzweig übertragen wurde.

AWS DevOps

Überprüfen Sie die CodeBuild Projektressourcen.

  1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die CodeBuild Konsole.

  2. Vergewissern Sie sich auf der Seite Projekte erstellen, dass der Name des CodeBuild Projekts, das Sie erstellt haben, in der Projektliste angezeigt wird. An den Namen des Projekts wird Folgendes angehängt: pipeline-java-pjt -Build

  3. Wählen Sie den Namen Ihres CodeBuild Projekts aus, um das Projekt zu öffnen. Überprüfen und validieren Sie anschließend die folgenden Konfigurationen:

    • Konfiguration des Projekts

    • Quelle

    • Umgebung

    • Buildspec

    • Batch-Konfiguration

    • Artefakte

AWS DevOps

Validieren Sie die CodePipeline Stufen.

  1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die CodePipeline Konsole.

  2. Stellen Sie auf der Seite Pipelines sicher, dass der Name der Pipeline, die Sie erstellt haben, in der Liste der Pipelines erscheint. An den Namen der Pipeline wird Folgendes angehängt: -Pipeline pipeline-java-pjt

  3. Wählen Sie den Namen Ihrer Pipeline aus, um die Pipeline zu öffnen. Überprüfen und validieren Sie anschließend jede Phase der Pipeline, einschließlich Commit und Deploy.

AWS DevOps

Vergewissern Sie sich, dass die CI-Pipeline erfolgreich ausgeführt wurde.

  1. Wählen Sie in der CodePipeline Konsole auf der Seite Pipelines den Namen Ihrer Pipeline aus, um den Status der Pipeline anzuzeigen.

  2. Stellen Sie sicher, dass jede Phase der Pipeline den Status Erfolgreich hat.

AWS DevOps

Testen der Einrichtung

AufgabeBeschreibungErforderliche Fähigkeiten

Führen Sie die Schrittfunktion aus, die Sie erstellt haben.

  1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die Step Functions Functions-Konsole.

  2. Öffnen Sie die Step-Funktion, die Sie erstellt haben.

  3. Wählen Sie Start execution (Ausführung starten) aus. Geben Sie dann Ihre Eingabewerte für den Workflow im JSON-Format ein (siehe die folgenden Beispieleingaben).

  4. Wählen Sie Start execution (Ausführung starten) aus.

JSON-Formatierung

{ "details": { "tech_stack": "Name of the Tech Stack (python/java)", "project_name": "Name of the Project that you want to create with", "pre_build": "Choose the step if it required in the buildspec.yml file i.e., yes/no", "build": "Choose the step if it required in the buildspec.yml file i.e., yes/no", "post_build": "Choose the step if it required in the buildspec.yml file i.e., yes/no", "reports": "Choose the step if it required in the buildspec.yml file i.e., yes/no", } }

Beispiel für eine Java-JSON-Eingabe

{ "details": { "tech_stack": "java", "project_name": "pipeline-java-pjt", "pre_build": "yes", "build": "yes", "post_build": "yes", "reports": "yes" } }

Beispiel für Python-JSON-Eingabe

{ "details": { "tech_stack": "python", "project_name": "pipeline-python-pjt", "pre_build": "yes", "build": "yes", "post_build": "yes", "reports": "yes" } }
AWS-Administrator, AWS DevOps

Vergewissern Sie sich, dass das CodeCommit Repository für die CI-Pipeline erstellt wurde.

  1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die CodeCommit Konsole.

  2. Vergewissern Sie sich auf der Seite Repositorys, dass der Name des CodeCommit Repositorys, das Sie erstellt haben, in der Liste der Repositorys erscheint. An den Namen des Repositorys wird Folgendes angehängt: -Repo pipeline-java-pjt

  3. Öffnen Sie das CodeCommit Repository und überprüfen Sie, ob der Beispielquellcode zusammen mit den buildspec.yml-Dateien in den Hauptzweig übertragen wurde.

AWS DevOps

Überprüfen Sie die CodeBuild Projektressourcen.

  1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die CodeBuild Konsole.

  2. Vergewissern Sie sich auf der Seite Projekte erstellen, dass der Name des CodeBuild Projekts, das Sie erstellt haben, in der Projektliste angezeigt wird. An den Namen des Projekts wird Folgendes angehängt: pipeline-java-pjt -Build

  3. Wählen Sie den Namen Ihres CodeBuild Projekts aus, um das Projekt zu öffnen. Überprüfen und validieren Sie anschließend die folgenden Konfigurationen:

    • Konfiguration des Projekts

    • Quelle

    • Umgebung

    • Buildspec

    • Batch-Konfiguration

    • Artefakte

AWS DevOps

Validieren Sie die CodePipeline Stufen.

  1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die CodePipeline Konsole.

  2. Stellen Sie auf der Seite Pipelines sicher, dass der Name der Pipeline, die Sie erstellt haben, in der Liste der Pipelines erscheint. An den Namen der Pipeline wird Folgendes angehängt: -Pipeline pipeline-java-pjt

  3. Wählen Sie den Namen Ihrer Pipeline aus, um die Pipeline zu öffnen. Überprüfen und validieren Sie anschließend jede Phase der Pipeline, einschließlich Commit und Deploy.

AWS DevOps

Vergewissern Sie sich, dass die CI-Pipeline erfolgreich ausgeführt wurde.

  1. Wählen Sie in der CodePipeline Konsole auf der Seite Pipelines den Namen Ihrer Pipeline aus, um den Status der Pipeline anzuzeigen.

  2. Stellen Sie sicher, dass jede Phase der Pipeline den Status Erfolgreich hat.

AWS DevOps
AufgabeBeschreibungErforderliche Fähigkeiten

Löschen Sie den Ressourcenstapel CloudFormation.

Löschen Sie den Ressourcenstapel der CI-Pipeline CloudFormation.

Weitere Informationen finden Sie in der CloudFormation Dokumentation unter Löschen eines Stacks auf der CloudFormation AWS-Konsole.

Anmerkung

Stellen Sie sicher, dass Sie den Stack mit dem Namen -stack <project_name>löschen.

AWS DevOps

Löschen Sie die Abhängigkeiten der CI-Pipeline in Amazon S3 und CloudFormation.

  1. Leeren Sie den Amazon S3 S3-Bucket mit dem Namen DeploymentArtifactBucket. Weitere Informationen finden Sie in der Amazon S3 S3-Dokumentation unter Einen Bucket leeren.

  2. Löschen Sie den Abhängigkeitsstapel der CI-Pipeline in. CloudFormation Weitere Informationen finden Sie in der CloudFormation Dokumentation unter Löschen eines Stacks auf der CloudFormation AWS-Konsole.

Anmerkung

Stellen Sie sicher, dass Sie den genannten Stack löschen pipeline-creation-dependencies-stack.

AWS DevOps

Löschen Sie den Amazon S3 S3-Vorlagen-Bucket.

Löschen Sie den Amazon S3-Bucket, den Sie im Abschnitt Voraussetzungen konfigurieren dieses Musters erstellt haben, in dem die Vorlagen für diese Lösung gespeichert sind.

Weitere Informationen finden Sie unter Löschen eines Buckets in der Amazon S3 S3-Dokumentation.

AWS DevOps

Bereinigen Ihrer Ressourcen

AufgabeBeschreibungErforderliche Fähigkeiten

Löschen Sie den Ressourcenstapel CloudFormation.

Löschen Sie den Ressourcenstapel der CI-Pipeline CloudFormation.

Weitere Informationen finden Sie in der CloudFormation Dokumentation unter Löschen eines Stacks auf der CloudFormation AWS-Konsole.

Anmerkung

Stellen Sie sicher, dass Sie den Stack mit dem Namen -stack <project_name>löschen.

AWS DevOps

Löschen Sie die Abhängigkeiten der CI-Pipeline in Amazon S3 und CloudFormation.

  1. Leeren Sie den Amazon S3 S3-Bucket mit dem Namen DeploymentArtifactBucket. Weitere Informationen finden Sie in der Amazon S3 S3-Dokumentation unter Einen Bucket leeren.

  2. Löschen Sie den Abhängigkeitsstapel der CI-Pipeline in. CloudFormation Weitere Informationen finden Sie in der CloudFormation Dokumentation unter Löschen eines Stacks auf der CloudFormation AWS-Konsole.

Anmerkung

Stellen Sie sicher, dass Sie den genannten Stack löschen pipeline-creation-dependencies-stack.

AWS DevOps

Löschen Sie den Amazon S3 S3-Vorlagen-Bucket.

Löschen Sie den Amazon S3-Bucket, den Sie im Abschnitt Voraussetzungen konfigurieren dieses Musters erstellt haben, in dem die Vorlagen für diese Lösung gespeichert sind.

Weitere Informationen finden Sie unter Löschen eines Buckets in der Amazon S3 S3-Dokumentation.

AWS DevOps

Zugehörige Ressourcen

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.