Replizieren Sie Mainframe-Datenbanken mithilfe AWS von Precisely Connect - AWS Prescriptive Guidance

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Replizieren Sie Mainframe-Datenbanken mithilfe AWS von Precisely Connect

Erstellt von Lucio Pereira (AWS), Balaji Mohan () und Sayantan Giri () AWS AWS

Umwelt: Produktion

Quelle: Lokaler Mainframe

Ziel: Datenbanken AWS

R-Typ: Re-Architect

Arbeitslast: Alle anderen Workloads

Technologien: Datenbanken; Mainframe CloudNative; Modernisierung

AWSDienste: Amazon DynamoDB; Amazon Keyspaces; AmazonMSK; Amazon RDS ElastiCache

Übersicht

Dieses Muster beschreibt die Schritte zur Replikation von Daten aus Mainframe-Datenbanken in Amazon-Datenspeicher nahezu in Echtzeit mithilfe von Precisely Connect. Es implementiert eine ereignisbasierte Architektur mit Amazon Managed Streaming for Apache Kafka (AmazonMSK) und benutzerdefinierten Datenbank-Konnektoren in der Cloud, um Skalierbarkeit, Belastbarkeit und Leistung zu verbessern.

Precisely Connect ist ein Replikationstool, das Daten von älteren Mainframe-Systemen erfasst und in Cloud-Umgebungen integriert. Daten werden von Mainframes auf Change Data Capture (CDC) repliziert, wobei Nachrichtenflüsse nahezu in Echtzeit mit heterogenen Datenpipelines mit niedriger Latenz und hohem AWS Durchsatz verwendet werden. 

Dieses Muster deckt auch eine Notfallwiederherstellungsstrategie für belastbare Datenpipelines mit Datenreplikation und Failover-Routing in mehreren Regionen ab.

Voraussetzungen und Einschränkungen

Voraussetzungen

Architektur

Quelltechnologie-Stack

Eine Mainframe-Umgebung, die mindestens eine der folgenden Datenbanken umfasst:

  • IBMIMSDatenbank

  • IBMDB2Datenbank

  • VSAMDateien

Zieltechnologie-Stack

  • Amazon MSK

  • Amazon Elastic Kubernetes Service (AmazonEKS) und Amazon Anywhere EKS

  • Docker

  • Eine AWS relationale Datenbank oder keine SQL Datenbank wie die folgende:

    • Amazon-DynamoDB

    • Amazon Relational Database Service (AmazonRDS) für Oracle, Amazon RDS für Postgre SQL oder Amazon Aurora

    • Amazon ElastiCache für Redis

    • Amazon Keyspaces (für Apache Cassandra)

Zielarchitektur

Replizieren von Mainframe-Daten in Datenbanken AWS

Das folgende Diagramm veranschaulicht die Replikation von Mainframe-Daten in eine AWS Datenbank wie DynamoDB, AmazonRDS, Amazon oder Amazon ElastiCache Keyspaces. Die Replikation erfolgt nahezu in Echtzeit, indem Sie Precisely Capture and Publisher in Ihrer lokalen Mainframe-Umgebung, Precisely Dispatcher auf Amazon EKS Anywhere in Ihrer lokalen verteilten Umgebung und Precisely Apply Engine und Datenbank-Konnektoren in der Cloud verwenden. AWS 

Replizieren von Mainframe-Daten in Datenbanken AWS

Das Diagramm zeigt den folgenden Workflow:

  1. Precisiely Capture ruft Mainframe-Daten aus CDC Protokollen ab und verwaltet die Daten im internen Transientenspeicher.

  2. Precisely Publisher überwacht Änderungen im internen Datenspeicher und sendet CDC Datensätze über eine /IP-Verbindung an Precisely Dispatcher. TCP

  3. Precisely Dispatcher empfängt die CDC Datensätze von Publisher und sendet sie an AmazonMSK. Der Dispatcher erstellt Kafka-Schlüssel auf der Grundlage der Benutzerkonfiguration und mehrerer Worker-Tasks, um Daten parallel zu übertragen. Der Dispatcher sendet eine Bestätigung an Publisher zurück, wenn Datensätze bei Amazon gespeichert wurden. MSK

  4. Amazon MSK hält die CDC Aufzeichnungen in der Cloud-Umgebung. Die Partitionsgröße der Themen hängt von den Durchsatzanforderungen Ihres Transaktionsverarbeitungssystems (TPS) ab. Der Kafka-Schlüssel ist für die weitere Transformation und die Reihenfolge der Transaktionen erforderlich.

  5. Die Precisely Apply Engine hört sich die CDC Datensätze von Amazon an MSK und transformiert die Daten (z. B. durch Filtern oder Zuordnen) basierend auf den Anforderungen der Zieldatenbank. Sie können den Preciselise-Skripten benutzerdefinierte Logik hinzufügen. SQD (SQDist die eigene Sprache von Precisely.) Die Precisely Apply Engine wandelt jeden CDC Datensatz in das Apache Avro- oder Apache JSON Avro-Format um und verteilt ihn je nach Ihren Anforderungen an verschiedene Themen.

  6. Die Kafka-Zielthemen enthalten CDC Datensätze zu mehreren Themen, die auf der Zieldatenbank basieren, und Kafka erleichtert die Reihenfolge der Transaktionen auf der Grundlage des definierten Kafka-Schlüssels. Die Partitionsschlüssel sind auf die entsprechenden Partitionen abgestimmt, um einen sequentiellen Prozess zu unterstützen. 

  7. Datenbank-Konnektoren (maßgeschneiderte Java-Anwendungen) hören die CDC Datensätze von Amazon ab MSK und speichern sie in der Zieldatenbank.

  8. Sie können eine Zieldatenbank entsprechend Ihren Anforderungen auswählen. Dieses Muster unterstützt sowohl Nein-Datenbanken als SQL auch relationale Datenbanken.

Wiederherstellung nach einem Notfall

Geschäftskontinuität ist der Schlüssel zum Erfolg Ihres Unternehmens. Die AWS Cloud bietet Funktionen für Hochverfügbarkeit (HA) und Disaster Recovery (DR) und unterstützt die Failover- und Fallback-Pläne Ihres Unternehmens. Dieses Muster folgt einer aktiven/passiven DR-Strategie und bietet umfassende Leitlinien für die Implementierung einer DR-Strategie, die Ihren Anforderungen entspricht. RTO RPO

Das folgende Diagramm veranschaulicht den DR-Workflow.

Disaster Recovery-Workflow für die Replikation von Mainframe-Daten auf AWS

Das Diagramm zeigt Folgendes:

  1. Ein halbautomatisches Failover ist erforderlich, falls in Region 1 ein Fehler auftritt. AWS Im Falle eines Fehlers in Region 1 muss das System Routing-Änderungen einleiten, um den Precisely Dispatcher mit Region 2 zu verbinden. 

  2. Amazon MSK repliziert Daten durch Spiegelung zwischen Regionen. Aus diesem Grund muss der MSK Amazon-Cluster in Region 2 während eines Failovers zum primären Leader befördert werden. 

  3. Die Precisely Apply Engine und die Datenbank-Konnektoren sind zustandslose Anwendungen, die in jeder Region funktionieren können. 

  4. Die Datenbanksynchronisierung hängt von der Zieldatenbank ab. DynamoDB kann beispielsweise globale Tabellen und globale ElastiCache Datenspeicher verwenden.

Verarbeitung mit niedriger Latenz und hohem Durchsatz durch Datenbankkonnektoren

Datenbankkonnektoren sind wichtige Komponenten dieses Musters. Connectors verfolgen einen Listener-basierten Ansatz, um Daten von Amazon zu sammeln MSK und Transaktionen durch Verarbeitung mit hohem Durchsatz und niedriger Latenz für unternehmenskritische Anwendungen (Stufen 0 und 1) an die Datenbank zu senden. Das folgende Diagramm veranschaulicht diesen Prozess.

Verwendung von Datenbank-Konnektoren zur Replikation von Mainframe-Daten auf AWS

Dieses Muster unterstützt die Entwicklung einer maßgeschneiderten Anwendung mit Single-Thread-Nutzung über eine Multithread-Verarbeitungs-Engine.

  1. Der Haupt-Thread des Connectors verwendet CDC Datensätze von Amazon MSK und sendet sie zur Verarbeitung an den Thread-Pool.

  2. Threads aus dem Thread-Pool verarbeiten CDC Datensätze und senden sie an die Zieldatenbank.

  3. Wenn alle Threads ausgelastet sind, werden die CDC Datensätze in der Thread-Warteschlange aufbewahrt.

  4. Der Haupt-Thread wartet darauf, dass alle Datensätze aus der Thread-Warteschlange gelöscht werden, und überträgt Offsets an Amazon. MSK

  5. Die untergeordneten Threads behandeln Fehler. Wenn bei der Verarbeitung Fehler auftreten, werden die fehlgeschlagenen Nachrichten an das Thema DLQ (Warteschlange mit unerlaubten Briefen) gesendet.

  6. Die untergeordneten Threads initiieren bedingte Aktualisierungen (siehe Bedingungsausdrücke in der DynamoDB-Dokumentation) auf der Grundlage des Mainframe-Zeitstempels, um Duplikate oder out-of-order Aktualisierungen in der Datenbank zu vermeiden.

Informationen zur Implementierung einer Kafka-Consumer-Anwendung mit Multithreading-Funktionen finden Sie im Blogbeitrag Multi-Threading Message Consumption with the Apache Kafka Consumer auf der Confluent-Website.

Tools

AWSDienste

  • Amazon Managed Streaming for Apache Kafka (AmazonMSK) ist ein vollständig verwalteter Service, der Sie beim Erstellen und Ausführen von Anwendungen unterstützt, die Apache Kafka zur Verarbeitung von Streaming-Daten verwenden.

  • Mit Amazon Elastic Kubernetes Service (AmazonEKS) können Sie Kubernetes ausführen, AWS ohne Ihre eigene Kubernetes-Steuerebene oder Knoten installieren oder verwalten zu müssen.

  • Amazon EKS Anywhere unterstützt Sie bei der Bereitstellung, Verwendung und Verwaltung von Kubernetes-Clustern, die in Ihren eigenen Rechenzentren ausgeführt werden.

  • Amazon DynamoDB ist ein vollständig verwalteter Service ohne SQL Datenbank, der eine schnelle, vorhersehbare und skalierbare Leistung bietet.

  • Amazon Relational Database Service (AmazonRDS) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Datenbank in der AWS Cloud.

  • Amazon ElastiCache unterstützt Sie bei der Einrichtung, Verwaltung und Skalierung verteilter In-Memory-Cache-Umgebungen in der AWS Cloud.

  • Amazon Keyspaces (für Apache Cassandra) ist ein verwalteter Datenbankservice, der Sie bei der Migration, Ausführung und Skalierung Ihrer Cassandra-Workloads in der Cloud unterstützt. AWS

Andere Tools

  • Precisely Connect integriert Daten aus älteren Mainframe-Systemen wie VSAM Datensätze oder IBM Mainframe-Datenbanken in Cloud- und Datenplattformen der nächsten Generation.

Bewährte Methoden

  • Finden Sie die beste Kombination aus Kafka-Partitionen und Multithread-Konnektoren, um ein optimales Verhältnis von Leistung und Kosten zu erzielen. Mehrere Precisely Capture- und Dispatcher-Instanzen können aufgrund des höheren Verbrauchs MIPS (Millionen Befehle pro Sekunde) die Kosten in die Höhe treiben.

  • Vermeiden Sie es, den Datenbankkonnektoren Datenmanipulations- und Transformationslogik hinzuzufügen. Verwenden Sie zu diesem Zweck die Precisely Apply Engine, die Verarbeitungszeiten in Mikrosekunden angibt.

  • Erstellen Sie in Datenbank-Konnektoren regelmäßige Anfragen oder Integritätsprüfungen an die Datenbank (Heartbeats), um die Verbindung häufig aufzuwärmen und die Latenz zu reduzieren.

  • Implementieren Sie die Threadpool-Validierungslogik, um die ausstehenden Aufgaben in der Thread-Warteschlange zu verstehen und warten Sie, bis alle Threads abgeschlossen sind, bevor Sie mit der nächsten Kafka-Abfrage beginnen. Auf diese Weise können Datenverluste vermieden werden, wenn ein Knoten, ein Container oder ein Prozess abstürzt.

  • Stellen Sie Latenzmetriken über Integritätsendpunkte zur Verfügung, um die Beobachtbarkeit mithilfe von Dashboards und Nachverfolgungsmechanismen zu verbessern.

Epen

AufgabeBeschreibungErforderliche Fähigkeiten

Richten Sie den Mainframe-Prozess (Batch- oder Online-Utility) so ein, dass der CDC Prozess von Mainframe-Datenbanken aus gestartet wird.

  1. Identifizieren Sie die Mainframe-Umgebung.

  2. Identifizieren Sie die Mainframe-Datenbanken, die an dem CDC Prozess beteiligt sein werden.

  3. Entwickeln Sie in der Mainframe-Umgebung einen Prozess, der das CDC Tool startet, um Änderungen in der Quelldatenbank zu erfassen. Anweisungen finden Sie in Ihrer Mainframe-Dokumentation.

  4. Dokumentieren Sie den CDC Prozess, einschließlich der Konfiguration.

  5. Stellen Sie den Prozess sowohl in Test- als auch in Produktionsumgebungen bereit. 

Mainframe-Ingenieur

Aktivieren Sie die Logstreams der Mainframe-Datenbank.

  1. Konfigurieren Sie Protokollstreams in der Mainframe-Umgebung, um Protokolle zu erfassenCDC. Anweisungen finden Sie in Ihrer Mainframe-Dokumentation.

  2. Testen Sie die Log-Streams, um sicherzustellen, dass sie die erforderlichen Daten erfassen.

  3. Stellen Sie die Protokollstreams in Test- und Produktionsumgebungen bereit.

Spezialist für Mainframe-Datenbanken

Verwenden Sie die Capture-Komponente, um CDC Datensätze zu erfassen.

  1. Installieren und konfigurieren Sie die Precisely Capture-Komponente in der Mainframe-Umgebung. Anweisungen finden Sie in der Precisely Dokumentation.

  2. Testen Sie die Konfiguration, um sicherzustellen, dass die Capture-Komponente ordnungsgemäß funktioniert.

  3. Richten Sie einen Replikationsprozess ein, um die erfassten CDC Datensätze über die Capture-Komponente zu replizieren.

  4. Dokumentieren Sie die Capture-Konfiguration für jede Quelldatenbank.

  5. Entwickeln Sie ein Überwachungssystem, um sicherzustellen, dass die Capture-Komponente die Protokolle im Laufe der Zeit ordnungsgemäß sammelt.

  6. Stellen Sie die Installation und die Konfigurationen in der Test- und Produktionsumgebung bereit.

Mainframe-Ingenieur, Precisely Connect SME

Konfigurieren Sie die Publisher-Komponente so, dass sie die Capture-Komponente abhört.

  1. Installieren und konfigurieren Sie die Precisely Publisher-Komponente in der Mainframe-Umgebung. Anweisungen finden Sie in der Precisely Dokumentation.

  2. Testen Sie die Konfiguration, um sicherzustellen, dass die Publisher-Komponente ordnungsgemäß funktioniert.

  3. Richten Sie einen Replikationsprozess ein, um die CDC Datensätze von Publisher in der Precisely Dispatcher-Komponente zu veröffentlichen.

  4. Dokumentieren Sie die Publisher-Konfiguration.

  5. Entwickeln Sie ein Überwachungssystem, um sicherzustellen, dass die Publisher-Komponente im Laufe der Zeit ordnungsgemäß funktioniert.

  6. Stellen Sie die Installation und Konfigurationen in der Test- und Produktionsumgebung bereit.

Mainframe-Ingenieur, Precisely Connect SME

Stellen Sie Amazon EKS Anywhere in der lokalen verteilten Umgebung bereit.

  1. Installieren Sie Amazon EKS Anywhere auf der lokalen Infrastruktur und stellen Sie sicher, dass diese ordnungsgemäß konfiguriert ist. Anweisungen finden Sie in der Amazon EKS Anywhere-Dokumentation.

  2. Richten Sie eine sichere Netzwerkumgebung für den Kubernetes-Cluster ein, einschließlich Firewalls.

  3. Implementieren und testen Sie die Bereitstellung der Beispielanwendung im Amazon EKS Anywhere-Cluster.

  4. Implementieren Sie automatische Skalierungsfunktionen für den Cluster.

  5. Entwickeln und implementieren Sie Sicherungs- und Notfallwiederherstellungsverfahren. 

DevOps Ingenieur

Stellen Sie die Dispatcher-Komponente in der verteilten Umgebung bereit und konfigurieren Sie sie, um die Themen in der AWS Cloud zu veröffentlichen.

  1. Konfigurieren und containerisieren Sie die Precisely Dispatcher-Komponente. Anweisungen finden Sie in der Precisely Dokumentation.

  2. Stellen Sie das Dispatcher-Docker-Image in der lokalen Amazon EKS Anywhere-Umgebung bereit.

  3. Richten Sie eine sichere Verbindung zwischen der AWS Cloud und dem Dispatcher ein.

  4. Entwickeln Sie ein Überwachungssystem, um sicherzustellen, dass die Dispatcher-Komponente im Laufe der Zeit ordnungsgemäß funktioniert.

  5. Stellen Sie die Installation und die Konfigurationen in der Test- und Produktionsumgebung bereit. 

DevOps Ingenieur, Precisely Connect SME
AufgabeBeschreibungErforderliche Fähigkeiten

Stellen Sie einen EKS Amazon-Cluster in der angegebenen AWS Region bereit.

  1. Melden Sie sich bei Ihrem AWS Konto an und konfigurieren Sie es, um sicherzustellen, dass die erforderlichen Berechtigungen für die Erstellung und Verwaltung des EKS Amazon-Clusters vorhanden sind.

  2. Erstellen Sie eine virtuelle private Cloud (VPC) und Subnetze in der ausgewählten AWS Region. Anweisungen finden Sie in der EKSAmazon-Dokumentation.

  3. Erstellen und konfigurieren Sie die erforderlichen Netzwerksicherheitsgruppen, um die Kommunikation zwischen dem EKS Amazon-Cluster und anderen Ressourcen in der zu ermöglichenVPC. Weitere Informationen finden Sie in der EKSAmazon-Dokumentation.

  4. Erstellen Sie den EKSAmazon-Cluster und konfigurieren Sie ihn mit der richtigen Knotengruppengröße und den richtigen Instance-Typen.

  5. Validieren Sie den EKS Amazon-Cluster, indem Sie eine Beispielanwendung bereitstellen.

DevOps Ingenieur, Netzwerkadministrator

Stellen Sie einen MSK Cluster bereit und konfigurieren Sie die entsprechenden Kafka-Themen.

  1. Konfigurieren Sie Ihr AWS Konto, um sicherzustellen, dass die erforderlichen Berechtigungen für die Erstellung und Verwaltung des MSK Clusters vorhanden sind.

  2. Erstellen und konfigurieren Sie die erforderlichen Netzwerksicherheitsgruppen, um die Kommunikation zwischen dem MSK Cluster und anderen Ressourcen im zu ermöglichenVPC. Weitere Informationen finden Sie in der VPCAmazon-Dokumentation.

  3. Erstellen Sie den MSK Cluster und konfigurieren Sie ihn so, dass er die Kafka-Themen enthält, die von der Anwendung verwendet werden. Weitere Informationen finden Sie in der MSKAmazon-Dokumentation.

DevOps Ingenieur, Netzwerkadministrator

Konfigurieren Sie die Apply Engine-Komponente so, dass sie sich die replizierten Kafka-Themen anhört.

  1. Konfigurieren und containerisieren Sie die Precisely Apply Engine-Komponente.

  2. Stellen Sie das Apply Engine Docker-Image im EKS Amazon-Cluster in Ihrem AWS Konto bereit.

  3. Richten Sie die Apply Engine so ein, dass sie sich MSK Themen anhört.

  4. Entwickeln und konfigurieren Sie ein SQD Skript in der Apply Engine für die Filterung und Transformation. Weitere Informationen finden Sie in der Dokumentation Precisely.

  5. Stellen Sie die Apply Engine in Test- und Produktionsumgebungen bereit.

Präzise Connect SME

Stellen Sie DB-Instances in der AWS Cloud bereit.

  1. Konfigurieren Sie Ihr AWS Konto, um sicherzustellen, dass die erforderlichen Berechtigungen zum Erstellen und Verwalten von DB-Clustern und -Tabellen vorhanden sind. Anweisungen finden Sie in der AWS Dokumentation für den AWS Datenbankdienst, den Sie verwenden möchten. (Links finden Sie im Abschnitt Ressourcen.)

  2. Erstellen Sie ein VPC und Subnetze in der ausgewählten AWS Region.

  3. Erstellen und konfigurieren Sie die erforderlichen Netzwerksicherheitsgruppen, um die Kommunikation zwischen den DB-Instances und anderen Ressourcen in der VPC zu ermöglichen.

  4. Erstellen Sie die Datenbanken und konfigurieren Sie sie so, dass sie die Tabellen enthalten, die die Anwendung verwenden wird.

  5. Entwerfen und validieren Sie die Datenbankschemas. 

Dateningenieur, DevOps Ingenieur

Konfigurieren und implementieren Sie Datenbank-Konnektoren, um sich die von der Apply Engine veröffentlichten Themen anzuhören.

  1. Entwerfen Sie Datenbank-Konnektoren, um die Kafka-Themen mit den AWS Datenbanken zu verbinden, die Sie in den vorherigen Schritten erstellt haben.

  2. Entwickeln Sie die Konnektoren auf der Grundlage der Zieldatenbank.

  3. Konfigurieren Sie die Konnektoren so, dass sie sich die Kafka-Themen anhören, die von der Apply Engine veröffentlicht werden.

  4. Stellen Sie die Konnektoren im EKS Amazon-Cluster bereit.

App-Entwickler, Cloud-Architekt, Dateningenieur
AufgabeBeschreibungErforderliche Fähigkeiten

Definieren Sie Ziele für die Notfallwiederherstellung für Ihre Geschäftsanwendungen.

  1. Definieren Sie die RPO und RTO Ziele für CDC Pipelines auf der Grundlage Ihrer Geschäftsanforderungen und der Folgenanalyse.

  2. Definieren Sie die Kommunikations- und Benachrichtigungsverfahren, um sicherzustellen, dass alle Beteiligten über den Notfallwiederherstellungsplan informiert sind.

  3. Ermitteln Sie das Budget und die Ressourcen, die für die Umsetzung des Notfallwiederherstellungsplans erforderlich sind.

  4. Dokumentieren Sie die Ziele für die Notfallwiederherstellung, einschließlich der RTO Ziele RPO und.

Cloud-Architekt, Dateningenieur, App-Besitzer

Entwerfen Sie Strategien für die Notfallwiederherstellung auf der Grundlage definierter Werte vonRTO/RPO.

  1. Ermitteln Sie die am besten geeigneten Strategien für die Notfallwiederherstellung für CDC Pipelines auf der Grundlage Ihrer Kritikalität und Ihrer Wiederherstellungsanforderungen.

  2. Definieren Sie die Disaster Recovery-Architektur und -Topologie.

  3. Definieren Sie die Failover- und Failback-Verfahren für CDC Pipelines, um sicherzustellen, dass sie schnell und nahtlos in die Backup-Region umgestellt werden können.

  4. Dokumentieren Sie die Strategien und Verfahren für die Notfallwiederherstellung und stellen Sie sicher, dass alle Beteiligten ein klares Verständnis des Entwurfs haben.

Cloud-Architekt, Dateningenieur

Stellen Sie Disaster Recovery-Cluster und Konfigurationen bereit.

  1. Stellen Sie eine sekundäre AWS Region für die Notfallwiederherstellung bereit.

  2. Erstellen Sie in der sekundären AWS Region eine Umgebung, die mit der primären AWS Region identisch ist.

  3. Konfigurieren Sie Apache Kafka MirrorMaker zwischen der primären und der sekundären Region. Weitere Informationen finden Sie in der MSKAmazon-Dokumentation.

  4. Konfigurieren Sie Standby-Anwendungen in der sekundären Region.

  5. Konfigurieren Sie Datenbankreplikationen zwischen der primären und der sekundären Region.

DevOps Ingenieur, Netzwerkadministrator, Cloud-Architekt

Testen Sie die CDC Pipeline für die Notfallwiederherstellung.

  1. Definieren Sie den Umfang und die Ziele des Notfallwiederherstellungstests für die CDC Pipeline, einschließlich der Testszenarien und der RTO zu erreichenden Testszenarien.

  2. Identifizieren Sie die Testumgebung und die Infrastruktur für die Durchführung des Disaster Recovery-Tests.

  3. Bereiten Sie die Testdatensätze und das Skript vor, um Ausfallszenarien zu simulieren.

  4. Überprüfen Sie die Datenintegrität und -konsistenz, um sicherzustellen, dass es nicht zu Datenverlusten kommt.

App-Besitzer, Dateningenieur, Cloud-Architekt

Zugehörige Ressourcen

AWSRessourcen

Ressourcen präzise Connect

Konfluente Ressourcen